首页 > TAG信息列表 > Trends
ZABBIX之MySQL数据库历史表优化
前言 手上有一套ZABBIX监控上线后,没特意关注过数据库,没想到两年不到的时间数据量增长到了500G,造成磁盘空间。 方案1:DELETE删除旧数据,周期太长了,而且空间释放不及时,optimize操作也费时间。 方案2:将体积大的表改造成分区表,将部分历史数据导入新表中,后期分区表删除分区释放空间更推荐一个 Chrome 浏览历史记录管理的扩展 - History Trends Unlimited
为什么我要查找这个 Chrome 扩展呢?七月份的时候,我曾经浏览过一篇博客,当时忘记收藏了。现在12月了,我想重新找到那篇博客,但是在 Chrome 历史记录里没有找到。 因此就想寻找一款功能强大的 Chrome 历史记录管理应用。 在 Chrome 扩展商场里转了一圈后,发现了这个扩展。 看看它有哪些功zabbix4.0表分区优化+备份
前言: zabbix运行时间长了,卡顿现象严重。 当zabbix数据库达到7亿多条之后会出现洪水告警。原因是,zabbix数据库压力过大,写入新的数据需要10秒左右。 现在查询zabbix的history_uint 历史数据表,已经高达10亿条以上,现在每次查询都要十多秒,如下图 要做哪些? 保留之前的历史数据对现shell log
#!/bin/bash echo 'begin...' #docker exec -u root scrapy_frame_new /bin/bash -c 'cd /aihuishou_spider/scrapy_frame/run_script && ./runlogistics.sh' #docker exec -u root scrapy_frame /bin/bash -c 'cd /aihuishou_spider/scra群落生态学综述撷取
一、一些基础概念及方法 [1] Cavender-Bares J, Kozak KH, Fine PV, Kembel SW. The merging of community ecology and phylogenetic biology. Ecol Lett. 2009;12(7):693-715. doi:10.1111/j.1461-0248.2009.01314.x 谱系相关的经典综述,被引 1142 [2] Wilcox TM, Schwartz MK, LPython自动化:导出zabbix数据并发邮件脚本
Zabbix没有报表导出的功能,于是通过编写脚本导出zabbix数据并发邮件。效果如下: [外链图片转存中…(img-YujWHCbu-1565876650802)] 下面是脚本,可根据自己的具体情况修改: `#!/usr/bin/python` `#coding:utf-8` `import MySQLdb` `import time,datetime` `import xlsxwritezabbix(4)数据库表分区优化
一、zabbix 数据库存储 zabbix-server将采集到的数据存储在数据库(mysql、oracle等),而数据存储的大小与每秒处理的数量量有关,因此数据存储取决于以下两个因数: (1)Required server performance, new values per second(每秒处理的数据量) (2)Housekeeper的设置