我是怎么通过zabbix监控60台阿里云的RDS和redis数据库的
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了我是怎么通过zabbix监控60台阿里云的RDS和redis数据库的相关的知识,希望对你有一定的参考价值。
前言:
最近一直在做监控方面的东东,一些基本的东西基本到处都有资料也就不多说了。但是,让监控阿里云的数据库真是把我难住了。研究了许久的阿里云api,虽然代码写出来了,但是遇到一个坑,所以转换了思路,分别用redis和mysqladmin连接数据库,获取连接数和请求数,但是却获取不到实例的CPU使用率。又只好回头研究阿里云的api。花了几天终于踩完所有坑,达到自己想要的效果,具体实现过程如下:
正文:
主要添加了以下三条自定义key,第一条通过redis_cli客户端连接redis获取统计数据,第二条通过mysqladmin连接mysql获取统计数据,第三条就是坑我好几天的,通过云监控获取实例信息的key。阿里云的RDS默认是5分钟获取一条监控数据,部分重要的数据库可以设置为1分钟获取一次。不过这个是要收费的。最开始以为都是60秒获取一次监控数据,所以从云监控获取数据时,时间间隔是60秒,就莫名奇妙的出现,有的服务器能获取数据,有的服务器不能获取数据。所以最后的解决思路是,把时间间隔调大,获取好几条数据,然后取最后一条数据就可以了。
#zabbix_agentd.conf UserParameter=redis.get[*],/usr/local/sbin/redis_get.sh $1 | grep -Po ‘$2:\K[.\d]+‘ UserParameter=rds.get[*],mysqladmin -h $1 -P 3306 -u db_username extended-status -p‘password‘ | grep -Po ‘$2[^\d]+\K\d+‘ UserParameter=rds.get_from_cms[*],/usr/local/sbin/database_api.py $1 $2 $3 | grep -Po ‘Average":\K[.\d]+‘ |tail -1
为了自已想象中的安全,我把redis服务器的密码单独放在某个文件中,然后通过自己写的脚本读取redis的连接地址,连接密码,和实例名称,这样在增加item的时候只用添加一个实例名称就好,下面脚本会自己通过实例名称获取redis地址和密码。
#!/bin/bash #/usr/local/sbin/redis_get.sh shadow=/usr/local/sbin/redis_shadow address=`awk -vn=$1 ‘n ~ $NF{print $1}‘ $shadow` password=`awk -vn=$1 ‘n ~ $NF{print $2}‘ $shadow` redis-cli -h $address -a $password info
保存redis的信息放在一个单独的文件中,有新增的redis实例就直接修改这个配置文件就可。
#/usr/local/sbin/redis_shadow redis连接地址 连接密码 实例名称
上面的比较简单。但是有个问题。总共60台服务器,每个服务器有3条需要监控的点,所以就得创建180个item,因为redis和rds里面不能放zabbix客户端,所以我就直接通过监控服务器获取60台数据库的监控信息。我真的手动添加了180个item。。。。真是傻的可爱~所以后面监控cpu使用率我就用zabbix的api来批量添加item,顿时爽炸了~不过在此之前,先看看如何通过阿里云的api获取数据库的cpu使用率把。
#!/usr/local/bin/python from aliyunsdkcore import client from aliyunsdkcms.request.v20160318 import QueryMetricListRequest #用的云监控的api import time import sys import json if len(sys.argv) != 4: print ‘\tusage: python database_api.py <your_PrijectName> <your_Metric> <your_instanceId> ‘ print ‘\thelp from help.aliyun.com/document_detail/28619.html\n‘ exit() clt = client.AcsClient(‘your_access_key‘,‘your_key_password‘,‘region_id‘) #得先创建access_key哟,region_id可以看region_id的列表,比如华北1是什么id呀之类的。 request = QueryMetricListRequest.QueryMetricListRequest() request.set_accept_format(‘json‘) request.set_Project(sys.argv[1]) #此处设置Project用来定义你是redis还是ecs还是rds,具体看查看文档:https://help.aliyun.com/document_detail/28619.html?spm=5176.doc28615.6.627.vlxOtm request.set_Metric(sys.argv[2]) #此处就是你要获取值的监控项,也可以查看上面的文档 start_time = time.strftime(‘%Y-%m-%d %H:%M:%S‘,time.localtime(time.time()-350)) #设置一个时间为当前时间的前350秒处 timestamp_start = int(time.mktime(time.strptime(start_time, "%Y-%m-%d %H:%M:%S"))) * 1000 request.set_StartTime(timestamp_start) request.set_Dimensions("{‘instanceId‘:‘%s‘}"%sys.argv[3]) #此处要设置实例id。 request.set_Period(‘60‘) result = clt.do_action(request) print result #最后得到的是一个json格式的字符串,然后在自定义的key中通过grep获取到对应的值 #result2 = json.loads(result) #print float(result2[‘Datapoints‘][-1][‘Average‘])
/usr/local/sbin/database_api.py $1 $2 $3 | grep -Po ‘Average":\K[.\d]+‘ |tail -1 单独把自定义key的后半部分解释一下。在创建item时,database_api.py会通过key获取到三个值 分别是Project,Metric和实例id。然后通过grep提取json字符串中Average对应的值,因为有可能获取 很多值,所以用tail获取最后一个值。
注:主要的坑就是上面的哪个start_time,如果获取不到值就再设置大点就好。下面就是批量增加item的代码。大致参考的是别人的。其中需要注意 的一点就是我是手动获取applicationid的,可以连接上zabbix后通过 zapi.application.get({"filter":{‘name‘:["APPLICATION_NAME"]}})[0][‘applicationid‘] 获取application的id。其中APPLICATION_NAME就是你的application的名字咯。如果并不需要放入某个application,可以删掉其中的applications那一项。
#!/usr/bin/python #-*- coding:utf8 -*- import sys from zabbix_api import ZabbixAPI server = "http://YourZabbixServerAddress" username = "Admin" password = "password" zapi = ZabbixAPI(server=server, path="", log_level=0) zapi.login(username, password) def get_hostinfo(): #主要用来获取host的id,接口的id,其中HOST_NAME就是你想往哪个host里面增添item。 host_info=zapi.host.get({"selectInterfaces":["interfaceid"],"filter":{"host":["HOST_NAME"]}}) hostid = host_info[0][‘hostid‘] interfaceid = host_info[0][‘interfaces‘][0][‘interfaceid‘] return (hostid,interfaceid) def create_item(name,key): a = get_hostinfo() hostid = a[0] interfaceid = a[1] create_item=zapi.item.create( { "name":name, "key_":key, "hostid":hostid, "type":0, "value_type":0,#0是float,3是整数 "interfaceid":interfaceid, "date_type":0, "delay":60, "history":7, "trends":90, "status":0, "applications":[ #如果不放入某个applications可以删掉此项 "2311" ] } ) return "item create success" if __name__ == "__main__": arg1=‘CpuUsage‘ with open(‘conf‘) as f: #从conf文件中读取实例id和实例名称。 for i in f: rds=i.split() key="rds.get_from_cms[acs_rds,%s,%s]"%(arg1,rds[0]) name="%s-%s"%(rds[1],arg1) print key,name result=create_item(name,key) #调用添加函数。 print result
#conf 实例id 实例名称
本文出自 “机制小风风” 博客,请务必保留此出处http://xiaofengfeng.blog.51cto.com/8193303/1906412
以上是关于我是怎么通过zabbix监控60台阿里云的RDS和redis数据库的的主要内容,如果未能解决你的问题,请参考以下文章