nagios+ganglia分布式监控

nagios+ganglia监控批量主机


   之前我们学习用nagios+cacti实现网络监控报警,如果是传统的运维工作,有这个工具就足够强大了。但是对于分布式系统的开发+运维人员(DevOps?),更关心的是掌握分布式系统的性能和可用性,根据数据做出性能调整、升级、扩容等的决策,从而保证基础设施服务能够满足不断增长的业务需求。与Cacti、Nagios、Zabbix等工具相比,Ganglia更关注整个集群的性能和可用性。可以用于集群的性能监控、分析和优化。

    Ganglia就是这样一种工具。Ganglia 是 UC Berkeley 发起的一个开源监视项目,设计用于测量数以千计的节点。Ganglia主要监控集群的性能指标,如cpu 、mem、硬盘利用率, I/O负载、网络流量情况等, 也可以监控自定义的性能指标。通过Ganglia绘制的曲线很容易见到每个节点的工作状态,对合理调整、分配系统资源,提高系统整体性能起到重要作用。gmond 带来的系统负载非常少,这使得它成为在集群中各台计算机上运行的一段代码,而不会影响用户性能。

Ganglia-architecture

  1. 每个被检测的节点或集群运行一个gmond进程,进行监控数据的收集、汇总和发送。gmond即可以作为发送者(收集本机数据),也可以作为接收者(汇总多个节点的数据)。

  2. 通常在整个监控体系中只有一个gmetad进程。该进程定期检查所有的gmonds,主动收集数据,并存储在RRD存储引擎中。

  3. ganglia-web是使用php编写的web界面,以图表的方式展现存储在RRD中的数据。通常与gmetad进程运行在一起。

其中,RRDtool(Round Robin Database tool,环状数据库工具)是一组操作RRD数据的API,支持数据图形化。RRD是一种环状数据库技术,只存储固定数量的数据,新的数据会覆盖最旧的数据。

Ganglia规划:

在动手部署Ganglia之前,首先要对监控体系进行初步的规划。主要考虑两方面的问题:

  1. 单集群 or 多集群

    如果节点较少,使用单集群配置起来更容易; 如果节点很多,使用多集群可以避免广播风暴。但是需要为每个集群配置不同的组播通道(通过端口区分),同时要配置gmetad同时监听这多个通道。

  2. 组播模式 or 单播模式

    组播模式是ganglia的默认模式,同一集群的多个gmond之间互相交换数据,gmetad中可以指定集群中的任意一个或多个节点作为"data_source";

    组播模式可能会带来网络的 “抖动(Jitter)”。据说设置节点的时钟同步可以避免抖动的问题; 但如果网络环境不支持组播(比如Amazon’s AWS EC2),就需要使用单播模式。单播模式时,将大部分节点的gmond.conf中,global的deaf设置改为"yes",则这些节点只发生数据,不接收其他节点的数据,同样也不能作为gmetad中的"data_source"。

    单播模式中还需要设置“send_metadata_interval”,比如30秒。以强制发送元数据。

     ganglia将一个gmetad覆盖的所有集群/节点称为一个grid。可以在/etc/ganglia/gmetad.conf中通过gridname指定其名称。多个grid的数据也可以聚合到一个上级gmetad中。

安装配置:

ganglia 是分布式的监控系统,有两个Daemon, 分别是:客户端Ganglia Monitoring Daemon


(gmond)和服务端Ganglia Meta Daemon (gmetad),还有Ganglia PHP Web Frontend(基于


web的动态访问方式)组成是一个Linux下图形化监控系统运行性能的软件,界面美观、丰富,功能强大



软件下载:http://ganglia.sourceforce.net/


环境:rhel6.3 X86_64 selinux禁止或许可,关闭iptables


######################################################


安装软件可通过yum,rpm,源码安装,在lanmp架构中,我们用源码安装了nginx,mysql,php。此次的ganglia我们通过rpm来安装,下载的软件包不是rpm包,故需将这些软件包制作为rpm包


######################################################



下载包:


get ganglia-3.6.0.tar.gz ganglia-web-3.5.2.tar.gz libconfuse-devel-2.6-3.el6.x86_64.rpm libconfuse-2.6-3.el6.x86_64.rpm



安装制作rpm包的工具


[root@server34 ~]# yum install rpm-build -y



制作ganglia服务端的rpm包,制作过程中需要一些依赖性,根据提示安装依赖性


[root@server34 ~]# rpmbuild -tb ganglia-3.6.0.tar.gz


错误:error: Failed build dependencies:


libart_lgpl-devel is needed by ganglia-3.6.0-1.x86_64


gcc-c++ is needed by ganglia-3.6.0-1.x86_64


python-devel is needed by ganglia-3.6.0-1.x86_64


libconfuse-devel is needed by ganglia-3.6.0-1.x86_64


pcre-devel is needed by ganglia-3.6.0-1.x86_64


expat-devel is needed by ganglia-3.6.0-1.x86_64


rrdtool-devel is needed by ganglia-3.6.0-1.x86_64


apr-devel > 1 is needed by ganglia-3.6.0-1.x86_64


解决,安装依赖性:


[root@server34 ~]# yum install libart_lgpl-devel gcc-c++ python-devel libconfuse-devel expat-devel apr-devel pcre-devel -y



[root@server34 ~]# rpmbuild -tb ganglia-3.6.0.tar.gz


错误:error: Failed build dependencies:


libconfuse-devel is needed by ganglia-3.6.0-1.x86_64


rrdtool-devel is needed by ganglia-3.6.0-1.x86_64



解决,安装依赖性:


[root@server34 ~]# rpm -ivh libconfuse-*


warning: libconfuse-2.6-3.el6.x86_64.rpm: Header V3 RSA/SHA256 Signature, key ID 0608b895: NOKEY


Preparing...                ########################################### [100%]


  1:libconfuse             ########################################### [ 50%]


  2:libconfuse-devel       ########################################### [100%]




[root@server34 ~]# rpmbuild -tb ganglia-3.6.0.tar.gz


错误:error: Failed build dependencies:


rrdtool-devel is needed by ganglia-3.6.0-1.x86_64



解决:                                      


下载软件包 :rrdtool-perl-1.3.8-6.el6.x86_64.rpm


安装rrdtool-perl软件


[root@server34 ~]# rpm -ivh rrdtool-devel-1.3.8-6.el6.x86_64.rpm


warning: rrdtool-devel-1.3.8-6.el6.x86_64.rpm: Header V3 RSA/SHA256 Signature, key ID c105b9de: NOKEY


Preparing...                ########################################### [100%]


  1:rrdtool-devel          ########################################### [100%]


[root@server34 ~]# rpmbuild -tb ganglia-3.6.0.tar.gz



制作ganglia客户端的rpm包


[root@server34 ~]# rpmbuild -tb ganglia-web-3.5.2.tar.gz




[root@server34 x86_64]# ls


ganglia-devel-3.6.0-1.x86_64.rpm   ganglia-gmond-modules-python-3.6.0-1.x86_64.rpm


ganglia-gmetad-3.6.0-1.x86_64.rpm  libganglia-3.6.0-1.x86_64.rpm


ganglia-gmond-3.6.0-1.x86_64.rpm


制作好的rpm包


安装


[root@server34 x86_64]# rpm -ivh *


Preparing...                ########################################### [100%]


  1:libganglia             ########################################### [ 20%]


  2:ganglia-gmond          ########################################### [ 40%]


  3:ganglia-gmond-modules-p########################################### [ 60%]


  4:ganglia-devel          ########################################### [ 80%]


  5:ganglia-gmetad         ########################################### [100%]



[root@server34 noarch]# pwd


/root/rpmbuild/RPMS/noarch


[root@server34 noarch]# rpm -ivh ganglia-web-3.5.2-1.noarch.rpm


Preparing...                ########################################### [100%]


  1:ganglia-web            ########################################### [100%]


##########以上为rpm软件包的制作过程#######################



ganglia实现监控功能,需更改其配置文件:


[root@server34 rpmbuild]# vim /etc/ganglia/gmond.conf


cluster {


 name = "my cluster"    ####集群名


 owner = "unspecified"


 latlong = "unspecified"


 url = "unspecified"


}


更改端口


mcast_join = 239.2.11.71


 port = 8756    ######监听端口


 ttl = 1


}



/* You can specify as many udp_recv_channels as you like as well. */


udp_recv_channel {


 mcast_join = 239.2.11.71


 port = 8756


 bind = 239.2.11.71


 retry_bind = true


 # Size of the UDP buffer. If you are handling lots of metrics you really


 # should bump it up to e.g. 10MB or even higher.


 # buffer = 10485760


}



/* You can specify as many tcp_accept_channels as you like to share


  an xml description of the state of the cluster */


tcp_accept_channel {


 port = 8756


####为避免更多的主机进入,可改变默认的端口:如本实验将gmond配置文件的端口8649->8679



[root@server34 rpmbuild]# vim /etc/ganglia/gmetad.conf


data_source "my cluster" 192.168.0.34:8756



[root@server34 rpmbuild]# /etc/init.d/gmond start


Starting GANGLIA gmond:                                    [  OK  ]



[root@server34 rpmbuild]# /etc/init.d/gmetad start


Starting GANGLIA gmetad:                                   [  OK  ]



[root@server34 rrds]# cd /var/lib/ganglia/rrd/my\ cluster/


[root@server34 my cluster]# ls


server34.example.com  __SummaryInfo__


[root@server34 my cluster]# cd server34.example.com/


[root@server34 server34.example.com]# ls


boottime.rrd                          mem_writeback.rrd


bytes_in.rrd                          part_max_used.rrd


bytes_out.rrd                         pkts_in.rrd


cpu_aidle.rrd                         pkts_out.rrd


cpu_idle.rrd                          proc_run.rrd


cpu_intr.rrd                          procstat_gmond_cpu.rrd


cpu_nice.rrd                          procstat_gmond_mem.rrd


cpu_num.rrd                           proc_total.rrd


cpu_sintr.rrd                         rx_bytes_eth0.rrd


cpu_speed.rrd                         rx_bytes_lo.rrd


cpu_steal.rrd                         rx_drops_eth0.rrd


cpu_system.rrd                        rx_drops_lo.rrd


cpu_user.rrd                          rx_errs_eth0.rrd


cpu_wio.rrd                           rx_errs_lo.rrd


disk_free_absolute_rootfs.rrd         rx_pkts_eth0.rrd


disk_free_percent_rootfs.rrd          rx_pkts_lo.rrd


disk_free.rrd                         swap_free.rrd


diskstat_sda_io_time.rrd              swap_total.rrd


diskstat_sda_percent_io_time.rrd      tcp_attemptfails.rrd


diskstat_sda_read_bytes_per_sec.rrd   tcpext_listendrops.rrd


diskstat_sda_reads_merged.rrd         tcpext_tcploss_percentage.rrd


diskstat_sda_reads.rrd                tcp_insegs.rrd


diskstat_sda_read_time.rrd            tcp_outsegs.rrd


diskstat_sda_weighted_io_time.rrd     tcp_retrans_percentage.rrd


diskstat_sda_write_bytes_per_sec.rrd  tx_bytes_eth0.rrd


diskstat_sda_writes_merged.rrd        tx_bytes_lo.rrd


diskstat_sda_writes.rrd               tx_drops_eth0.rrd


diskstat_sda_write_time.rrd           tx_drops_lo.rrd


disk_total.rrd                        tx_errs_eth0.rrd


entropy_avail.rrd                     tx_errs_lo.rrd


load_fifteen.rrd                      tx_pkts_eth0.rrd


load_five.rrd                         tx_pkts_lo.rrd


load_one.rrd                          udp_indatagrams.rrd


mem_buffers.rrd                       udp_inerrors.rrd


mem_cached.rrd                        udp_outdatagrams.rrd


mem_dirty.rrd                         udp_rcvbuferrors.rrd


mem_free.rrd                          vm_pgmajfault.rrd


mem_hardware_corrupted.rrd            vm_pgpgin.rrd


mem_mapped.rrd                        vm_pgpgout.rrd


mem_shared.rrd                        vm_vmeff.rrd


mem_total.rrd



为实现集群,将此客户端所需的rpm包拷贝至另一台需要被监控的客户主机


[root@server34 x86_64]# scp ganglia-gmond-modules-python-3.6.0-1.x86_64.rpm ganglia-gmond-3.6.0-1.x86_64.rpm libganglia-3.6.0-1.x86_64.rpm 192.168.0.17:



客户端配置:


下载包:


libconfuse-2.7-4.el6.x86_64.rpm                


libconfuse-devel-2.7-4.el6.x86_64.rpm  



[root@server17 ~]# yum localinstall ganglia-gmond-3.6.0-1.x86_64.rpm ganglia-gmond-modules-python-3.6.0-1.x86_64.rpm libconfuse-2.7-4.el6.x86_64.rpm  libconfuse-devel-2.7-4.el6.x86_64.rpm libganglia-3.6.0-1.x86_64.rpm -y



[root@server17 ~]# vim /etc/ganglia/gmond.conf


cluster {


 name = "my cluster"


 owner = "unspecified"


 latlong = "unspecified"


 url = "unspecified"


}


更改端口


mcast_join = 239.2.11.71


 port = 8756


 ttl = 1


}



/* You can specify as many udp_recv_channels as you like as well. */


udp_recv_channel {


 mcast_join = 239.2.11.71


 port = 8756


 bind = 239.2.11.71


 retry_bind = true


 # Size of the UDP buffer. If you are handling lots of metrics you really


 # should bump it up to e.g. 10MB or even higher.


 # buffer = 10485760


}



/* You can specify as many tcp_accept_channels as you like to share


  an xml description of the state of the cluster */


tcp_accept_channel {


 port = 8756




[root@server17 ~]# /etc/init.d/gmond start



检测


浏览器:


http://192.168.0.34/ganglia




ganglia与nagios报警整合


[root@server34 ~]# cp ganglia-3.6.0/contrib/check_ganglia.py  /usr/local/nagios/libexec/



check_ganglia.py 需以nagios的身份运行


[root@server34 libexec]# chown nagios.nagios check_ganglia.py



[root@server34 libexec]# vim check_ganglia.py


 ganglia_port = 8756



[root@server34 libexec]# vim check_ganglia.py


if critical > warning:


 if value >= critical:


   print "CHECKGANGLIA CRITICAL: %s is %.2f" % (metric, value)


   sys.exit(2)


 elif value >= warning:


   print "CHECKGANGLIA WARNING: %s is %.2f" % (metric, value)


   sys.exit(1)


 else:


   print "CHECKGANGLIA OK: %s is %.2f" % (metric, value)


   sys.exit(0)


else:


 if critical >= value:


   print "CHECKGANGLIA CRITICAL: %s is %.2f" % (metric, value)


   sys.exit(2)


 elif warning >= value:


   print "CHECKGANGLIA WARNING: %s is %.2f" % (metric, value)


   sys.exit(1)


 else:


   print "CHECKGANGLIA OK: %s is %.2f" % (metric, value)


   sys.exit(0)



检测:


[root@server34 libexec]# /usr/local/nagios/libexec/check_ganglia.py -h server34.example.com -m disk_free_percent_rootfs -w 30 -c 10


CHECKGANGLIA OK: disk_free_percent_rootfs is 86.33



增加检测ganglia的命令


[root@server34 objects]# vim commands.cfg


# 'check_ganglia' command definition


define command{


       command_name    check_ganglia


       command_line    $USER1$/check_ganglia.py -h $HOSTADDRESS$ -m $ARG1$ -w $ARG2$ -c $ARG2$


       }



增加ganglia的模板


[root@server34 objects]# vim templates.cfg


define service {


use generic-service


name ganglia-service


hostgroup_name ganglia-servers


service_groups ganglia-metrics


}



[root@server34 objects]# vim hosts.cfg


define hostgroup{


       hostgroup_name  linux-servers ; The name of the hostgroup


       alias           Linux Servers ; Long name of the group


       members         *     ; Comma separated list of hosts that belong to this group


       }



define hostgroup {


hostgroup_name ganglia-servers


alias ganglia-servers


members *


}




[root@server34 objects]# vim services.cfg


##################################check_ganglia###################



define servicegroup {


servicegroup_name ganglia-metrics


alias Ganglia Metrics


}



define service{


       use                             ganglia-service


       service_description             根分区空闲


       check_command                   check_ganglia!disk_free_percent_rootfs!20!10


       }




define service{


       use                             ganglia-service         ;


       service_description             系统负载


       check_command                   check_ganglia!load_one!4!5


       }



检查配置是否正确


[root@server34 objects]# /usr/local/nagios/bin/nagios -v /usr/local/nagios/etc/nagios.cfg


[root@server34 objects]# /etc/init.d/nagios reload



检查:


http://192.168.0.34/nagios



如果一切正常,您应该看到 Ganglia 数据现在已经在 Nagios 的监视之下


结合使用 Ganglia 和 Nagios,您可以监视任何内容。您可以控制整个云!






你可能感兴趣的:(优化,分布式,监控,nagios,批量)