系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。日志的作用不言而喻,但对于数量庞大且分布在多台机器上的日志,查看就显得特别麻烦了。所以,对于运维人员来说,使用日志分析系统是非常有必要的。

  开源实时日志分析ELK平台能够实现日志的监控与分析,ELKElasticSearchLogstashKiabana三个开源工具组成。官方网站:https://www.elastic.co/products

  • Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。

  •  Logstash是一个完全开源的工具,他可以对你的日志进行收集、分析,并将其存储供以后使用(如,搜索)。

  •  kibana 也是一个开源和免费的工具,他Kibana可以为 Logstash  ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志。

  ELK工作流程大致如下:

Ubuntu14.04搭建ELK日志分析系统_第1张图片

  在需要收集日志的所有服务上部署logstash,作为logstash agentlogstash shipper)用于监控并过滤收集日志,将过滤后的内容发送到logstash indexerlogstash indexer将日志收集在一起交给全文搜索服务ElasticSearch,可以用ElasticSearch进行自定义搜索通过Kibana 来结合自定义搜索进行页面展示。


ELK平台搭建:

基于Ubuntu14.04 64位操作系统搭建

下载ELK安装包:https://www.elastic.co/downloads/

Ubuntu14.04搭建ELK日志分析系统_第2张图片

下载jdk安装包:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

Ubuntu14.04搭建ELK日志分析系统_第3张图片

下载完的数据包:

Ubuntu14.04搭建ELK日志分析系统_第4张图片


1.安装依赖包jdk8:

#sudo mkdir /usr/lib/jvm
#tar xvzf jdk-8u91-linux-x64.tar.gz -C /usr/lib/jvm/
#vim ~/.bashrc

在文档最下部追加

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_91
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
执行:source ~/.bashrc

执行java -version和java,有相应数据即安装完成。

2.安装Logstash:

#tar xvzf logstash-2.3.3.tar.gz

在logstash-2.3.3目录下创建logstash-test.conf配置文件,内容如下:

# cat logstash-test.conf

input { stdin { } }
output {
   stdout { codec=> rubydebug }
}

Logstash使用input和output定义收集日志时的输入和输出的相关配置,本例中input定义了一个叫"stdin"的input,output定义一个叫"stdout"的output。无论我们输入什么字符,Logstash都会按照某种格式来返回我们输入的字符,其中output被定义为"stdout"并使用了codec参数来指定logstash输出格式。

使用如下命令启动:

# ./bin/logstash agent -f logstash-test.conf

启动后,你在屏幕上输入什么内容,就会在console里显示出来。如输入"hehe",显示如下:

Ubuntu14.04搭建ELK日志分析系统_第5张图片

说明安装成功。使用Ctrl+C退出进程。


3.安装elasticsearch:

#tar xvzf elasticsearch-2.3.3.tar.gz

修改配置文件,允许远程访问:

cd elasticsearch-2.3.3/config
vim elasticsearch.yml

修改network栏为:

Ubuntu14.04搭建ELK日志分析系统_第6张图片

启动elasticsearch:

# ./bin/elasticsearch -d #-d为后台启动

访问http://:9200

Ubuntu14.04搭建ELK日志分析系统_第7张图片


如上,说明安装成功。

安装elasticsearch插件head:

# cd elasticsearch-2.3.3
# ./bin/plugin install mobz/elasticsearch-head

出现如下:

Ubuntu14.04搭建ELK日志分析系统_第8张图片

安装成功,访问http://:9200/_plugin/head,如下:

Ubuntu14.04搭建ELK日志分析系统_第9张图片

安装成功。


测试elasticsearch与logstash是否能链接成功:

在logstash-2.3.3安装目录下创建一个用于测试logstash使用elasticsearch作为logstash的后端的测试文件logstash-es-simple.conf,该文件中定义了stdout和elasticsearch作为output,这样的“多重输出”即保证输出结果显示到屏幕上,同时也输出到elastisearch中,内容如下:

# cat logstash-es-simple.conf

input { stdin { } }
output {
   elasticsearch {hosts => "localhost" }
   stdout { codec=> rubydebug }
}

# hosts为elasticsearch的主机,这里两者在同一机器上

启动:

# ./bin/logstash agent -f logstash-es-simple.conf

Ubuntu14.04搭建ELK日志分析系统_第10张图片

打开http://:9200/_search?pretty,如下:

Ubuntu14.04搭建ELK日志分析系统_第11张图片

说明二者链接成功。至此,你已经成功利用Elasticsearch和Logstash来收集日志数据了。


4.安装kibana:

# tar xvzf kibana-4.5.1-linux-x64.tar.gz

启动:

# cd kibana-4.5.1-linux-x64
# ./bin/kibana

启动过程如下:

Ubuntu14.04搭建ELK日志分析系统_第12张图片

访问http://:5601,如下:

Ubuntu14.04搭建ELK日志分析系统_第13张图片

安装成功。

登录后,首先,配置一个索引,默认,Kibana的数据被指向Elasticsearch,使用默认的logstash-*的索引名称,并且是基于时间的,点击“Create”即可。

看到如下,索引创建完成:

Ubuntu14.04搭建ELK日志分析系统_第14张图片

点击“Discover”选项卡,可以搜索和浏览elasticsearch中的数据,默认搜索最近15分钟的数据,也可以自定义。

Ubuntu14.04搭建ELK日志分析系统_第15张图片

至此,ELK平台已经部署完成。


5.配置logstash作为Indexer:

 将logstash配置为索引器,并将logstash的日志数据存储到elasticsearch。本案例是索引本地系统日志。

在logstash工作目录中创建配置文件logstash-indexer.conf,内容如下:

input {
  file {
    type =>"syslog"
     path => ["/var/log/messages", "/var/log/syslog" ]
  }
  syslog {
    type =>"syslog"
    port =>"5544"
  }
}
output {
  stdout { codec=> rubydebug }
  elasticsearch {hosts => "localhost" }
}

启动logstash后,使用echo模拟写入日志,命令执行后信息如下:

Ubuntu14.04搭建ELK日志分析系统_第16张图片

浏览器中:

Ubuntu14.04搭建ELK日志分析系统_第17张图片

elasticsearch在浏览器中如下:

Ubuntu14.04搭建ELK日志分析系统_第18张图片

由上可见,日志数据都同步成功。


到此,ELK平台部署与测试已经完成。