搭建ELK(ElasticSearch+Logstash+Kibana)日志分析系统(十一) kinaba demo

摘要:
现在我们已经将logstash和elasticsearch都集成起来了,在上一节的基础上,详见搭建ELK(ElasticSearch+Logstash+Kibana)日志分析系统(十) elasticsearch集群部署,我们直接加上kibana就可以出效果了。

首先我们先根据上一节,部署好logstash和elasticsearch


1、首先,我们下载kibana 5.5.1 点击下载,我下载的是64位GZ压缩包


2、把kibana压缩包放到103和78任一个服务器下,解压kibana,然后修改kibana文件夹下/config/目录下的kibana.yml文件,增加下面两行,然后保存。

server.host: "10.45.32.103"
elasticsearch.url: "http://10.45.32.103:9200"

搭建ELK(ElasticSearch+Logstash+Kibana)日志分析系统(十一) kinaba demo_第1张图片


3、在kibana文件夹下运行以下命令:

./bin/kibana

运行成功之后,状态变为green,如下图

搭建ELK(ElasticSearch+Logstash+Kibana)日志分析系统(十一) kinaba demo_第2张图片


4、在windows中浏览器中输入刚刚填写的server.host(也即是kibana所在服务器的ip),端口为5601(默认),

http://10.45.32.103:5601

如下图:

搭建ELK(ElasticSearch+Logstash+Kibana)日志分析系统(十一) kinaba demo_第3张图片


5、这个界面就是说还没有任何一个索引,我们也没有设置索引,所以默认索引是,并且默认以@timestamp为过滤器,这里我们直接点击create创建,创建成功之后,点击左上角的Discover

搭建ELK(ElasticSearch+Logstash+Kibana)日志分析系统(十一) kinaba demo_第4张图片


6、这时是没有数据的,然后我在logstash的终端里输入一句nihao,刷新kibana界面,就可以看到一条数据了,如下图:

搭建ELK(ElasticSearch+Logstash+Kibana)日志分析系统(十一) kinaba demo_第5张图片


7、点击上图圈住的小三角,可以展开查看详细内容,如下图:

搭建ELK(ElasticSearch+Logstash+Kibana)日志分析系统(十一) kinaba demo_第6张图片

这里记录了发送这个消息的时间戳、版本、索引、主机、内容等等。
kibana默认是以logstash+时间建立索引的,所以刚刚我们直接选择了默认创建索引。
在实际生产中,我们在logstash的filter里根据需求增删改字段名称及内容,这个用我们前面介绍过的logstash插件就可以实现!


搞定!


你可能感兴趣的:(运维-ELK日志分析系统)