目录
一、ELK概述
(一)ELK的定义
(二)ELK工具
1.ElasticSearch
2.Kiabana
3.Logstash
(1)定义
(2)插件
① input
② filter
③ output
(三)可以添加的其它组件
1.Filebeat
(1)定义
(2)filebeat 结合 logstash 带来好处
2.缓存/消息队列(redis、kafka、RabbitMQ等
3.Fluentd
(四)ELK的好处
(五)完整日志系统基本特征
(六)ELK 的工作原理
二、ELK Elasticsearch集群部署
(一)环境准备
(二)部署Elasticsearch软件
1.安装elasticsearch—rpm包
2.修改elasticsearch主配置文件
3.es 性能调优参数
(1)优化最大内存大小和最大文件描述符的数量
(2)优化elasticsearch用户拥有的内存权限
4.启动elasticsearch是否成功开启
5.查看节点信息
(1)查看节点 Node1、Node2、Node3的信息
(2)查看群集的健康情况
(3)检查群集状态信息
(三)安装 Elasticsearch-head 插件
1.编译安装 node
2.安装phantomjs
3.安装Elasticsearch-head数据可视化工具
4.修改Elasticsearch主配置文件
5.启动elasticsearch-head服务
6.通过Elasticsearch-head查看Elasticsearch信息
编辑
7.插入索引
(1)创建索引
(2)浏览器访问查看索引信息
三、 ELK Logstash 部署
(一)安装nginx服务并启动
(二)安装Java环境
(三)安装logstash
(四)测试logstash
1.使用 rubydebug 输出详细格式显示
2.浏览器访问查看索引信息
(五)定义 logstash配置文件
1.修改 Logstash 配置文件
(六)浏览器访问查看索引信息
四、ELK Kiabana部署
(一)安装 Kiabana
(二)设置Kibana的主配置文件
(三)创建日志文件,启动 Kibana 服务
(四)验证Kibana
1.查看
2.创建索引
(五)将 nginx服务器的日志(访问的、错误的)添加到 Elasticsearch 并通过 Kibana 显示
1.修改配置文件
2.浏览器访问查看
ELK平台是一套完整的日志集中处理解决方案,将 ElasticSearch、Logstash 和 Kiabana 三个开源工具配合使用, 完成更强大的用户对日志的查询、排序、统计需求。
Kibana 通常与 Elasticsearch 一起部署,Kibana 是 Elasticsearch 的一个功能强大的数据可视化 Dashboard,Kibana 提供图形化的 web 界面来浏览 Elasticsearch 日志数据,可以用来汇总、分析和搜索重要数据。
表示数据处理层,包括对数据进行格式化处理、数据类型转换、数据过滤等,支持正则表达式
轻量级的开源日志文件数据搜集器。通常在需要采集数据的客户端安装 Filebeat,并指定目录与日志格式,Filebeat 就能快速收集数据,并发送给 logstash 进行解析,或是直接发给 Elasticsearch 存储,性能上相比运行于 JVM 上的 logstash 优势明显,是对它的替代。常应用于 EFLK 架构当中。
可以对高并发日志数据进行流量削峰和缓冲,这样的缓冲可以一定程度的保护数据不丢失,还可以对整个架构进行应用解耦。
总结:logstash作为日志搜集器,从数据源采集数据,并对数据进行过滤,格式化处理,然后交由Elasticsearch存储,kibana对日志进行可视化处理。
java -version
#设置环境
若没有,则可通过以下方式安装
//3个noede节点同时配置
tar -xf jdk-8u361-linux-x64.tar.gz
mkdir -p /usr/java #先在此目录下创建一个java目录
mv jdk1.8.0_361/ /usr/java #将此文件移动过去
vim /etc/profile.d/java.sh
export JAVA_HOME=/usr/java/jdk1.8.0_361
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
source /etc/profile.d/java.sh #启动此脚本
安装elasticsearch—rpm包
#上传elasticsearch-6.7.2.rpm到/opt目录下
cd /opt
rpm -ivh elasticsearch-6.7.2.rpm
#修改elasticsearch主配置文件
cp /etc/elasticsearch/elasticsearch.yml /etc/elasticsearch/elasticsearch.yml.bak
vim /etc/elasticsearch/elasticsearch.yml
--17--取消注释,指定集群名字
cluster.name: my-elk-cluster
--23--取消注释,指定节点名字:Node1节点为node1,Node2节点为node2,Node3节点为node3
node.name: node1
node.master: true #是否master节点,false为否
node.data: true #是否数据节点,false为否
--33--取消注释,指定数据存放路径
path.data: /var/lib/elasticsearch
--37--取消注释,指定日志存放路径
path.logs: /var/log/elasticsearch
--43--取消注释,避免es使用swap交换分区
bootstrap.memory_lock: true
--55--取消注释,设置监听地址,0.0.0.0代表所有地址
network.host: 0.0.0.0
--59--取消注释,ES 服务的默认监听端口为9200
http.port: 9200 #指定es集群提供外部访问的接口
transport.tcp.port: 9300 #指定es集群内部通信接口
--68--取消注释,集群发现通过单播实现,指定要发现的节点
discovery.zen.ping.unicast.hosts: ["172.16.72.40:9300", "172.16.72.50:9300","172.16.72.60:9300"]
grep -v "^#" /etc/elasticsearch/elasticsearch.yml
#优化最大内存大小和最大文件描述符的数量
vim /etc/security/limits.conf
......
* soft nofile 65536
* hard nofile 65536
* soft nproc 32000
* hard nproc 32000
* soft memlock unlimited
* hard memlock unlimited
vim /etc/systemd/system.conf
DefaultLimitNOFILE=65536
DefaultLimitNPROC=32000
DefaultLimitMEMLOCK=infinity
需重启生效
由于ES构建基于lucene, 而lucene设计强大之处在于lucene能够很好的利用操作系统内存来缓存索引数据,以提供快速的查询性能。lucene的索引文件segements是存储在单文件中的,并且不可变,对于OS来说,能够很友好地将索引文件保持在cache中,以便快速访问;因此,我们很有必要将一半的物理内存留给lucene ; 另一半的物理内存留给ES(JVM heap )。所以, 在ES内存设置方面,可以遵循以下原则:
#优化elasticsearch用户拥有的内存权限
vim /etc/sysctl.conf
#一个进程可以拥有的最大内存映射区域数,参考数据(分配 2g/262144,4g/4194304,8g/8388608)
vm.max_map_count=262144
sysctl -p
sysctl -a | grep vm.max_map_count
#启动elasticsearch是否成功开启
systemctl start elasticsearch.service
systemctl enable elasticsearch.service
netstat -antp | grep 9200
浏览器访问 http://172.16.72.40:9200 、 http://172.16.72.50:9200 、http://172.16.72.60:9200
#查看节点 Node1、Node2、Node3的信息。
#使用上述方式查看群集的状态对用户并不友好,可以通过安装 Elasticsearch-head 插件,可以更方便地管理群集。
浏览器访问 http://172.16.72.40:9200/_cluster/health?pretty
#查看群集的健康情况,可以看到 status 值为 green(绿色), 表示节点健康运行。
浏览器访问 http://172.16.72.40:9200/_cluster/state?pretty
#检查群集状态信息。
yum install gcc gcc-c++ make -y
cd /opt
tar -xf node-v8.2.1.tar.gz
cd node-v8.2.1/
./configure
make && make install #如果电脑内存多 建议多核编译安装 -j 指定核数
#上传软件包 phantomjs-2.1.1-linux-x86_64.tar.bz2 到
cd /opt
tar -xf phantomjs-2.1.1-linux-x86_64.tar.bz2
cd /opt/phantomjs-2.1.1-linux-x86_64/bin
cp phantomjs /usr/local/bin
#上传软件包 elasticsearch-head-master.zip 到/opt
cd /opt
unzip elasticsearch-head-master.zip
cd /opt/elasticsearch-head-master/
npm install //安装依赖包
vim /etc/elasticsearch/elasticsearch.yml
......
--末尾添加以下内容--
http.cors.enabled: true #开启跨域访问支持,默认为 false
http.cors.allow-origin: "*" #指定跨域访问允许的域名地址为所有
systemctl restart elasticsearch
#必须在解压后的 elasticsearch-head 目录下启动服务,进程会读取该目录下的 gruntfile.js 文件,否则可能启动失败。
cd /opt/elasticsearch-head-master/
npm run start &
> [email protected] start /usr/local/src/elasticsearch-head
> grunt server
Running "connect:server" (connect) task
Waiting forever...
Started connect web server on http://localhost:9100
#elasticsearch-head 监听的端口是 9100
netstat -natp |grep 9100
通过浏览器访问 http://172.16.72.40:9100/ 地址并连接群集。如果看到群集健康值为 green 绿色,代表群集很健康。
#通过命令插入一个测试索引,索引为 index-demo,类型为 test。
curl -X PUT '172.16.72.40:9200/index-demo/test/1?pretty&pretty' -H 'content-Type: application/json' -d '{"user":"zhangsan","mesg":"hello world"}'
//输出结果如下:
{
"_index" : "index-demo",
"_type" : "test",
"_id" : "1",
"_version" : 1,
"result" : "created",
"_shards" : {
"total" : 2,
"successful" : 2,
"failed" : 0
},
"created" : true
}
浏览器访问 http://172.16.72.40:9100/ 查看索引信息,可以看见索引默认被分片5个,并且有一个副本。
点击“数据浏览”,会发现在node1上创建的索引为 index-demo,类型为 test 的相关信息。
创建索引
curl -X PUT[|POST] http://IP:9200/<索引名>[/<类型>/<文档ID>?pretty&pretty] \
[-H 'content-Type: application/json' -d '{"键名1":"键值","键名2":"键值"}']
删除索引
curl -X DELETE http://IP:9200/<索引名>[,<索引名2>,....]
查看索引配置
curl -X GET http://IP:9200/<索引名>/_settings
修改索引配置
curl -X PUT http://IP:9200/<索引名>/_settings \
-H 'content-Type: application/json' -d '{"键名":"键值"}'
创建索引别名
curl -X POST http://IP:9200/_aliases \
-H 'content-Type: application/json' -d '{"actions":[{"add":{"index":"索引名","alias":"索引别名"}}]}'
删除索引别名
curl -X POST http://IP:9200/_aliases \
-H 'content-Type: application/json' -d '{"actions":[{"remove":{"index":"索引名","alias":"索引别名"}}]}'
tar -xf jdk-8u361-linux-x64.tar.gz
mkdir -p /usr/java #先在此目录下创建一个java目录
mv jdk1.8.0_361/ /usr/java #将此文件移动过去
vim /etc/profile.d/java.sh
export JAVA_HOME=/usr/java/jdk1.8.0_361
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
source /etc/profile.d/java.sh #启动此脚本
java -version
#上传软件包 logstash-6.7.2.rpm 到/opt目录下
cd /opt
rpm -ivh logstash-6.7.2.rpm
systemctl start logstash.service
systemctl enable logstash.service
ln -s /usr/share/logstash/bin/logstash /usr/local/bin/
logstash -e 'input { stdin{} } output { stdout{} }'
让其收集系统日志/var/log/messages,并将其输出到 elasticsearch 中。
chmod +r /var/log/messages #让 Logstash 可以读取日志
cd /etc/logstash/conf.d/
vim system.conf
input {
file{
path =>"/var/log/messages"
type =>"system"
start_position =>"beginning"
# ignore_older => 604800
sincedb_path => "/etc/logstash/sincedb_path/log_progress"
add_field => {"log_hostname"=>"${HOSTNAME}"}
}
}
#path表示要收集的日志的文件位置
#type是输入ES时给结果增加一个叫type的属性字段
#start_position可以设置为beginning或者end,beginning表示从头开始读取文件,end表示读取最新的,这个要和ignore_older一起使用
#ignore_older表示了针对多久的文件进行监控,默认一天,单位为秒,可以自己定制,比如默认只读取一天内被修改的文件
#sincedb_path表示文件读取进度的记录,每行表示一个文件,每行有两个数字,第一个表示文件的inode,第二个表示文件读取到的位置(byteoffset)。默认为$HOME/.sincedb*
#add_field增加属性。这里使用了${HOSTNAME},即本机的环境变量,如果要使用本机的环境变量,那么需要在启动命令上加--alow-env
output {
elasticsearch { #输出到 elasticsearch
hosts => ["172.16.72.40:9200","172.16.72.70:9200","172.16.72.80:9200"]
#指定 elasticsearch 服务器的地址和端口
index =>"system-%{+YYYY.MM.dd}"
#指定输出到 elasticsearch 的索引格式
}
}
mkdir /etc/logstash/sincedb_path/
touch /etc/logstash/sincedb_path/log_progress
chown logstash:logstash /etc/logstash/sincedb_path/log_progress
logstash -f system.conf
#上传软件包 kibana-6.7.2-x86_64.rpm 到/opt目录
cd /opt
rpm -ivh kibana-6.7.2-x86_64.rpm
vim /etc/kibana/kibana.yml
--2--取消注释,Kiabana 服务的默认监听端口为5601
server.port: 5601
--7--取消注释,设置 Kiabana 的监听地址,0.0.0.0代表所有地址
server.host: "0.0.0.0"
--28--取消注释,配置es服务器的ip,如果是集群则配置该集群中master节点的ip
elasticsearch.url: ["http://172.16.72.40:9200","http://172.16.72.70:9200","http://172.16.72.80:9200"]
--37--取消注释,设置在 elasticsearch 中添加.kibana索引
kibana.index: ".kibana"
--96--取消注释,配置kibana的日志文件路径(需手动创建),不然默认是messages里记录日志
logging.dest: /var/log/kibana.log
--113--取消注释,设置为中文
i18n.locale: "zh-CN"
touch /var/log/kibana.log
chown kibana:kibana /var/log/kibana.log
systemctl start kibana.service
systemctl enable kibana.service
netstat -natp | grep 5601
浏览器访问 http://172.16.72.40:5601
第一次登录需要添加一个 Elasticsearch 索引:
Management -> Index Pattern -> Create index pattern
Index pattern 输入:system-* #在索引名中输入之前配置的 Output 前缀“system”
Next step -> Time Filter field name 选择 @timestamp -> Create index pattern
单击 “Discover” 按钮可查看图表信息及日志信息。
数据展示可以分类显示,在“Available Fields”中的“host”,然后单击 “add”按钮,可以看到按照“host”筛选后的结果
vim /etc/logstash/conf.d/nginx_log.conf
input {
file{
path => "/usr/local/nginx/logs/access_log"
type => "access"
start_position => "beginning"
}
file{
path => "/usr/local/nginx/logs/error_log"
type => "error"
start_position => "beginning"
}
}
output {
if [type] == "access" {
elasticsearch {
hosts => ["172.16.72.40:9200","172.16.72.70:9200","172.16.72.80:9200"]
index => "apache_access-%{+YYYY.MM.dd}"
}
}
if [type] == "error" {
elasticsearch {
hosts => ["172.16.72.40:9200","172.16.72.70:9200","172.16.72.80:9200"]
index => "apache_error-%{+YYYY.MM.dd}"
}
}
}
cd /etc/logstash/conf.d/
/usr/share/logstash/bin/logstash -f apache_log.conf
浏览器访问 http://172.16.72.40:9100 查看索引是否创建
浏览器访问 http://172.16.72.40:5601 登录 Kibana,单击“Index Pattern -> Create Index Pattern”按钮添加索引, 在索引名中输入之前配置的 Output 前缀 apache_access-*,并单击“Create”按钮。在用相同的方法添加 apache_error-*索引。
选择“Discover”选项卡,在中间下拉列表中选择刚添加的 apache_access-* 、apache_error-* 索引, 可以查看相应的图表及日志信息。