mkdir /data/elk
cd /data/elk
vim docker-compose.yml
version: '3.7'
services:
elasticsearch:
image: elasticsearch:7.7.0
container_name: elasticsearch
privileged: true
user: root
environment:
- cluster.name=elasticsearch
- discovery.type=single-node
- ES_JAVA_OPTS=-Xms512m -Xmx512m
volumes:
- /data/elk/elasticsearch/plugins:/usr/share/elasticsearch/plugins
- /data/elk/elasticsearch/data:/usr/share/elasticsearch/data
ports:
- 9200:9200
- 9300:9300
logstash:
image: logstash:7.7.0
container_name: logstash
ports:
- 4560:4560
privileged: true
environment:
- TZ=Asia/Shanghai
volumes:
- /data/elk/logstash/logstash.conf:/usr/share/logstash/pipeline/logstash.conf
depends_on:
- elasticsearch
links:
- elasticsearch:es
kibana:
image: kibana:7.7.0
container_name: kibana
ports:
- 5601:5601
privileged: true
links:
- elasticsearch:es
depends_on:
- elasticsearch
environment:
- elasticsearch.hosts=http://es:9200
mkdir -p /data/elk/{elasticsearch/data,elasticsearch/plugins,logstash}
chmod 777 elasticsearch/data
#新建logstash/logstash-springboot.conf文件,新增以下内容
input {
tcp {
mode => "server"
host => "0.0.0.0"
port => 4560
codec => json
}
}
output {
elasticsearch {
hosts => "es:9200"
index => "springboot-logstash-%{+YYYY.MM.dd}"
}
}
#codec => json_lines
docker-compose up -d
docker ps
net.logstash.logback
logstash-logback-encoder
6.6
logback-spring.xml
${APP_NAME}
${LOG_FILE_PATH}/${APP_NAME}-%d{yyyy-MM-dd}.log
30
${FILE_LOG_PATTERN}
192.168.66.102:4560
org.springframework.boot
spring-boot-starter
org.springframework.boot
spring-boot-starter-logging
org.springframework.boot
spring-boot-starter-log4j2
2.1.0.RELEASE
在资源目录下新建log4j2.xml
E:\logs
建议在左侧Available fields中筛选出"message"信息,"thread_name"字段可选。筛选的字段在左侧也可以看到,右侧看到的信息就比较清晰,包含了日志本身的时间,这是是配置日志配置的。
在使用Kibana界面时,发现都是英文的,实际上是可以配置中文版。方法如下:
1)进入容器内部
docker exec -it kibana bash
2)打开配置文件
vi /opt/kibana/config/kibana.yml
3)在配置文件最后添加一行,设置语言是中文
i18n.locale: zh-CN
需要注意的是,zhe-CN和:号之间必须有个空格,否则kibana无法启动。
4)保存后重启此容器即可。
自定义日志过滤
对应logstash,默认是格式是使用的logback的默认格式,一旦使用log4j2或其他日志框架来指定日志的输出格式时,那么logstash便无法解析,需要进行自定义过滤。
1)修改日志输出的格式。紧接着时间的后面的一个参数必须使用中括号包裹,否则解析有问题
将log4j2.xml的日志输出格式修改如下:
2)在logstash.conf中添加过滤规则:
filter {
grok {
match => {
message => "%{DATA:datetime}\ \[%{DATA:level}\]\ \[%{DATA:class}\] - %{GREEDYDATA:logger}"
remove_field =>[ "message" ]
}
}
date {
match => ["datetime", "yyyy-MM-dd HH:mm:ss.SSS"]
}
if "_grokparsefailure" in [tags] {
drop {}
}
}
其中grok是根据正则来匹配日志的,data是指定上面时间的格式,if是用于将解析失败的信息删除。
grok的正则语法在次略,其可以在kibana界面进行验证。打开在dev Tools,选择Grok Debugger,输入数据和规则点击模拟进行验证和解析
3)重启logstash后,再打印日志,把日志推送到过去,在kibana中筛选level和logger进行查看(logger是具体的信息,在配置grok时指定的),看到信息已正常解析
安装插件multiline
运行时会发生异常,把异常的错误信息通过日志推送到logstash
但在kibana中却看不到详细的信息
主要原因是错误信息换行输出的,对于上述配置的logstash会解析失败,故不会显示,因此需要安装插件multiline将多行合并为一行输出。
安装multiline
进入logstash容器内部,查看是否已安装multiline
logstash-plugin list
若没有安装过,则进行安装
logstash-plugin install logstash-filter-multiline
安装完成后在logstash.conf中的filter配置
multiline {
pattern => "^\d{4}-\d{1,2}-\d{1,2}\s\d{1,2}:\d{1,2}:\d{1,2}"
negate => true
what => "previous"
}
配置后重启logstash,再次执行测试方法,会发现错误日志已正常记录
需要注意的是,必须先安装multiline才能重启logstash,否则只配置logstash.conf会导致logstash无法启动。
Kibana设置登录密码
在 nginx 下,提供了 ngx_http_auth_basic_module 模块实现让用户只有输入正确的用户名密码才允许访问web内容。默认情况下,nginx 已经安装了该模块。所以整体的一个过程就是先用第三方工具设置用户名、密码(其中密码已经加过密),然后保存到文件中,接着在 nginx 配置文件中根据之前事先保存的文件开启访问验证。
1、安装htpasswd工具
yum -y install httpd-tools
2、设置用户名和密码,并把用户名、密码保存到指定文件中:
htpasswd -c /data/nginx/htpasswd cfw #交互输入密码
user root; #修改配置文件用户为root
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
server {
listen 80;
server_name localhost;
location / {
proxy_pass http://192.168.1.105:5601;
auth_basic "Please input password"; #这里是验证时的提示信息
auth_basic_user_file /data/nginx/htpasswd; #生成的密码存放路径
}
}