ELK是Elasticsearch+Logstash+Kibana的简称
总的来说,ElasticSearch负责存储数据,Logstash负责收集日志,并将日志格式化后写入ElasticSearch,Kibana提供可视化访问ElasticSearch数据的功能。
应用将日志按照约定的Key写入Redis,Logstash从Redis中读取日志信息写入ElasticSearch集群。Kibana读取ElasticSearch中的日志,并在Web页面中以表格/图表的形式展示。
这里为了节省,Elasticsearch + Logstash + Kibana + Redis部署在了一台机器上。
如果在生产环境部署,可以按照自己的需求调整。
项 | 说明 |
---|---|
Linux Server | Ubuntu 20.04 server |
Elasticsearch | 7.8.1 |
Logstash | 7.8.1 |
Kibana | 7.8.1 |
Redis | 6.0.3 |
JDK | 14.0.2 |
由于Elasticsearch、Logstash、Kibana均不能以root账号运行。但是Linux对非root账号可并发操作的文件、线程都有限制。所以,部署ELK相关的机器都要调整:
vim /etc/security/limits.conf ---在文件最后面添加如下内容
* soft nofile 65536 #代表警告的设定,可以超过这个设定值,但是超过后会有警告。
* hard nofile 131072 #代表严格的设定,不允许超过这个设定的值。
* soft nproc 2048 #是每个进程可以打开的文件数的限制
* hard nproc 4096 #是操作系统级别对每个用户创建的进程数的限制
#修改系统文件,如果没有20-nproc.conf,则创建一个
vim /etc/security/limits.d/20-nproc.conf
#调整成以下配置
* soft nproc 4096
root soft nproc unlimited
#增大用户使用内存的空间(临时)
sysctl -w vm.max_map_count=262144
#永久
vim /etc/sysctl.conf ---添加如下
vm.max_map_count=655360
fs.file-max=655360
vm.swappiness=0
reboot
JDK安装
Ubuntu 安装JDK:https://blog.csdn.net/Asia1752/article/details/104505189/
创建运行ES的普通用户
useradd -s "/bin/bash" elk
#创建ELK APP目录
mkdir /usr/elk
#创建ELK 数据目录
mkdir /elk
#更改目录Owner
chown -R elk:elk /usr/elk
chown -R elk:elk /elk
#打开文件夹
cd /home/download
#下载
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.8.1-linux-x86_64.tar.gz
wget https://artifacts.elastic.co/downloads/logstash/logstash-7.8.1.tar.gz
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.8.1-linux-x86_64.tar.gz
#解压
tar -zvxf elasticsearch-7.8.1.tar.gz
tar -zvxf logstash-7.8.1.tar.gz
tar -zvxf kibana-7.8.1-linux-x86_64.tar.gz
#移动目录
mv /home/download/elasticsearch-7.8.1 /usr/elk
#赋权
chown -R elk:elk /usr/elk/elasticsearch-7.8.1/
#账号切换到 elk
su - elk
mkdir /elk/es
#创建Elasticsearch数据目录
mkdir /elk/es/data
#创建Elasticsearch日志目录
mkdir /elk/es/logs
#打开目录
cd /usr/elk/elasticsearch-7.8.1
#修改配置
vim config/elasticsearch.yml
cluster.name: elk
node.name: elk01
node.master: true
node.data: true
cluster.initial_master_nodes: ["elk01"]
path.data: /elk/es/data
path.logs: /elk/es/logs
bootstrap.memory_lock: false
bootstrap.system_call_filter: false
network.host: 0.0.0.0
http.port: 9200
#discovery.zen.ping.unicast.hosts: ["192.168.146.128"]
#discovery.zen.minimum_master_nodes: 2
#discovery.zen.ping_timeout: 150s
#discovery.zen.fd.ping_retries: 10
#client.transport.ping_timeout: 60s
http.cors.enabled: true
http.cors.allow-origin: "*"
cluster.name 集群名称,各节点配成相同的集群名称。
node.name 节点名称,各节点配置不同。
node.master 指示某个节点是否符合成为主节点的条件。
node.data 指示节点是否为数据节点。数据节点包含并管理索引的一部分。
path.data 数据存储目录。
path.logs 日志存储目录。
bootstrap.memory_lock 内存锁定,是否禁用交换。
bootstrap.system_call_filter 系统调用过滤器。
network.host 绑定节点IP。
http.port 端口。
discovery.zen.ping.unicast.hosts 提供其他 Elasticsearch 服务节点的单点广播发现功能。
discovery.zen.minimum_master_nodes 集群中可工作的具有Master节点资格的最小数量,官方的推荐值是(N/2)+1,其中N是具有master资格的节点的数量。
discovery.zen.ping_timeout 节点在发现过程中的等待时间。
discovery.zen.fd.ping_retries 节点发现重试次数。
http.cors.enabled 是否允许跨源 REST 请求,用于允许head插件访问ES。
http.cors.allow-origin 允许的源地址。
vim /usr/elk/elasticsearch-7.8.1/config/jvm.options
-Xms1g ----修改成 -Xms2g
-Xmx1g ----修改成 -Xms2g
#一般设置为虚拟机内存的一半,最少为2G,推荐设置为4G
注意:确保堆内存最小值(Xms)与最大值(Xmx)的大小相同,防止程序在运行时改变堆内存大小。堆内存大小不要超过系统内存的50%
#进入elasticsearch根目录
cd /usr/elk/elasticsearch-7.8.1
#启动
./bin/elasticsearch
#如需后台启动,则用
nohup ./bin/elasticsearch &
浏览器访问http://192.168.146.128:9200/ 返回如下参数
{
"name" : "elk01",
"cluster_name" : "elk",
"cluster_uuid" : "ixCxBDIkQA2WFtjTdKBXNQ",
"version" : {
"number" : "7.8.1",
"build_flavor" : "default",
"build_type" : "tar",
"build_hash" : "b5ca9c58fb664ca8bf9e4057fc229b3396bf3a89",
"build_date" : "2020-07-21T16:40:44.668009Z",
"build_snapshot" : false,
"lucene_version" : "8.5.1",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
#移动目录
mv /home/download/logstash-7.8.1 /usr/elk
#赋权
chown -R elk:elk /usr/elk/logstash-7.8.1/
#账号切换到 elk
su - elk
#创建Logstash主目录
mkdir /elk/logstash
#创建Logstash数据目录
mkdir /elk/logstash/data
#创建Logstash日志目录
mkdir /elk/logstash/logs
#打开目录
cd /usr/elk/logstash-7.8.1
#修改配置
vim config/logstash.yml
#增加以下内容
path.data: /elk/logstash/data
path.logs: /elk/logstash/logs
vim config/input-output.conf
input {
redis {
data_type => "list"
key => "logstash"
host => "192.168.1.80"
port => 6379
threads => 5
codec => "json"
password => "1234"
}
}
filter {
}
output {
elasticsearch {
hosts => ["192.168.1.80:9200"]
index => "logstash-%{type}-%{+YYYY.MM.dd}"
}
stdout {
}
}
该配置就是从redis中读取数据,然后写入指定的elasticsearch
Redis核心配置项说明:
data_type => “list” 数据类型为list
key => “logstash” 缓存key为:logstash
codec => “json” 数据格式为:json
#进入Logstash根目录
cd /usr/elk/logstash-7.8.1
#启动
./bin/logstash -f config/input-output.conf
#移动目录
mv /home/download/kibana-7.8.1-linux-x86_64 /usr/elk/kibana-7.8.1
#赋权
chown -R elk:elk /usr/elk/kibana-7.8.1/
apt install libnss3-dev
#账号切换到 elk
su - elk
#进入kibana-7.8.1根目录
cd /usr/elk/kibana-7.8.1
#修改配置
vim config/kibana.yml
#增加以下内容
i18n.locale: "zh-CN"
server.port: 5601
server.host: "192.168.1.80" #kibana本机的地址
elasticsearch.hosts: "http://192.168.1.80:9200" #ES主节点地址+端口
kibana.index: ".kibana"
#进入kibana-7.8.1根目录
cd /usr/elk/kibana-7.8.1
#启动
./bin/kibana
日历写入的话,写入到logstash监听的redis即可。
数据类型之前在/usr/elk/logstash-6.0.0/config/input-uput.conf中有配置
#启动redis客户端
#执行以下命令
lpush logstash '{"host":"127.0.0.1","type":"logtest","message":"hello"}'