Docker+ES+kibana+logstash+收集nginx日志(1)

废话不多说,直接上效果图

Docker+ES+kibana+logstash+收集nginx日志(1)_第1张图片

每刷新一次就会做记录,这样可以应用到对主网站流量监控

接下来大概梳理一下搭建流程

1、搭建ES+kibana环境(这里使用的是docker,真是太方便了,其中参考了部分大神的资料)

创建网络:docker network create es-net

拉取镜像:

docker  pull  elasticsearch:7.17.5
docker  pull  kibana:7.17.5

运行ES(中间的一些参数解释可以自行百度一下,映射的目录如果不存在需要新建)

docker run -d \
	--name es \
    -e "ES_JAVA_OPTS=-Xms1024m -Xmx1024m" \
    -e "discovery.type=single-node" \
	-v /home/elasticsearch/plugins:/usr/share/elasticsearch/plugins \
	-v /home/elasticsearch/logs:/usr/share/elasticsearch/logs \
    -v /home/elasticsearch/data:/usr/share/elasticsearch/data \
    --privileged \
    --network es-net \
    -p 9200:9200 \
    -p 9300:9300 \
elasticsearch:7.17.5

如果成功运行,则可以在浏览器上输入网址:http://192.168.1.5:9200/

Docker+ES+kibana+logstash+收集nginx日志(1)_第2张图片

 修改配置文件(docker内部)/usr/share/elasticsearch/config/elasticsearch.yml

[root@localhost config]# cat elasticsearch.yml
cluster.name: "docker-cluster"
network.host: 0.0.0.0
# 设置访问端口
transport.tcp.port: 9300
http.port: 9200
# 解决跨域请求
http.cors.enabled: true
http.cors.allow-origin: "*"
discovery.zen.minimum_master_nodes: 1
cluster.max_shards_per_node: 500000

可以在本地建好文件再上传到docker中(docker cp /home/elasticsearch.yml ed8d9b7022222:/usr/share/elasticsearch/config/elasticsearch.yml)

运行kibana

docker run -d \
--name kibana \
-e ELASTICSEARCH_HOSTS=http://192.168.1.5:9200 \
--network=es-net \
-p 5601:5601  \
kibana:7.17.5

容器启动时候可以通过docker logs -f kibana查看日志

安装完成后可以打开链接http://192.168.10.15:5601/ 进去进行配置创建样板Docker+ES+kibana+logstash+收集nginx日志(1)_第3张图片

 对索引进行查看

Docker+ES+kibana+logstash+收集nginx日志(1)_第4张图片

 未方便看ES的索引状态,可以安装elasticsearch-head,这样环境就搭建完成,接下来就需要创建数据源,往ES写数据,再在kibana上进行展示。

你可能感兴趣的:(docker,elasticsearch,运维)