ELK-5.X部署及实战

扩展结构:

部件介绍

ElasticSearch

        Elasticsearch 是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析。它是一个建立在全文搜索引擎 Apache Lucene 基础上的搜索引擎,使用 Java 语言编写。

        备注:ELK,kibana中过滤器使用语法和Lucene相同,可以使用对应格式来查询

        https://segmentfault.com/a/1190000002972420

Logstash

        Logstash 是一个具有实时渠道能力的数据收集引擎,主要用于日志的收集与解析、切割,并将其存入 ElasticSearch中。

Kibana

        Kibana 是一款基于 Apache 开源协议,使用 JavaScript 语言编写,为 Elasticsearch 提供分析和可视化的 Web 平台。它可以在 Elasticsearch 的索引中查找,交互数据,并生成各种维度的表图。

Filebeat

        引入Filebeat作为日志搜集器,主要是为了解决Logstash开销大的问题。相比Logstash,Filebeat 所占系统的 CPU 和内存几乎可以忽略不计。(备注:当filebeat直接将数据发送logstash时,采集发送速度与logstash处理能力有关,并成正比)

Redis:

        引入缓存的原因:

                第一、起缓存作用,避免收集层某时刻的大量写入冲垮数据分割层。

                第二、起短暂存储作用,即Logstash暂停、重启过程不会造成收集数据的丢失。


部署:

前置条件:Centos7.2  jdk1.8

cd  /opt

yum  install  redis

wgethttps://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.6.1.tar.gz

wget https://artifacts.elastic.co/downloads/logstash/logstash-5.6.1.tar.gz

wget https://artifacts.elastic.co/downloads/kibana/kibana-5.6.1-linux-x86_64.tar.gz

wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-5.6.1-linux-x86_64.tar.gz

备注:需要特定版本可以直接改版本再下载。

tar  zxf  elasticsearch-5.6.1.tar.gz

tar  zxf  logstash-5.6.1.tar.gz

tar  zxf  kibana-5.6.1-linux-x86_64.tar.gz

tar  zxf  filebeat-5.6.1-linux-x86_64.tar.gz

mv  filebeat-5.6.1  filebeat

mv  kibana-5.6.1  kibana

mv  elasticsearch-5.6.1  elasticsearch

mv  logstash-5.6.1  logstash

============================================================================

启动Elasticsearch

Elasticsearch不能使用root用户运行

useradd elk

sudo su - elk -c  "/opt/elasticsearch/bin/elasticsearch"

验证:curl    http://localhost:9200

常用请求:

删除某一索引:curl -XDELETE 'localhost:9200/logstash-nginx-2018.03.25?pretty'

查看集群各节点状态:curl 'localhost:9200/_cat/health?v'

列出所有索引:curl 'localhost:9200/_cat/indices?v'

============================================================================

启动redis

systemctl  start redis

#备注:其他配置请根据具体进行配置

============================================================================

启动Logstash

根据业务定义好配置文件

vi  /opt/logstash/bin/logstash.conf

参考:

input {

  if  [type]  == "apache_access_log" {

    redis { host => "172.17.91.157"

        port => 6379

        key => "logstash:redis"

        data_type => "list"

        threads => 50 } } }

output {

  if  [type]  == "apache_access_log" {

        elasticsearch { hosts => ["http://172.17.91.157:9200"]

                index => "logstash-nginx-%{+YYYY.MM.dd}"

                document_type => "nginx"

                workers => 1

                idle_flush_time => 10 }

stdout { codec => rubydebug} }

  }

#nohup /opt/logstash/bin/logstash -f /opt/logstash/bin/logstash.conf &

#nohup /opt/logstash/bin/logstash -f /opt/logstash/bin/logstash.conf >> /data/logs/logstash/nohup.out 2>&1 &

============================================================================

启动Filebeat

根据业务定义好配置文件

vi  /opt/filebeat/filebeat-nginx.yml

参考:

filebeat.prospectors:

-

        input_type: log

        paths:

        - /var/log/nginx/access.log

        tags: ["apache_access_log"]

        document_type: apache_access_log

output.redis:

        hosts: ["172.17.91.157"]

        port: 6379

        key: "logstash:redis"

        db: 0

        timeout: 5

#nohup /opt/filebeat/filebeat -e -c filebeat-nginx.yml &

#nohup /opt/filebeat/filebeat -e -c filebeat-nginx.yml  >> /data/logs/filebeat/nohup.out 2>&1  &

============================================================================

启动Kibana

#nohup /opt/kibana/bin/kibana &

#nohup /opt/kibana/bin/kibana >> /data/logs/kibana/nohup.out 2>&1 &

验证:curlhttp://localhost:5601

至此安装完毕,具体配置需要在特定的场景进行调整

============================================================================

疑问:

一、kibana解析IP做展示

1、bin/elasticsearch-plugin install ingest-geoip

安装ingest-geoip 插件,并重启elasticsearch

2、kibana.yml添加以下内容,并重启

----------------------------------------------------------------------------------------------------------------

tilemap.url: "http://webrd02.is.autonavi.com/appmaptile?

lang=zh_cn&size=1&scale=1&style=7&x={x}&y={y}&z={z}"

#tilemap.url: "https://tiles.elastic.co/v2/default/{z}/{x}/{y}.png?

elastic_tile_service_tos=agree&my_app_name=kibana"

tilemap.options.minZoom: "1"

tilemap.options.maxZoom: "10"

tilemap.options.attribution: "© [Elastic Maps Service](https://www.elastic.co/elastic-maps-service)"

----------------------------------------------------------------------------------------------------------------

3、logstash.conf  在filter部分中增加以下内容

----------------------------------------------------------------------------------------------------------------

geoip {

        source => "clientip"

        target => "geoip"

        database => "/opt/logstash/bin/GeoLite2-City/GeoLite2-City.mmdb"

#http://geolite.maxmind.com/download/geoip/database/GeoLite2-City.tar.gz

        add_field => [ "[geoip][coordinates]", "%{[geoip][longitude]}" ]

        add_field => [ "[geoip][coordinates]", "%{[geoip][latitude]}"  ]

        }

      mutate {

        convert => [ "[geoip][coordinates]", "float"]

        }

----------------------------------------------------------------------------------------------------------------

        参考资料:https://www.cnblogs.com/ahaii/p/7410421.html

二、应用场景:

        1、收集Nginx访问日志,分析用户的地理分布情况、分析URL等。

        2、收集服务器登录日志,分析用户登录服务器的情况。可定位是否有外地IP。

        3、收集程序的错误日志。开发人员可直接在ELK平台上查看日志信息,减少登录服务器。

        4、收集MySQL、Redis等组件的慢日志。作用同第三点。

        5、收集crontab定时任务的执行日志。

        以下为笔者使用的一些配置文件,仅供参考。

            https://github.com/hqh546020152/ELK.git

你可能感兴趣的:(ELK-5.X部署及实战)