1、安装Elasticsearch,下载镜像
docker pull elasticsearch:7.9.0
2、创建一个新的网络,保证容器在一个网络中可以通信(kibana能够监听到Elasticsearch容器)
docker network create esnet
3、启动容器elasticsearch
docker run -d --name es -p 9200:9200 -p 9300:9300 --network esnet -e "discovery.type=single-node" elasticsearch:7.9.0
4、访问localhost:9200,出现如下图es安装完成
5、安装分词器
进入es容器:
#进入容器
docker exec -it es bash
#下载并安装,版本号保持一致
./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.9.0/elasticsearch-analysis-ik-7.9.0.zip
6、配置分词器,在配置文件中配置
docker exec -it es /bin/bash
vi config/elasticsearch.yml
index:
analysis:
analyzer:
ik_max_word:
type: custom
tokenizer: ik_max_word
tokenizer:
ik_max_word:
type: ik_max_word
上配置会创建一个名为 ik_max_word 的自定义分词器,使用 IK 最大化分词算法
7、重启 Elasticsearch ,使新的配置生效
docker restart es
8、使用自定义分词器,创建一个名为 my_index 的索引,并使用自定义分词器 ik_max_word
PUT my_index
{
"settings": {
"analysis": {
"analyzer": {
"my_analyzer": {
"type": "custom",
"tokenizer": "ik_max_word"
}
}
}
}
}
9、安装Kibana,下载镜像
docker pull kibana:7.9.0
10、启动容器kibana
Docker run -d --name kibana -e ELASTICSEARCH_HOSTS=http://es:9200 --network=esnet -p 5601:5601 kibana:7.9.0
11、访问localhost:5601,安装成功;
12、汉化
#进入容器
docker exec -it 容器id /bin/bash
#修改配置文件信息
cd /usr/share/kibana/config
vi kibana.yml
kibana.yml末尾增加一段配置:i18n.locale: "zh-CN"
重启容器访问localhost:5601,汉化成功!!