ElasticSearch 7.2版本elasticsearch.tar.gz百度云盘下载
IK分词器 elasticsearch-analysis-ik-7.2.0百度云盘下载
kibana-7.2.0.tar.gz百度云盘下载
logstash-7.2.0.tar百度云盘下载
node-v12.18.1-linux-x64.tar.xz百度云盘下载nodejs v12版本(elasticsearch-head 需要安装nodejs)
都放在一个文件夹下了(ps:nodejs是真的难下下来,太慢了~)
百度云盘链接:
https://pan.baidu.com/s/1qhrLCK5RFJHHcOPvizf-ig
提取码:gkz0
es存放目录路径
/usr/local/elasticsearch-7.2.0
cd /usr/local/elasticsearch将elasticsearch.tar.gz解压
cd ~
创建用户组
groupadd esgroup
创建用户
useradd esuser -g esgroup -p esgroup
用户名:esuser 密码:esgroup 用户组:esgroup
给esuser用户授权
chown -R esuser:esgroup /usr/local/elasticsearch-7.2.0/
进入es路径下的bin,切换用户
su esuser
启动
./elasticsearch
启动后,es进程开启,窗口无法使用了(挂起方式启动:./elasticsearch -d)
开启另一个窗口
执行下面命令看在linux中能否访问到es
curl 127.0.0.1:9200
初始化配置es的集群信息及ip、端口信息,编辑elasticsearch.yml
kill掉第一个es进程,不然报错:failed to obtain node locks, tried [[/usr/local/elasticsearch-7.2.0/data]] with lock id [0]
再重新启动更改配置后的es
启动./elasticsearch 发现报错,分配内存过小等等问题暴露
问题解决我写在这篇里了:
https://blog.csdn.net/Seven71111/article/details/107501983
切换为root用户
修改limits.conf配置
* soft nofile 65536
* hard nofile 65536
* soft nproc 4096
* hard nproc 4096
修改/etc/sysctl.conf配置
vm.max_map_count=655360
fs.file-max=655360
切换为普通账户esuser
启动es
./elasticsearch (不推荐这种启动方式,后台只能挂着,无法操作)
./elasticsearch -d (后台启动,控制台不打印日志,可以自己取log文件夹查看日志)
防火墙添加9200端口开放
新增: firewall-cmd --zone=public --add-port=9200/tcp --permanent
重启: firewall-cmd --reload
查看防火墙开放端口: firewall-cmd --list-port
在本地浏览器输入url:http://192.168.239.129:9200/
成功访问.如下
参考:
es7.2安装详细,包含es、logstash、kibana安装包
https://blog.csdn.net/wozniakzhang/article/details/96213281?utm_medium=distribute.pc_relevant.none-task-blog-OPENSEARCH-1.compare&depth_1-utm_source=distribute.pc_relevant.none-task-blog-OPENSEARCH-1.compare
https://blog.csdn.net/qq_19897551/article/details/107221297
elasticsearch-head 安装
https://www.jianshu.com/p/5bab7676d52d
linux下安装node v12.16.3
方式1:
cd ~
wget http://nodejs.org/dist/v12.16.3/node-v12.16.3-linux-x64.tar.gz
方式2:文件地址
https://nodejs.org/dist/v12.18.1/node-v12.18.1-linux-x64.tar.xz
进入/usr/local/elasticsearch-7.2.0/plugins
创建一个新文件夹ik,cd ik,然后将ik分词器的zip包(elasticsearch-analysis-ik-7.2.0.zip)上传到ik文件夹
linux解压zip格式压缩包指令:
unzip elasticsearch-analysis-ik-7.2.0.zip
再删掉ik分词器的zip压缩包
kill掉之前启动的es进程,重启es ./elasticsearch -d
es会自动读取ik分词器,所以无需做什么配置和ik绑定
测试工具(postman)
发送post请求,url:192.168.239.129:9200/_analyze
json数据格式:
{
"analyzer":"ik_smart",
"text":"我是一个中国人,真心啊"
}
发送,成功拆分