零、火人在球
项目背景:项目舆情数据数据量非常庞大,为了优化查询项目引用ES技术,向同事张某某 请教学习了ES相关联技术,再次更新。全部已测试通过!
目录
一、Elasticsearch 7.9.1
二、配置
三、启动
1、es不能以root启动 创建用户组
2、启动立马报错!
3、下一步
4、启动!! 启动脚本最后贴,看最后~
5、启动成功后
四、访问
五、下载IK分词器
1、在线安装分词器
2、离线安装分词器
六、安装Kibana
1、 下载Kibana
2、启动Kibana
3、访问
七、启动脚本
一、Elasticsearch 7.9.1
官网下载地址:Elasticsearch
ES 7.9.1,内置了 JDK,我是centos系统,下载LINUX X86_64
下载、解压、放到/usr/es/下
二、配置
cd /usr/es && ll
vi /elasticsearch/config/elasticsearch.yml
# 打开节点名称
node.name: node-1
# 这里的node-1为node-name配置的值
cluster.initial_master_nodes:["node-1"]
# 外部ip访问elasticsearch
network.host: 0.0.0.0
三、启动
1、es不能以root启动 创建用户组
//创建elsearch用户&组
groupadd elsearch
useradd elsearch -g elsearch
passwd elsearch 123456
//修改elasticsearch目录文件用户&组
chown -R elsearch:elsearch /usr/local/es目录
1、es不能以root启动 创建用户组
//创建elsearch用户&组
groupadd elsearch
useradd elsearch -g elsearch
passwd elsearch 123456
//修改elasticsearch目录文件用户&组
chown -R elsearch:elsearch /usr/local/es目录
//创建elsearch用户&组
groupadd elsearch
useradd elsearch -g elsearch
passwd elsearch 123456
//修改elasticsearch目录文件用户&组
chown -R elsearch:elsearch /usr/local/es目录
然后就可以启动了 运行/bin/elasticsearch
本机单项目启动多节点(集群)方式-不推荐:注意多节点,数据路径和日志路径和启动端口和节点名不同。集群名要相同(集群请看其他文章)
./elasticsearch -E path.data=data1 -E path.logs=log1 -E node.name=node1 -E cluster.name=msb_teacher
./elasticsearch -E path.data=data2 -E path.logs=log2 -E node.name=node2 -E cluster.name=msb_teacher
2、启动立马报错!
报错信息:Native controller process has stopped - no new native processes can be started 那是因为还缺少一个配置!
[root@localhost ~]# vim /etc/security/limits.conf
在文件的末尾加上 elsearch就是你刚刚创建的es的用户名!
elsearch soft nofile 65536
elsearch hard nofile 65536
elsearch soft nproc 4096
elsearch hard nproc 4096
3、下一步
[root@localhost ~]# cd /etc/security/limits.d
[root@localhost limits.d]# vim 90-nproc.conf
*(这个90-nproc.conf 可能是 20-nproc.conf 但是无妨,直接改就行)
将文件中的*改为 elsearch
elsearch soft nproc 4096
root soft nproc unlimited
然后
[root@localhost security]# vi /etc/sysctl.conf
vm.max_map_count = 655360
保存后执行下命令:sysctl -p 这句一定要在root账户下完成
4、启动!! 启动脚本最后贴,看最后~
5、启动成功后
使用ss -nult 命令 查看9200端口
四、访问
访问ip:9200端口,查看ES欢迎页
五、下载IK分词器
1、在线安装分词器
虽然es已经默认提供了分词,但是不支持中文分词,如果我们想要对中文进行分词,则需要下载IK分词器
可以直接在linux运行命令:
[root@localhost es7.9]# ./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.9.1/elasticsearch-analysis-ik-7.9.1.zip
2、离线安装分词器
IK分词器 Github下载:GitHub地址
点击更多版本,找到与我们ES版本对应的ik分词器的版本
下载下来之后使用xftp传到linux ES中的指定目录上并且解压到 /usr/es/es7.9/plugins/文件夹下任意新建一个文件夹下即可
六、安装Kibana
Kibana是一个可视化工具,类似于我们MySQL的Navicat,提供一个可视化的操作页面。
在安装Kibana的时候要注意对应ES的版本,要版本一致!!
1、 下载Kibana
下载安装好之后,解压到指定目录
tar -zxvf kibana.tar.gz -C /usr/kibana7.9.1
修改配置文件!
加上这些:
server.host: “192.168.220.129”
elasticsearch.hosts: [“http://192.168.220.129:9200/”]
i18n.locale: "zh-CN" #汉化
192.168.220.129是你的本机IP(复制的时候要注意引号)
server.host 配成以上配置外网可能访问不到kibana,如果出现此问题可以换成0.0.0.0
2、启动Kibana
后面将启动脚本上传
3、访问
启动ES 并 启动Kibana成功后,访问5601
七、启动脚本
startup.sh
#!/bin/bash ./elasticsearch-7.9.1/bin/elasticsearch -d sleep 20 nohup ./kibana/bin/kibana &
restart.sh
ps -ef | grep elasticsearch | grep -v grep | awk '{print $2}' | xargs kill -9
ps -ef | grep kibana | grep -v grep | awk '{print $2}' | xargs kill -9
rm -rf elsearch.out
rm -rf kibana.out
nohup ./startup.sh > nohup.out &



