ik分词器的地址:https://github.com/medcl/elasticsearch-analysis-ik
找到对应版本的分词器
cd /mydata/elasticsearch/plugins //先进入映射的插件目录 yum install wget //安装weget //配置工具连接 vi /etc/ssh/sshd_config //将PasswordAuthentication no改为yes service sshd restart //重启服务 wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.4.2/elasticsearch-analysis-ik-7.4.2.zip //如果wget失败则通过xftp或者winscp传输解压后的文件,我定义的是ik文件夹,建议是这个 //再赋予权限 chmod -R 777 /ik //再通过 docker exec -it elasticsearch /bin/bash cd bin elasticsearch-plugin list //如果出现ik,则表示安装成功,再重启
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-mU6k10d9-1638003652744)(C:UsersAdministratorDesktop我的思维导图MQ中间件的学习图片image-20211123224724873.png)]
网络配置问题cd /etc/sysconfig/network-scripts/
ip addr
//查看你虚拟机ip对应的是eth0还是eth1等
vi ifcfg-eth1 //我的是eth1,则修改eth1
//添加
GATEWAY=192.168.56.1 //我的本机地址是192.168.56.10,根据个人虚拟机地址修改
//再添加
DNS1=114.114.114.114
DNS2=8.8.8.8
//保存退出,再重启
service network restart
//再测试
ping baidu.com
//再安装必要的
yum install wget
yum install -y unzip
安装nginx
//先创建一个存放nginx的文件夹 cd /mydata/ mkdir nginx //下载安装nginx1.10,只是为了获取配置信息,进行配置映射,直接安装会先下载再安装 docker run -p 80:80 --name nginx -d nginx:1.10 //将容器里面的配置文件拷贝到当前目录 docker container cp nginx:/etc/nginx . //查看mydata的nginx下面有没有文化,有则表示拷贝成功,则可以停止服务 docker stop nginx docker rm nginx //为了防止后面安装新的nginx会出现的问题,进入mydata文件夹,再将之前复制的文件重新命名 mv nginx conf //再创建nginx,将conf移动到nginx里面 mkdir nginx mv conf nginx/ //再安装新的nginx docker run -p 80:80 --name nginx -v /mydata/nginx/html:/usr/share/nginx/html -v /mydata/nginx/logs:/var/log/nginx -v /mydata/nginx/conf/:/etc//nginx -d nginx:1.10 //再在nginx的html下面创建一个文件夹 cd mydata/nginx/html mkdir es cd es //再创建一个fenci.txt,在里面编辑你想要的分词 vi fenci.txt自定义词库
//进入自己的elasticsearch的ik插件的config里面 cd /mydata/elasticsearch/plugins/ik/config //再修改IKAnalyzer.cfg.xml vi IKAnalyzer.cfg.xml //将如下配置加入,我的192.168.56.10下es下的fenci.txt文件,你们找对应的文件即可http://192.168.56.10/es/fenci.txt //再重启es docker restart elasticsearch //设置自动重启 docker update elasticsearch --restart=always
再进行测试
POST _analyze
{
"analyzer": "ik_max_word",
"text": "小宝测试"
}
返回结果
{
"tokens" : [
{
"token" : "小宝测试", //有完整的单词,即自定义成功
"start_offset" : 0,
"end_offset" : 4,
"type" : "CN_WORD",
"position" : 0
},
{
"token" : "小宝",
"start_offset" : 0,
"end_offset" : 2,
"type" : "CN_WORD",
"position" : 1
},
{
"token" : "测试",
"start_offset" : 2,
"end_offset" : 4,
"type" : "CN_WORD",
"position" : 2
}
]
}



