es-ik分词器插件
作者:互联网
es添加ik分词器插件
官网:https://github.com/medcl/elasticsearch-analysis-ik
(注意不要下载源代码
)
安装:
sudo mkdir -p /qj/es/plugins/ik
sudo mv elasticsearch-analysis-ik-7.10.0.zip /qj/es/plugins/ik/
sudo unzip elasticsearch-analysis-ik-7.10.0.zip
sudo rm -rf /qj/es/plugins/ik/elasticsearch-analysis-ik-7.10.0.zip
ik分词器提供了两个分词算法:ik_smart , ik_max_word,其中ik_smart为最少切分,ik_max_word为最细粒度划分。
ik_smart
:
GET _analyze
{
"analyzer": "ik_smart",
"text": "中国共产党"
}
ik_max_word
:
GET _analyze
{
"analyzer": "ik_max_word",
"text": "中国共产党"
}
添加自己的词典:
这是所有的字典:
添加词典再这里修改:
在IKAnalyzer.cfg.xml配置文件添加kang.dic:
添加kang.dic字典:
vim kang.dic
没添加kang.dic的字典前:
重启es让配置起作用:
docker restart es
添加kang.dic后:
标签:插件,kang,sudo,dic,ik,添加,分词器,es 来源: https://blog.csdn.net/qq_39122146/article/details/110823817