解决solr4.x搭建ik不能智能分词
2015-03-24 17:13
351 查看
下载IKAnalyzer-2012FF_hf1之后。与solr4.x匹配,但其文档中介绍的useSmart一直无法使用和生效。
schema配置如下:
但是真正测试结果是无效的的,全部都是最细粒切词。
如图:
为了解决这个问题,网上分享了他人的资料,解决了这个问题。新增两个类,然后重新编译打包。 打包后jar包:
链接:http://pan.baidu.com/s/1i4qs1Yt 密码:ix1r
重新指向ik的配置
重启:结果如下
schema配置如下:
<span style="font-size:14px;"> <!--配置IK分词器--> <fieldType name="text_ik" class="solr.TextField"> <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer" /> <!--索引时候的分词器--> <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer" /> <!--查询时候的分词器--> </fieldType></span>
但是真正测试结果是无效的的,全部都是最细粒切词。
如图:
为了解决这个问题,网上分享了他人的资料,解决了这个问题。新增两个类,然后重新编译打包。 打包后jar包:
链接:http://pan.baidu.com/s/1i4qs1Yt 密码:ix1r
重新指向ik的配置
<!-- IKAnalyzer 中文分词 --> <fieldType name="text_ik" class="solr.TextField" positionIncrementGap="100"> <analyzer type="index"> <tokenizer class="org.wltea.analyzer.lucene.IKAnalyzerSolrFactory" isMaxWordLength="false" /> <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopword.dic" enablePositionIncrements="true" /> <filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true" /> <filter class="solr.LowerCaseFilterFactory" /> <filter class="solr.WordDelimiterFilterFactory" generateWordParts="1" generateNumberParts="1" catenateWords="1" catenateNumbers="1" catenateAll="0" splitOnCaseChange="1"/> </analyzer> <analyzer type="query"> <tokenizer class="org.wltea.analyzer.lucene.IKAnalyzerSolrFactory" isMaxWordLength="true" /> <filter class="solr.StopFilterFactory" ignoreCase="true" words="stopword.dic" enablePositionIncrements="true" /> <filter class="solr.SynonymFilterFactory" synonyms="synonyms.txt" ignoreCase="true" expand="true" /> <filter class="solr.LowerCaseFilterFactory" /> <filter class="solr.WordDelimiterFilterFactory" generateWordParts="1" generateNumberParts="1" catenateWords="1" catenateNumbers="1" catenateAll="0" splitOnCaseChange="1"/> </analyzer> </fieldType> <!-- 引用智能分词 --> <fieldType name="smart_ik" class="solr.TextField"> <analyzer > <tokenizer class="org.wltea.analyzer.lucene.IKAnalyzerSolrFactory" isMaxWordLength="true" /><!-- 智能分词 --> </analyzer> </fieldType> <!-- 引用最细粒 --> <fieldType name="tiny_ik" class="solr.TextField"> <analyzer > <tokenizer class="org.wltea.analyzer.lucene.IKAnalyzerSolrFactory" isMaxWordLength="false" /><!-- 最细粒分词 --> </analyzer> </fieldType>
重启:结果如下
相关文章推荐
- 解决elasticsearch5.x中IK分词不能用的问题
- Windows系统环境下Solr之Java实战(一)搭建solr服务器并配置IK分词
- 利用SOLR搭建企业搜索平台 之十一(中文分词之IK)
- 【Solr4.7.0学习笔记】系列之一:ik智能分词(需要导入lucene4.7jar包)
- 解决VS不能智能提示
- Android4.x中ScrollView嵌套ListView,ListView不能完全显示总结、解决办法
- Nutch1.0+Solr3.6.1+IK中文分词
- [vim]clang complete不能智能提示mutex/thread的解决办法(请获取最新版的clang complete)
- VS2005不能新建Win32 智能设备项目的解决办法(转)
- Solr多核心及分词器(IK)配置
- IK最细力度分词和智能分词理解
- VS2005不能新建智能设备项目的解决方法(非IE8带来的问题)
- IK分词源码讲解(五)-ik配置及在Solr中的配置使用
- 利用SOLR搭建企业搜索平台 之二(中文分词)
- Asp.net MVC4 使用了Bundle,引用的JS文件不能出现智能感知的解决之道
- NopCommerce Plugins 不能智能提示的解决方法(MVC 5 & RAZOR 3.0)
- 使用eclipse的时候快捷键Alt+/ 不能出现代码智能感应解决办法
- Silverlight Embeded环境的搭建——Blend2不能安装的问题解决
- Solr(3.3)添加中文分词——以IK为例
- 主机不能访问VMware搭建的虚拟XP系统解决方法