您的位置:首页 > 其它

Solr分析器-Analyzers

2017-06-11 14:24 127 查看
作用:解析用户传递的搜索信息,抽取出关键字,然后进行过滤,最后去索引库检索,返回用户需要的信息,例如百度的关键字竞价机制

Solr分析器组成:分词器和过滤器

分词器:抽取关键字

过滤器:过滤关键字

Analyzers:分析器

作用:检查域的文本和生成token stream,分析器通过scheme.xml配置文件中的fieldType元素配置,

传统的搜索时全文匹配,分析器可以通过分析用户输入的文本字符抽取term(关键字),进行查询然后汇总结果,这样是的搜索引擎更加智能化

简单案例:schema.xml文件配置

<fieldType name="nametext" class="solr.TextField">
<analyzer class="org.apache.lucene.analysis.core.WhitespaceAnalyzer"/>
</fieldType>
分析:为solr.TextField的域类型指定分析器


复杂定义分析器:

<fieldType name="nametext" class="solr.TextField">
<analyzer>
<tokenizer class="solr.StandardTokenizerFactory"/>
<filter class="solr.StandardFilterFactory"/>
<filter class="solr.LowerCaseFilterFactory"/>
<filter class="solr.StopFilterFactory"/>
<filter class="solr.EnglishPorterFilterFactory"/>
</analyzer>
</fieldType>
分析:Field的Text首先被传递给第一个solr.StandardTokenizerFactory,最后一个组件产生terms,词语,用于索引或查询nameText类型的field


注意:

org.apache.solr.analysis包里面的类可以直接被引用为solr.为前缀的类

例: solr.EnglishPorterFilterFactory 等价于

org.apache.solr.analysis. EnglishPorterFilterFactory

Analyzer会影响在给定Filed里面索引的term,但是不会影响其实际存储的值

Analysis Phases:分析阶段

分析发生在2种情况:

1.索引节点:

建立索引的时候Filed被创建时,语句分析生成的Token Stream被添加到索引并且TokenStream定义了Field的语句集

2.查询阶段:搜索的值被解析,并且匹配的结果语句集被保存在Field的索引

通常同样的分应用于index/query两个阶段,当进行准确的字符串匹配时效果令人满意,在其他的情况下索引和查询阶段可以轻微不同

多语句扩展分析

一些情况下Analysis处理不是自然语言,像同义词、过滤的停止词Analysis Factory可以在进行这种类型的查询,例如小写处理,分析工厂典型MultiTermAwareComponent,当solr对多语句集的结果执行查询分析事,只有MultiTermAwareComponent能用于查询分析器中,其他的Factory会被忽略

<fieldType name="nametext" class="solr.TextField">
<analyzer type="index">
<tokenizer class="solr.StandardTokenizerFactory"/>
<filter class="solr.LowerCaseFilterFactory"/>
<filter class="solr.KeepWordFilterFactory" words="keepwords.txt"/>
<filter class="solr.SynonymFilterFactory" synonyms="syns.txt"/>
</analyzer>
<analyzer type="query">
<tokenizer class="solr.StandardTokenizerFactory"/>
<filter class="solr.LowerCaseFilterFactory"/>
</analyzer>
<!-- No analysis at all when doing queries that involved Multi-Term expansion -->
<analyzer type="multiterm">
<tokenizer class="solr.KeywordTokenizerFactory" />
</analyzer>
</fieldType>


分词器:Tokenizer

作用:分词器主要用于拆分文本流为Tokens,每个Token是文本流的一个子串,分析器直到solr配置的Field,但是Tokenizer不知道,因此分词器只是进行简单的拆分工作而已

中文分词器ikAnalyzer配置步骤:

1. 引入分词器jar包(ikAnalyzer2012_FF_u1)到lib目录中:solr/web-inf/lib

2. 复制IKAnalyzer的配置文件和自定义词典和停用词典到solr的classpath目录下

3. 配置fieldType指定使用中文分词器:注意analyzer和tokenizer的区分

<fieldType name="text_ik" class="solr.TextField">
<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>


4.配置Field使用ik分词器的fieldType

<field name="title_ik" type="text_ik" indexed="true" stored="true"/>
<field name="content_ik" type="text_ik" indexed="true" stored="false" multiValued="true" />


效果:



注意:新版本的solr可能和IK分词器不兼容,需修改IK分词器源码
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息