您的位置:首页 > 其它

Solr 4.3.1稳定版 安装部署平台搭建

2017-09-14 10:53 405 查看
前言:   

         之前发表的SolrCloud写的太简洁(其实附件中的文档是很详细的)这里对于Solr我打算细致的好好写一篇。

         这篇文章讲解了哪儿些功能的实现呢?

         第一:能通过http://localhost:7080/solr/ 正常访问solr,介绍三种solr/home的配置方式(这里用JNDI方式实现)分别为:基于JNDI、基于当前路径、基于环境变量的方式

         第二:实现三种中文分词器的安装,包括:smartcn 分词器、IK 分词器、mmseg4j分词器、

         第三:实现中英停词词库、sogou词库、扩展词库的安装

         第四:简单介绍下拼音分词器的安装,拼音检索主要是要支持suggest,目前还没有发现Solr能 很好的实现拼音检索的功能,随后会发表一片介绍用Lucene来自定义实现汉语转拼音,切分,并能很好的支持suggest。

 

运行环境:

    运行系统:windows7(这里以windows7做实例,windows、Linux等系统下的搭建大同小异)

    运行容器:apache-tomcat-7.0.37-windows-x64

    Solr版本:solr-4.3.1

 

准备工作:

    下载tomcat 7: http://tomcat.apache.org/download-70.cgi

    下载Solr4.3.1:http://archive.apache.org/dist/lucene/solr/

    下载IKAnalyzer的发行包:http://ik-analyzer.googlecode.com/files/IK%20Analyzer%202012FF_hf1.zip

    下载mmseg4j的发行包:https://mmseg4j.googlecode.com/files/mmseg4j-1.9.1.zip

    下载smartcn的发行包:smartcn是跟solr同步的,solr例中有,所以不需要额外的下载

    下载sogou词库:http://code.google.com/p/mmseg4j/downloads/detail?name=sogou-dic-utf8.zip&   can=2&q

    下载中文停词词库:见附件(英文停词词库在安装IK分词器的时候顺便已经安装)

    下载pinyinAnalyzer:见附件

    下载拼音pinyin4j-2.5.0:http://pinyin4j.sourceforge.net/(附件中也有)

    下载lucene-4.3.1:见附件(拼音分词我们需要里面的lucene-analyzers-common-4.3.1.jar和lucene-core-4.3.1.jar,附件中有这俩jar,如果你下载了lucene-4.3.1,解压后在lucene-4.3.1\analysis\common和lucene-4.3.1\core中可以找到这俩jar包)

 

开始部署:

第一:能通过http://localhost:7080/solr/ 正常访问solr(包含三种solr/home的配置方式的介绍)   

 

    1.F盘下新建winsolr文件夹,将下载的Tomcat压缩包考进winsolr,(若能保证此Tomcat端口与本机其他Tomcat端口不冲突则不需改端口)解压后修改tomcat\conf下的server.xml文件将Server port=“”端口改为:7005

      protocol="HTTP/1.1" 的port改为:7080

    2.保证tomcat启动及环境正常

    3.将下载的 solr-4.3.1.zip 解压 ,将solr-4.3.1\dist\solr-4.3.1.war文件复制到tomcat的webapps目录下,并将文件命名为solr.war

      注:war是一个完整的web应用程序,包括了solr的jar文件和所有运行Solr所依赖的Jar文件,Jsp和很多的配置文件与资源文件。

    4.修改tomcat\conf下的server.xml文件

      <Connector port="7080" protocol="HTTP/1.1"

        connectionTimeout="20000"

        URIEncoding="UTF-8"

        redirectPort="8443" />

       增加URIEncoding="UTF-8" 中文支持。 

    5.配置solr/home(可以有三种方式,这里是用基于JNDI的方式实现)

 

       方式一:基于JNDI的方式

 

        1).F:\winsolr下新建solr_home文件夹

        2).复制solr-4.3.1\example下的solr文件夹到F:\winsolr\solr_home里。注:该目录为solr的应用环境目录。

        3).在F:\winsolr\solr_home\solr\collection1下新建data目录

        4).修改F:\winsolr\solr_home\solr\collection1\conf里的solrconfig.xml文件中的dataDir一行内容为:

    

Java代码  


<dataDir>${solr.data.dir:F:\winsolr\solr_home\solr\collection1\data}</dataDir>  

 

      注:目的是为了指定存放索引数据的路径。(F:\winsolr\solr_home\solr\collection1\data 这个 data 目录需要自己创建 也可以任意指定路径)。在4.3.1版本中 solr下面没有了 conf文件 多了一个 collection1,在solr.xml配置文件中

    

Java代码  


<em>     <cores adminPath="/admin/cores" defaultCoreName="collection1" host="${host:}"        

         hostPort="${jetty.port:8983}" hostContext="${hostContext:solr}"   

          zkClientTimeout="${zkClientTimeout:15000}">  

        <core name="collection1" instanceDir="collection1" />  

     </cores>  

   </solr></em>  

 

   明确指出了 conf的位置 也可以修改  <core name="collection1" instanceDir="collection1" /> 改变其目录路径 ,默认加载 conf文件下面的内容。

 

        5).新建tomcat\conf\Catalina\localhost目录 在此目录下新建solr.xml文件,文件中增加

     

Java代码  


<?xml version="1.0" encoding="UTF-8"?>  

  

<Context docBase="F:\winsolr\apache-tomcat-7.0.37\webapps\solr.war" debug="0" crossContext="true">  

  

<Environment name="solr/home" type="java.lang.String" value="F:\winsolr\solr_home\solr" override="true"/>  

  

</Context>  

 

      注:其中docBase为tomcat的webapps下的solr.war完整路径。Environment的value属性的值为存放solr索引的文件夹。 

    

       6).将 solr-4.3.1\example\lib\ext下的所有jar文件复制到tomcat\lib下重启tomcat。

       注:不然会报404页面找不到

    

    7).重启Tomcat,访问 http://localhost:7080/solr 访问成功说明配置正常完成,如图:

        



       注:查看 solr的logging会出现:

    19:44:42 WARN SolrResourceLoader Can't find (or read) directory to add to classloader: ../../../contrib/extraction/lib (resolved as: F:\winsolr\solr_home\solr\collection1\..\..\..\contrib\extraction\lib).

    这样的警告;其实这是因为找不到 对应的jar包造成的。完成接下来的配置这个警告就会消失。

 

        方式二:基于当前路径的方式

            这种情况需要在F:\winsolr\solr_home\目录下去启动tomcat,Solr查找./solr,因此在启动时候需要切换到F:\winsolr\solr_home\

        方式三:基于环境变量的方式

        windows在环境变量中建立solr.home,值为F:\winsolr\solr_home\ 

        linux在当前用户的环境变量中(.bash_profile)或在catalina.sh中添加如下环境变量export JAVA_OPTS="$JAVA_OPTS -Dsolr.solr.home=F:\winsolr\solr_home\solr" 

       


第二:实现三种中文分词器的安装,包括:smartcn 分词器、IK 分词器、mmseg4j分词器

(smartcn 、mmseg4j建议读者在完成扩展词和拼音分词以后再试,以免中间出错影响扩展词和拼音分词的体验)

A:IK 分词器安装

1.将之前解压的solr-4.3.1 下的contrib和dist 文件夹复制到
160f8
F:\winsolr\solr_home\solr\collection1下

2.将下载的IKAnalyzer的发行包解压,解压后将IKAnalyzer2012FF_u1.jar(分词器jar包)复制到F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lib下

3.在F:\winsolr\apache-tomcat-7.0.37\webapps\solr\WEB-INF下新建classes文件夹

4.将IKAnalyzer解压出来的IKAnalyzer.cfg.xml(分词器配置文件)和 Stopword.dic(分词器停词字典,可自定义添加内容)复制到

  F:\winsolr\apache-tomcat-7.0.37\webapps\solr\WEB-INF\classes中

5.在F:\winsolr\solr_home\solr\collection1\conf下的schema.xml文件中fieldType name="text_general"这个地方的上方添加以下内容

 

Java代码  


<!--配置IK分词器-->   

<fieldType name="text_ik" class="solr.TextField">  

     <!--索引时候的分词器-->   

    <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>  

          <!-- 查询时候的分词器 -->   

    <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>  

     

</fieldType>  

 

并将<field name="text" type="text_general" indexed="true" stored="false" multiValued="true"/>中的type值改为text_ik

 

6.修改F:\winsolr\solr_home\solr\collection1\conf下的solrconfig.xml文件,指定jar包路径



Java代码  


<lib dir="../../../contrib/extraction/lib" regex=".*\.jar" />  

<lib dir="../../../dist/" regex="solr-cell-\d.*\.jar" />  

  

<lib dir="../../../contrib/clustering/lib/" regex=".*\.jar" />  

<lib dir="../../../dist/" regex="solr-clustering-\d.*\.jar" />  

  

<lib dir="../../../contrib/langid/lib/" regex=".*\.jar" />  

<lib dir="../../../dist/" regex="solr-langid-\d.*\.jar" />  

  

<lib dir="../../../contrib/velocity/lib" regex=".*\.jar" />  

<lib dir="../../../dist/" regex="solr-velocity-\d.*\.jar" />  

 改为:

 

Java代码  


<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lib" regex=".*\.jar" />  

      

<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\extraction\lib" regex=".*\.jar" />  

<lib dir="F:\winsolr\solr_home\solr\collection1\dist\" regex="solr-cell-\d.*\.jar" />  

  

<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\clustering\lib\" regex=".*\.jar" />  

<lib dir="F:\winsolr\solr_home\solr\collection1\dist\" regex="solr-clustering-\d.*\.jar" />  

  

<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\langid\lib\" regex=".*\.jar" />  

<lib dir="F:\winsolr\solr_home\solr\collection1\dist\" regex="solr-langid-\d.*\.jar" />  

  

<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\velocity\lib" regex=".*\.jar" />  

<lib dir="F:\winsolr\solr_home\solr\collection1\dist\" regex="solr-velocity-\d.*\.jar" />  

 

现在来验证下是否添加成功:

首先启动solr服务,启动过程中如果出错,一般有三个原因:

一是配置的分词器jar找不到,也就是你没有复制jar包到\solr\contrib\analysis-extras\lib目前下;

二是solrconfig.xml文件指定的jar路径有误。

三是分词器版本不对导致的分词器接口API不一样出的错,要是这个错的话就在检查分词器的相关文档,看一下支持的版本是否一样.

如果在启动过程中没有报错的话说明配置成功了.

接下来我们重启Tomcat,进入到http://localhost:7080/solr地址进行测试一下刚加入的中文分词器.

在首页的Core Selector中选择你配置的Croe后点击下面的Analysis,

在Field Value (Index)里输入:中国人

在Analyse Fieldname / FieldType:里选择text,然后点击右面Analyse Values

如果分出 中国人 中国  国人这三个词 说明IK 分词器安装成功!如图:

 



 

 

B:mmseg4j分词器安装

1.将下载的mmseg4j的发行包解压,将解压出的mmseg4j-analysis-1.9.1.jar  mmseg4j-core-1.9.1.jar   mmseg4j-solr-1.9.1.jar

  这三个jar包复制到F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lib中

2.在F:\winsolr\solr_home\solr\collection1\conf下的schema.xml文件中fieldType name="text_general"这个地方的上方添加以下内容

Java代码  


<!--配置mmseg4j分词器-->   

    <fieldType name="text_msg" class="solr.TextField" positionIncrementGap="100">   

         <analyzer type="index">   

         <!--索引时候的分词器-->   

           <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory"/>   

         </analyzer>   

         <analyzer type="query">   

         <!-- 查询时候的分词器 -->   

           <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory"/>   

         </analyzer>   

       </fieldType>  

 如果要引用,同IK配置一样,将field标签中的 type值改为text_msg即可。

 

3.修改solrconfig.xml文件(和IK配置同样)

现在来验证下是否成功:

重启Tomcat

接下来我们可以进入到http://localhost:7080/solr地址进行测试一下刚加入的中文分词器.

Analyse Fieldname / FieldType:选text,测试内容为:中华人民共和国

 

如果分出 中华人民共和国 中华人民  中华  华人 人民共和国  人民 共和国 等词
说明mmseg4j分词器安装成功!

 

C: smartcn 分词器安装(smartcn的分词准确率不错,但就是不能自己定义新的词库)

1.
将之前解压的solr-4.3.1下contrib\analysis-extras\lucene-libs中的lucene-analyzers-smartcn-4.3.1.jar包

  复制到F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lib中

2.修改schema.xml文件,在fieldType name="text_general"这个地方的上方添加以下内容

Java代码  


<fieldType name="text_smartcn" class="solr.TextField" positionIncrementGap="0">  

      <analyzer type="index">  

        <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>  

        <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>  

</analyzer>  

      <analyzer type="query">  

         <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>  

        <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>  

      </analyzer>  

</fieldType>  

 如果要引用,同IK配置一样,将field标签中的 type值改为text_smartcn即可

3.修改solrconfig.xml文件(和IK配置同样)

好啦!自己测吧,记得重启Tomcat,以及Analyse Fieldname / FieldType:选text

 

 


第三:实现中英停词器、sogou词库、扩展词库的安装

1.将从附件中下载的中文停词词库,和sogou词库复制到F:\winsolr\apache-tomcat-7.0.37\webapps\solr\WEB-INF\classes中

2.新建ext.dic文件,在里面写入: 闵行 陈华芝 这两个词,格式和中文停词词库、sogou词库格式一样。

3.将ext.dic文件用UltraEdit工具打开并另存(不改文件名),另存时将保存类型选为:所有文件(*.*),编码选为:UTF-8 - 无BOM,然后将另存的这个文件复制到

  F:\winsolr\apache-tomcat-7.0.37\webapps\solr\WEB-INF\classes中

4.修改F:\winsolr\apache-tomcat-7.0.37\webapps\solr\WEB-INF\classes中的IKAnalyzer.cfg.xml文件

  在entry标签中增加中文停词库 和 sogou词库,以及将entry key="ext_dict"标签的注释去掉 如下所示:

 

Java代码  


<?xml version="1.0" encoding="UTF-8"?>  

<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">   

<properties>   

    <comment>IK Analyzer 扩展配置</comment>  

    <!--用户可以在这里配置自己的扩展字典 -->  

    <entry key="ext_dict">ext.dic;</entry>  

     

    <!--用户可以在这里配置自己的扩展停止词字典-->  

    <entry key="ext_stopwords">stopword.dic;stopword_chinese.dic;words.dic;</entry>  

     

</properties>  

 

 

现在来验证下是否成功:

重启Tomcat,进入到http://localhost:7080/solr地址进行测试(记得Analyse Fieldname / FieldType:选text)

 

测试内容为:闵行,a陈华芝。是的

如果分出: 闵行  陈华芝 这两个词,说明扩展词库和中英停词器配置成功!你也可以试试sogou词库

(建议试完之后把sogou词库去掉,即把words.dic从IKAnalyzer.cfg.xml文件中去除,不然会影响IK分词的实现)

 

如图:



 

 


第四:简单介绍下拼音分词器的安装

1.将附件中的四个jar复制到F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lucene-libs中

2.在F:\winsolr\solr_home\solr\collection1\conf下的solrconfig.xml文件中添加lib指定jar路径:

 

 

Java代码  


<lib dir="F:\winsolr\solr_home\solr\collection1\contrib\analysis-extras\lucene-libs" regex=".*\.jar" />  

 

  
3.在F:\winsolr\solr_home\solr\collection1\conf下的schema.xml文件中fieldType name="text_general"这个地方的上方添加

 

Java代码  


<!--text_pinyin text_pinyin text_pinyin text_pinyin text_pinyin text_pinyintext_pinyintext_pinyintext_pinyintext_pinyin-->  

      

    <fieldType name="text_pinyin" class="solr.TextField" positionIncrementGap="100">  

        <analyzer type="index">  

           <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>  

           <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>  

         <filter class="com.shentong.search.analyzers.PinyinTransformTokenFilterFactory" minTermLenght="2" />  

           <filter class="com.shentong.search.analyzers.PinyinNGramTokenFilterFactory" minGram="1" maxGram="20" />  

        </analyzer>  

        <analyzer type="query">  

          <tokenizer class="org.apache.lucene.analysis.cn.smart.SmartChineseSentenceTokenizerFactory"/>  

          <filter class="org.apache.lucene.analysis.cn.smart.SmartChineseWordTokenFilterFactory"/>  

          <filter class="com.shentong.search.analyzers.PinyinTransformTokenFilterFactory" minTermLenght="2" />  

          <filter class="com.shentong.search.analyzers.PinyinNGramTokenFilterFactory" minGram="1" maxGram="20" />  

        </analyzer>  

    </fieldType>  

 

然后添加field

Java代码  


<field name ="pinyin" type ="text_pinyin" indexed ="true" stored ="false" multiValued ="false"/>  

 

 现在来验证下是否成功:

重启Tomcat测试(别忘了Analyse Fieldname / FieldType:里选择pinyin):

测试内容:中国人

如果出现:分出的拼音词 z  zh  zho zhon 等说明配置成功!如图:

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: