您的位置:首页 > 其它

文章标题

2017-12-05 20:46 225 查看

搜索引擎服务器

## solr+zookeeper ##
5.1什么是SolrCloud
SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时需要使用SolrCloud来满足这些需求。
SolrCloud是基于Solr和Zookeeper的分布式搜索方案,它的主要思想是使用Zookeeper作为集群的配置信息中心。
它有几个特色功能:
1)集中式的配置信息
3) 自动容错
3) 近实时搜索
4) 查询时自动负载均衡
5.2 zookeeper是什么?
顾名思义zookeeper就是动物园管理员,他是用来管hadoop(大象)、Hive(蜜蜂)、pig(小猪)的管理员, Apache Hbase和 Apache Solr 的分布式集群都用到了zookeeper;Zookeeper:是一个分布式的、开源的程序协调服务,是hadoop项目下的一个子项目。
5.3 Zookeeper可以干哪些事情
1、配置管理
在我们的应用中除了代码外,还有一些就是各种配置。比如数据库连接等。一般我们都是使用配置文件的方式,在代码中引入这些配置文件。但是当我们只有一种配置,只有一台服务器,并且不经常修改的时候,使用配置文件是一个很好的做法,但是如果我们配置非常多,有很多服务器都需要这个配置,而且还可能是动态的话使用配置文件就不是个好主意了。这个时候往往需要寻找一种集中管理配置的方法,我们在这个集中的地方修改了配置,所有对这个配置感兴趣的都可以获得变更。比如我们可以把配置放在数据库里,然后所有需要配置的服务都去这个数据库读取配置。但是,因为很多服务的正常运行都非常依赖这个配置,所以需要这个集中提供配置服务的服务具备很高的可靠性。一般我们可以用一个集群来提供这个配置服务,但是用集群提升可靠性,那如何保证配置在集群中的一致性呢? 这个时候就需要使用一种实现了一致性协议的服务了。Zookeeper就是这种服务,它使用Zab这种一致性协议来提供一致性。现在有很多开源项目使用Zookeeper来维护配置,比如在HBase中,客户端就是连接一个Zookeeper,获得必要的HBase集群的配置信息,然后才可以进一步操作。还有在开源的消息队列Kafka中,也使用Zookeeper来维护broker的信息。在Alibaba开源的SOA框架Dubbo中也广泛的使用Zookeeper管理一些配置来实现服务治理。
2、集群管理
在分布式的集群中,经常会由于各种原因,比如硬件故障,软件故障,网络问题,有些节点会进进出出。有新的节点加入进来,也有老的节点退出集群。这个时候,集群中其他机器需要感知到这种变化,然后根据这种变化做出对应的决策。比如我们是一个分布式存储系统,有一个中央控制节点负责存储的分配,当有新的存储进来的时候我们要根据现在集群目前的状态来分配存储节点。这个时候我们就需要动态感知到集群目前的状态。还有,比如一个分布式的SOA架构中,服务是一个集群提供的,当消费者访问某个服务时,就需要采用某种机制发现现在有哪些节点可以提供该服务(这也称之为服务发现,比如Alibaba开源的SOA框架Dubbo就采用了Zookeeper作为服务发现的底层机制)。还有开源的Kafka队列就采用了Zookeeper作为Cosnumer的上下线管理。

5.4 SolrCloud结构
SolrCloud为了降低单机的处理压力,需要由多台服务器共同来完成索引和搜索任务。实现的思路是将索引数据进行Shard(分片)拆分,每个分片由多台的服务器共同完成,当一个索引或搜索请求过来时会分别从不同的Shard的服务器中操作索引。
SolrCloud需要Solr基于Zookeeper部署,Zookeeper是一个集群管理软件,由于SolrCloud需要由多台服务器组成,由zookeeper来进行协调管理。

下图是一个SolrCloud应用的例子:
对上图进行图解,如下:

物理结构
三个Solr实例( 每个实例包括两个Core),组成一个SolrCloud。
逻辑结构
索引集合包括两个Shard(shard1和shard2),shard1和shard2分别由三个Core组成,其中一个Leader两个Replication,Leader是由zookeeper选举产生,zookeeper控制每个shard上三个Core的索引数据一致,解决高可用问题。
用户发起索引请求分别从shard1和shard2上获取,解决高并发问题。collection
Collection在SolrCloud集群中是一个逻辑意义上的完整的索引结构。它常常被划分为一个或多个Shard(分片),它们使用相同的配置信息。
比如:针对商品信息搜索可以创建一个collection。
collection=shard1+shard2+….+shardX
Core
每个Core是Solr中一个独立运行单位,提供 索引和搜索服务。一个shard需要由一个Core或多个Core组成。由于collection由多个shard组成所以collection一般由多个core组成。
Master或Slave
Master是master-slave结构中的主结点(通常说主服务器),Slave是master-slave结构中的从结点(通常说从服务器或备服务器)。同一个Shard下master和slave存储的数据是一致的,这是为了达到高可用目的。
Shard
Collection的逻辑分片。每个Shard被化成一个或者多个replication,通过选举确定哪个是Leader。

## solr集群的搭建 ##

6.1安装zookeeper 集群的安装
第一步:解压zookeeper,tar -zxvf zookeeper-3.4.6.tar.gz将zookeeper-3.4.6拷贝到/usr/local/solrcloud下,复制三份分别并将目录名改为zookeeper1、zookeeper2、zookeeper3
第二步:进入zookeeper1文件夹,创建data目录。并在data目录中创建一个myid文件内容为“1”(echo 1 >> data/myid)。
第三步:进入conf文件夹,把zoo_sample.cfg改名为zoo.cfg
第四步:修改zoo.cfg。
修改:
dataDir=/usr/local/solrcloud/zk1/data
clientPort=2181(zookeeper2中为2182、zookeeper3中为2183)
添加:
server.1=10.40.155.196:2881:3881
server.2=10.40.155.196:2882:3882
server.3=10.40.155.196:2883:3883
 其中,server.id=host:port:port的配置说明:
• server.id:在 zoo.cfg 文件中配置的配置的 dataDir 路径下(即:/var/lib/zookeeper)创建myid文件,里面写入 id 值
• host:构建 zookeeper 集群的服务器的 ip 地址
• port:第一个 port 用于连接 leader 服务器;第二个 port 用于 leader election (端口可以自定义 但是不要冲突)
启动zookeeper

编写脚本
/usr/local/solrcloud/zk1/bin/zkServer.sh start
/usr/local/solrcloud/zk2/bin/zkServer.sh start
/usr/local/solrcloud/zk3/bin/zkServer.sh start

查看状态
/usr/local/solrcloud/zk1/bin/zkServer.sh status
/usr/local/solrcloud/zk2/bin/zkServer.sh status
/usr/local/solrcloud/zk3/bin/zkServer.sh status

6.2 tomcat安装
第一步:将apache-tomcat-XXX.tar.gz解压
tar -zxvf apache-tomcat-XXX.tar.gz


第二步:把解压后的tomcat复制到/usr/local/solrcloud/目录下复制四份。
/usr/local/solrcloud/tomcat1
/usr/local/solrcloud/tomcat2
/usr/local/solrcloud/tomcat3
/usr/local/solrcloud/tomcat4


第三步:修改tomcat的server.xml
vim tomcat2/conf/server.xml,把其中的端口后都加一。保证两个tomcat可以正常运行不发生端口冲突。


6.3  solr单机部署
略


## 6.4 集群部署 ##

6.4.1   启动zookeeper
solrCloud部署依赖zookeeper,需要先启动每一台zookeeper服务器。


6.4.2   zookeeper管理配置文件
由于zookeeper统一管理solr的配置文件(主要是schema.xml、solrconfig.xml), solrCloud各各节点使用zookeeper管理的配置文件
将上边部署的solr单机的conf拷贝到/home/solr下。
执行下边的命令将/home/solr/conf下的配置文件上传到zookeeper
在solr-4.10.3/example目录下先执行:
java -jar start.jar


在solr-4.10.3/example/scripts/cloud-scripts/目录下:
./zkcli.sh -zkhost 10.40.155.196:2181,10.40.155.196:2182,10.40.155.196:2183 -cmd upconfig -confdir /usr/local/solr/solrhome/collection1/conf -confname myconf


登陆zookeeper服务器查询配置文件:
cd /usr/local/zookeeper/bin/
./zkCli.sh


6.5 修改SolrCloud监控端口
为每一个solr创建solrhome
修改每个solrhome的solr.xml文件。将host改成虚拟机ip地址,port改成对应的tomcat的端口号。


6.6 每一台solr和zookeeper关联
修改每一台solr的tomcat 的 bin目录下catalina.sh文件中加入DzkHost指定zookeeper服务器地址:
JAVA_OPTS="-DzkHost=10.40.155.196:2181,10.40.155.196:2182,10.40.155.196:2183"
(可以使用vim的查找功能查找到JAVA_OPTS的定义的位置,然后添加)


6.7 启动所有的solr服务
启动每一台solr的tomcat服务。


6.8 访问solrcloud
访问任意一台solr,左侧菜单出现Cloud:

6.9  SolrCloud集群配置
上图中的collection1集群只有一片,可以通过下边的方法配置新的集群。
如果集群中有四个solr节点创建新集群collection2,将集群分为两片,每片两个副本。 http://10.40.155.196:8081/solr/admin/collections?action=CREATE&name=collection2&numShards=2&replicationFactor=2 
删除集群命令; http://10.40.155.196:8081/solr/admin/collections?action=DELETE&name=collection1 执行后原来的collection1删除


6.10    启动solrCloud注意
启动solrCloud需要先启动solrCloud依赖的所有zookeeper服务器,再启动每台solr服务器。


solrJ访问solrCloud

public class SolrCloudTest {
// zookeeper地址
private static String zkHostString = "10.40.155.196:2181,10.40.155.196:2182,10.40.155.196:2183";
// collection默认名称,比如我的solr服务器上的collection是collection2_shard1_replica1,就是去掉“_shard1_replica1”的名称
private static String defaultCollection = "collection1";

// cloudSolrServer实际
private CloudSolrServer cloudSolrServer;

// 测试方法之前构造 CloudSolrServer
@Before
public void init() {
cloudSolrServer = new CloudSolrServer(zkHostString);
cloudSolrServer.setDefaultCollection(defaultCollection);
cloudSolrServer.connect();
}

// 向solrCloud上创建索引
@Test
public void testCreateIndexToSolrCloud() throws SolrServerException,
IOException {

SolrInputDocument document = new SolrInputDocument();
document.addField("id", "100001");
document.addField("title", "李四");
cloudSolrServer.add(document);
cloudSolrServer.commit();

}

// 搜索索引
@Test
public void testSearchIndexFromSolrCloud() throws Exception {

SolrQuery query = new SolrQuery();
query.setQuery("*:*");
try {
QueryResponse response = cloudSolrServer.query(query);
SolrDocumentList docs = response.getResults();

System.out.println("文档个数:" + docs.getNumFound());
System.out.println("查询时间:" + response.getQTime());

for (SolrDocument doc : docs) {
ArrayList title = (ArrayList) doc.getFieldValue("title");
String id = (String) doc.getFieldValue("id");
System.out.println("id: " + id);
System.out.println("title: " + title);
System.out.println();
}
} catch (SolrServerException e) {
e.printStackTrace();
} catch (Exception e) {
System.out.println("Unknowned Exception!!!!");
e.printStackTrace();
}
}

// 删除索引
@Test
public void testDeleteIndexFromSolrCloud() throws SolrServerException, IOException {

// 根据id删除
UpdateResponse response = cloudSolrServer.deleteById("zhangsan");
// 根据多个id删除
// cloudSolrServer.deleteById(ids);
// 自动查询条件删除
// cloudSolrServer.deleteByQuery("product_keywords:教程");
// 提交
cloudSolrServer.commit();
}
}


## 8. 项目与solrcloud整合 ##

## 8.1 确定sql语句 ##

SELECT
a.id,
a.title,
a.sell_point,
a.price,
a.image,
b.`name` category_name,
c.item_desc
FROM
tb_item a
LEFT JOIN tb_item_cat b ON a.cid = b.id
LEFT JOIN tb_item_desc c ON a.id = c.item_id


## 8.2 新建pojo类 ##

private Long id;
private String title;
private String sell_point;
private Long price;
private String image;
private String category_name;


8.3 编写dao

查询所有商品信息

编写service

## 在service层注入HttpSolrService ##

<!--单机版-->
<bean id="httpSolrServer" class="org.apache.solr.client.solrj.impl.HttpSolrServer">
<constructor-arg index="0" value="http://10.40.155.196:9080/solr/collection1"/>
</bean>
<!-- 集群版 -->
<bean id="cloudSolrServer" class="org.apache.solr.client.solrj.impl.CloudSolrServer">
<constructor-arg name="zkHost" value="10.40.155.196:2181,10.40.155.196:2182,10.40.155.196:2183"></constructor-arg>
<property name="defaultCollection" value="collection2"></property>
</bean>


public void importAllItems() throws SolrServerException, IOException {

//查询商品列表
List<TbSearchItemCustom> itemList = itemMapper.getSearchItemList();
//遍历商品列表
for (TbSearchItemCustom searchItem : itemList) {
//创建文档对象
SolrInputDocument document = new SolrInputDocument();
//向文档对象中添加域:对应schema.xml配置文件中的域名
document.addField("id", searchItem.getId());
document.addField("item_title", searchItem.getTitle());
document.addField("item_sell_point", searchItem.getSellPoint());
document.addField("item_price", searchItem.getPrice());
document.addField("item_image", searchItem.getImage());
document.addField("item_category_name", searchItem.getCatName());
//把文档对象写入索引库
solrServer.add(document);
}
//提交
solrServer.commit();
}


## 8.5 编写Controller ##

8.6 编写jsp

写一个按钮
<div style="padding:5px;" >
<a id="import" class="easyui-linkbutton" onclick="importItems()">一键导入商品数据到索引库</a>
<span id="msg"></span>
</div>


function importItems() {

(‘#import’).linkbutton(‘disable’);(‘#msg’).html(‘导入中,请稍后…’);

.post(“search/item/import”,null,function(data){
if(data.success){.messager.alert(‘提示’, data.message);

} else {

.messager.alert(‘提示’,’导入索引库失败!’);
}(‘#msg’).html(”);

});

}

这里写代码片


搭建搜索工程

tt-search-web 提供搜索功能

复制静态资源

编写pojo类,封装搜索结果

private long recordCount;

private int totalPages;

private List itemList;

编写service

功能:接收查询条件。查询条件及分页条件(page、rows),创建一个SolrQuery对象。指定查询条件、分页条件、默认搜索域、高亮显示。调用dao层执行查询。得到查询结果计算总页数。返回TbSearchItemResult对象。

K收查询参数:查询条件、page、rows

调用Service执行查询返回一个查询结果对象。

把查询结果包装到MessageResult中返回,结果是json格式的数据。

Page为空:默认为1

Rows 为空:默认为60

@RequestMapping("/")
public String searchItemList(String keyword,
@RequestParam(defaultValue="1") Integer page, Model model) throws Exception {
if(keyword != null){
keyword = new String(keyword.getBytes("iso-8859-1"), "utf-8");
//查询商品列表

}
//返回逻辑视图
return "search";
}
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  solr zookeeper