Zookeeper分布式集群部署
2014-03-21 12:02
471 查看
现在开始zookeeper-3.4.5的安装吧!
一、官方网站下载zookeeper-3.4.5:http://www.apache.org/dyn/closer.cgi/zookeeper/
二、将下载得到的zookeeper-3.4.5.tar.gz放到指定的目录中,自己统一放在了/home/hadoop/platform/下,tar解压缩即可
三、设置环境变量:
为了方便运行zkServer.sh脚本,我们将zookeeper的bin路径加入到/etc/profile中,作为一个全局变量进行输出到PATH中,记得修改完成之后运行source /etc/profile使修改生效
ZOOKEEPER_HOME=/home/hadoop/platform/zookeeper-3.4.5
export ZOOKEEPER_HOME
export PATH=$PATH:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf
然后利用scp命令将修改复制到各个节点
四、建立zookeeper配置文件(可以先在一个节点上配置,后期直接复制到其他节点即可)
进入到zookeeper的conf/中,将zoo_sample.cfg拷贝成zoo.cfg:
点击(此处)折叠或打开
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
dataDir=/home/hadoop/platform/zookeeper-data
# the port at which the clients will connect
clientPort=2181
#下面是参与的4个节点
server.1=master:2888:3888
server.2=node1:2888:3888
server.3=node2:2888:3888
端口2181,设置dataDir为一个指定目录存放zookeeper的协调数据,最后添加集群中的节点。接下来需要根据server.X的号码在相应的节点上的dataDir下建立myid文件,输入自身的“X”作为内容即可,比如master节点上的myid只输入1即可。
五、复制zookeeper-3.4.5到其他各节点
这里使用scp -r zookeeper-3.4.5/ hadoop@node1:实现,注意每个节点的dataDir下的myid文件要修改成自身的Server-X号码
六、运行zkServer.sh
在所有节点上分别运行zkServer.sh start命令:
这里需要注意第一个节点启动zookeeper时由于集群的其他节点未启动zookeeper,因此使用zkServer.sh status命令查看当前状态时会提示错误,如上图白色区域;但是随着后续节点的zookeeper的陆续启动,使用status查看状态时会显示当前节点的状态,本次master作为了leader。
配置好重新运行tpkickoff.sh,终于没有像之前报zookeeper的错误了:
一、官方网站下载zookeeper-3.4.5:http://www.apache.org/dyn/closer.cgi/zookeeper/
二、将下载得到的zookeeper-3.4.5.tar.gz放到指定的目录中,自己统一放在了/home/hadoop/platform/下,tar解压缩即可
三、设置环境变量:
为了方便运行zkServer.sh脚本,我们将zookeeper的bin路径加入到/etc/profile中,作为一个全局变量进行输出到PATH中,记得修改完成之后运行source /etc/profile使修改生效
ZOOKEEPER_HOME=/home/hadoop/platform/zookeeper-3.4.5
export ZOOKEEPER_HOME
export PATH=$PATH:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf
然后利用scp命令将修改复制到各个节点
四、建立zookeeper配置文件(可以先在一个节点上配置,后期直接复制到其他节点即可)
进入到zookeeper的conf/中,将zoo_sample.cfg拷贝成zoo.cfg:
点击(此处)折叠或打开
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
dataDir=/home/hadoop/platform/zookeeper-data
# the port at which the clients will connect
clientPort=2181
#下面是参与的4个节点
server.1=master:2888:3888
server.2=node1:2888:3888
server.3=node2:2888:3888
端口2181,设置dataDir为一个指定目录存放zookeeper的协调数据,最后添加集群中的节点。接下来需要根据server.X的号码在相应的节点上的dataDir下建立myid文件,输入自身的“X”作为内容即可,比如master节点上的myid只输入1即可。
五、复制zookeeper-3.4.5到其他各节点
这里使用scp -r zookeeper-3.4.5/ hadoop@node1:实现,注意每个节点的dataDir下的myid文件要修改成自身的Server-X号码
六、运行zkServer.sh
在所有节点上分别运行zkServer.sh start命令:
这里需要注意第一个节点启动zookeeper时由于集群的其他节点未启动zookeeper,因此使用zkServer.sh status命令查看当前状态时会提示错误,如上图白色区域;但是随着后续节点的zookeeper的陆续启动,使用status查看状态时会显示当前节点的状态,本次master作为了leader。
配置好重新运行tpkickoff.sh,终于没有像之前报zookeeper的错误了:
相关文章推荐
- 分布式协调服务zookeeper01-zookeeper集群安装部署
- Zookeeper分布式集群部署
- SolrCloud 分布式集群安装部署(solr4.8.1 + zookeeper +tomcat)
- SolrCloud 分布式集群安装部署(solr+ zookeeper +tomcat)
- apache+tomcat+Jfinal 2.2+dubbo2.5.4+zookeeper3.3.6 +redis+druid 分布式(集群)部署成功的一点心得(二)
- Hadoop及Zookeeper+HBase完全分布式集群部署
- ZooKeeper伪分布式集群部署
- ZooKeeper分布式集群部署及问题
- hadoop-2.6.0+zookeeper-3.4.6+hbase-1.0.0+hive-1.1.0完全分布式集群HA部署
- centos-7 部署zookeeper集群 >>>> 分布式 HDFS(二)
- Zookeeper分布式集群部署
- Zookeeper集群部署及分布式应用系统服务器上下线动态感知
- 搭建3个节点的hadoop集群(完全分布式部署)--3 zookeeper与hbase安装
- Zookeeper分布式集群部署
- zookeeper集群部署(分布式)
- 生产环境实战spark (11)分布式集群 5台设备 Zookeeper集群、Kafka集群安装部署
- 第9周 Mongodb数据库高可用,分布式集群部署
- zookeeper 分布式集群安装
- kafka学习总结之集群部署和zookeeper