您的位置:首页 > 其它

hbase集群搭建

2017-05-19 00:07 309 查看
----先部署一个zookeeper集群

(1)上传hbase安装包

(2)解压

(3)配置hbase集群,要修改3个文件

       注意:要把hadoop的hdfs-site.xml和core-site.xml放到hbase/conf下

cp .../hadoop/core-site.xml.../hbase-0.96.2-hadoop2/conf

cp .../hadoop/hdfs-site.xml.../hbase-0.96.2-hadoop2/conf  

a、修改hbase-env.sh

export JAVA_HOME=/usr/java/jdk1.7.0_55
//告诉hbase使用外部的zk
export HBASE_MANAGES_ZK=false

b、修改hbase-site.xml

<configuration>
<!-- 指定hbase在HDFS上存储的路径,namenode的地址-->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hdp-server-01:2181, hdp-server-02:2181, hdp-server-03:2181</value>
</property>
</configuration>

c、修改 regionservers   (跟着datanode走)

weekend03
weekend04
weekend05
weekend06

(4)拷贝hbase到其他节点

scp -r /weekend/hbase-0.96.2-hadoop2/ weekend02:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend03:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend04:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend05:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend06:/weekend/

(5)将配置好的HBase拷贝到每一个节点并同步时间。

(6)启动所有的hbase进程

 首先启动zk集群

              ./zkServer.sh start

启动hdfs集群

              start-dfs.sh

启动hbase,在主节点上运行:

              ./start-hbase.sh

(7)通过浏览器访问hbase管理页面

192.168.77.70:60010

(8)为保证集群的可靠性,要启动多个HMaster

       ./hbase-daemon.shstart master
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hbase集群搭建