您的位置:首页 > 编程语言 > Java开发

HBase集群搭建

2016-07-28 21:02 369 查看
1.上传hbase安装包

2.解压

3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了)

注意:要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下

3.1修改hbase-env.sh

export JAVA_HOME=/usr/java/jdk1.7.0_55


//告诉hbase使用外部的zk


export HBASE_MANAGES_ZK=false
vim hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,hadoop1,hadoop2,hadoop3</value>
</property>
<!-- 指定zk的数据目录 -->
<property>
<name>hbase.zookeeper.dataDir</name>
<value>/usr/hadoop/hbase-1.1.5/data</value>
</property>
</configuration>


vim regionservers


weekend03
weekend04
weekend05
weekend06


3.2拷贝hbase到其他节点

scp -r /weekend/hbase-0.96.2-hadoop2/ weekend02:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend03:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend04:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend05:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend06:/weekend/


4.将配置好的HBase拷贝到每一个节点并同步时间。

5.启动所有的hbase

分别启动zk

./zkServer.sh start


启动hbase集群


start-dfs.sh


启动hbase,在主节点上运行:


start-hbase.sh


6.通过浏览器访问hbase管理页面

192.168.1.201:16010


7.为保证集群的可靠性,要启动多个HMaster

hbase-daemon.sh start master
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hbase hadoop java 集群 zk