hadoop2.4.1+hbase0.98集群
2015-03-07 15:54
120 查看
hadoop2.4.1集群上篇已搭建成功 http://blog.csdn.net/drhhyh/article/details/43966607
官网下载hbase的包:hbase-0.98.6.1-hadoop2-bin.tar.gz
1.上传hbase安装包到drh04
我是借助的xftp
2.解压
[drh@drh04 hbase-0.98.6.1-hadoop2]$ tar -zxvf hbase-0.98.6.1-hadoop2-bin.tar.gz
3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了)
注意:1.把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下 或则方法2
2.在
3.1修改hbase-env.sh
export JAVA_HOME=/home/drh/java/jdk1.7.0_71
export HBASE_CLASSPATH=$HOME/hadoop/hadoop-2.4.1/etc/hadoop/
export HBASE_MANAGES_ZK=false
//true:表示zookeeper交给hbase管理,启动hbase时,会自动启动hbase-site.xml里的 hbase.zookeeper.quorum属性中的所有zookeeper实例 #false:表示启动hbase时,要手动启动所有zookeeper实例
vim hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>drh02:2181,drh03:2181drh04,:2181</value>
</property>
</configuration>
vim regionservers
drh02
drh03
drh04
3.2拷贝hbase到其他节点
[drh@drh04 ~]$ scp -r /hadoop/hbase-0.98.6.1-hadoop2/ drh02:/hadoop/
[drh@drh04 ~]$ scp -r /hadoop/hbase-0.98.6.1-hadoop2/ drh03:/hadoop/
4.同步主机时间。
5.启动所有的hbase
分别启动zk
drh02
[drh@drh02 ~]$ cd /hadoop/zookeeper-3.4.5/bin
[drh@drh02 bin]$ ./zkServer.sh start
drh03
[drh@drh03 ~]$ cd /hadoop/zookeeper-3.4.5/bin
[drh@drh03 bin]$ ./zkServer.sh start
drh04
[drh@drh04 ~]$ cd /hadoop/zookeeper-3.4.5/bin
[drh@drh04 bin]$ ./zkServer.sh start
启动hadoop集群
[drh@drh02 sbin]$ ./start-dfs.sh
启动hbase,在主节点上运行:
[drh@drh04 bin]$ ./start-hbase.sh
6.通过浏览器访问hbase管理页面
drh04:60010
7.为保证集群的可靠性,要启动多个HMaster( hbase-daemon.sh start master)
[drh@drh02 bin]$ ./hbase-daemon.sh start master
官网下载hbase的包:hbase-0.98.6.1-hadoop2-bin.tar.gz
1.上传hbase安装包到drh04
我是借助的xftp
2.解压
[drh@drh04 hbase-0.98.6.1-hadoop2]$ tar -zxvf hbase-0.98.6.1-hadoop2-bin.tar.gz
3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了)
注意:1.把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下 或则方法2
2.在
3.1修改hbase-env.sh
export JAVA_HOME=/home/drh/java/jdk1.7.0_71
export HBASE_CLASSPATH=$HOME/hadoop/hadoop-2.4.1/etc/hadoop/
export HBASE_MANAGES_ZK=false
//true:表示zookeeper交给hbase管理,启动hbase时,会自动启动hbase-site.xml里的 hbase.zookeeper.quorum属性中的所有zookeeper实例 #false:表示启动hbase时,要手动启动所有zookeeper实例
vim hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>drh02:2181,drh03:2181drh04,:2181</value>
</property>
</configuration>
vim regionservers
drh02
drh03
drh04
3.2拷贝hbase到其他节点
[drh@drh04 ~]$ scp -r /hadoop/hbase-0.98.6.1-hadoop2/ drh02:/hadoop/
[drh@drh04 ~]$ scp -r /hadoop/hbase-0.98.6.1-hadoop2/ drh03:/hadoop/
4.同步主机时间。
5.启动所有的hbase
分别启动zk
drh02
[drh@drh02 ~]$ cd /hadoop/zookeeper-3.4.5/bin
[drh@drh02 bin]$ ./zkServer.sh start
drh03
[drh@drh03 ~]$ cd /hadoop/zookeeper-3.4.5/bin
[drh@drh03 bin]$ ./zkServer.sh start
drh04
[drh@drh04 ~]$ cd /hadoop/zookeeper-3.4.5/bin
[drh@drh04 bin]$ ./zkServer.sh start
启动hadoop集群
[drh@drh02 sbin]$ ./start-dfs.sh
启动hbase,在主节点上运行:
[drh@drh04 bin]$ ./start-hbase.sh
6.通过浏览器访问hbase管理页面
drh04:60010
7.为保证集群的可靠性,要启动多个HMaster( hbase-daemon.sh start master)
[drh@drh02 bin]$ ./hbase-daemon.sh start master
相关文章推荐
- CentOS系统下Hadoop 2.4.1集群安装配置(简易版)
- 让hadoop2.4.1跑起来---搭建完全hadoop集群环境
- hadoop2.4.1集群搭建
- VMware下Hadoop 2.4.1完全分布式集群平台安装与设置
- [笔记]hadoop2.4.1伪分布式集群搭建\hdfs入门
- hadoop 2.4.1 集群安装二
- hadoop2.4.1集群搭建
- 虚拟机下32位CentOs版本的linux下hadoop2.4.1集群搭建(3个节点版本)
- CentOS系统下Hadoop 2.4.1集群安装配置(简易版)
- Ubuntu 14.04下Hadoop2.4.1集群安装配置教程
- 最全的hadoop2.4.1版本分布式集群高可用模式安装步骤
- [置顶] Hadoop2.4.1集群搭建(YARN)
- Hadoop-2.4.1 ubuntu集群安装配置教程
- CentOS系统下Hadoop 2.4.1集群安装配置(简易版)
- Hadoop2.4.1集群安装
- 集群环境下Hadoop2.5.2+Zookeeper3.4.6+Hbase0.98+Hive1.0.0安装目录总汇
- Hadoop2.4.1集群搭建
- Hadoop2.4.1集群启动DataNode 不能正常启动
- hadoop-2.4.1 集群搭建
- hadoop2.4.1集群+ubuntu