CHD4B1(hadoop-0.23)实现NameNode HA安装配置
2012-03-27 11:49
495 查看
关注hadoop社区发展情况,下步会找时间专门坐下测试。
先转个帖子:
原文:/article/7049467.html
CHD4B1(hadoop-0.23)实现NameNode HA安装配置
Cloudera CHD4B1版本已经包含了NameNode HA,社区也把NameNode HA branch HDFS-1623 merge到trunk版本,可以实现了双NameNode的热备份,不过目前只支持手动切换,还不支持自动切换,社区中自动切换进度请看:https://issues.apache.org/jira/browse/HDFS-3042
NameNode HA(CHD4B1版本) 文档:
https://ccp.cloudera.com/display/CDH4B1/CDH4+Beta+1+High+Availability+Guide
下面以CHD4B1版本来说明一下如何安装配置双NameNode HA:
1.首先安装java、配置ssh,这部分和之前版本相同,这里就省略了。
2.下载和解压CDH4B1
下载:https://ccp.cloudera.com/display/SUPPORT/CDH4+Downloadable+Tarballs
解压:tar –zxvf hadoop-0.23.0-cdh4b1.tar.gz
3.设置环境变量:
在hadoop-cdh4b1/libexec目录下hadoop-config.sh配置文件中配置JAVA_HOME,红色部分:
# Attempt to set JAVA_HOME if it is not set
export JAVA_HOME=/home/liuminggang.pt/java_current
if [[ -z $JAVA_HOME ]]; then
4.添加hadoop配置文件中的配置项:
(配置文件直接在hadoop-cdh4b1/etc/hadoop目录下配置),我这里总共用了5台机器:
10.250.8.106 NameNode
10.250.8.107 NameNode
10.250.8.108 DataNode
10.250.8.109 DataNode
10.250.8.110 DataNode
4.1配置core-site.xml文件:
<property>
<name>hadoop.tmp.dir</name>
<value>/home/pt/hadoop-cdh4b1/hadoop_tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://goon</value> // goon是NameService ID,这里可以自己设置
</property>
4.2 配置hdfs-site.xml文件:
配置:dfs.namenode.name.dir
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/pt/hadoop-cdh4b1/cluster-data</value>
</property>
配置:dfs.federation.nameservices
<property>
<name>dfs.federation.nameservices</name>
<value>goon</value> //goon是nameservice名称
</property>
配置:dfs.ha.namenodes.[nameservice ID]. 下面的goon是nameservice ID,nn1和nn2是每台namenode的serviceId。
<property>
<name>dfs.ha.namenodes.goon</name>
<value>nn1,nn2</value> //goon
</property>
配置rpc通信地址:dfs.namenode.rpc-address.[nameservice ID].
<property>
<name>dfs.namenode.rpc-address.goon.nn1</name>
<value>10.250.8.106:9000</value>
</property>
<property>
<name>dfs.namenode.rpc-address.goon.nn2</name>
<value>10.250.8.107:9000</value>
</property>
配置http通信地址:dfs.namenode.http-address.[nameservice ID].
<property>
<name>dfs.namenode.http-address.goon.nn1</name>
<value>10.250.8.106:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.nn2</name>
<value>10.250.8.107:50070</value>
</property>
配置:dfs.namenode.shared.edits.dir
dfs.namenode.shared.edits.dir是主备namenode共享目录,这里要求主备都可以读写,我这采用NFS实现共享,NFS实现可以参照:http://www.vpsee.com/2010/06/install-nfs-4-0-on-centos/
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>/home/pt/data_NFS</value>
</property>
配置客户端failover:
<property>
<name>dfs.client.failover.proxy.provider.goon</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
配置:Fencing,这里dfs.ha.fencing.methods实现的方法有两种sshfence和shell,我下面实现的是sshfence,dfs.ha.fencing.ssh.private-key-files这个是ssh的key file。
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/home/lpt/.ssh/id_rsa</value>
</property>
另外dataNode节点需要配置:
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/pt/hadoop-cdh4b1/datanode-data</value>
</property>
4.3 yarn-site.xml的配置
可参考:http://blog.sina.com.cn/s/blog_4a1f59bf010116rh.html
5.初始化NameNode
首先格式化主备namenode :bin/hdfs namenode –format 为了让主备dfs.namenode.name.dir目录下的Namenode的元数据一致以及dfs.namenode.shared.edits.dir包含最近所有的edit files,可以把主节点的dfs.namenode.name.dir目录下的元数据拷贝到备用节点dfs.namenode.name.dir和共享dfs.namenode.shared.edits.dir目录下。
5.启动集群:
启动hdfs:sbin/start-dfs.sh
启动mapreduce:sbin/start-yarn.sh
注意:此时是以NameNode HA配置方式启动集群的,NameNode启动之后处于standby状态,此时集群并不能服务。要想让集群能够服务,此时就应该借助DFSHAadmin命令了,可以采用bin/hdfs haadmin –DFSHAadmin –transitionToActive nn1 让上面配置的nn1处于active状态,nn2还处于stanby状态。另外DFSHAadmin还有一些其他的功能如下:
Usage: DFSHAAdmin [-ns <nameserviceId>]
[-transitionToActive <serviceId>]
[-transitionToStandby <serviceId>]
[-failover [--forcefence] [--forceactive] <serviceId> <serviceId>]
[-getServiceState <serviceId>]
[-checkHealth <serviceId>]
[-help <command>]
其中:bin/hdfs haadmin -DfSHAadmin -failover nn1 nn2是让nn2成为变为active nn1变为standby,这是使用这个命令可能会出现:Failover failed: /10.250.8.107:9000 is not ready to become active,这时我们用命令bin/hdfs haadmin -DfSHAadmin -failover --forceactive nn1 nn2就不会出现上面的问题,要想知道上面参数具体是什么意思可以看看hadoop-0.23或CHD4B1的源码。
先转个帖子:
原文:/article/7049467.html
CHD4B1(hadoop-0.23)实现NameNode HA安装配置
Cloudera CHD4B1版本已经包含了NameNode HA,社区也把NameNode HA branch HDFS-1623 merge到trunk版本,可以实现了双NameNode的热备份,不过目前只支持手动切换,还不支持自动切换,社区中自动切换进度请看:https://issues.apache.org/jira/browse/HDFS-3042
NameNode HA(CHD4B1版本) 文档:
https://ccp.cloudera.com/display/CDH4B1/CDH4+Beta+1+High+Availability+Guide
下面以CHD4B1版本来说明一下如何安装配置双NameNode HA:
1.首先安装java、配置ssh,这部分和之前版本相同,这里就省略了。
2.下载和解压CDH4B1
下载:https://ccp.cloudera.com/display/SUPPORT/CDH4+Downloadable+Tarballs
解压:tar –zxvf hadoop-0.23.0-cdh4b1.tar.gz
3.设置环境变量:
在hadoop-cdh4b1/libexec目录下hadoop-config.sh配置文件中配置JAVA_HOME,红色部分:
# Attempt to set JAVA_HOME if it is not set
export JAVA_HOME=/home/liuminggang.pt/java_current
if [[ -z $JAVA_HOME ]]; then
4.添加hadoop配置文件中的配置项:
(配置文件直接在hadoop-cdh4b1/etc/hadoop目录下配置),我这里总共用了5台机器:
10.250.8.106 NameNode
10.250.8.107 NameNode
10.250.8.108 DataNode
10.250.8.109 DataNode
10.250.8.110 DataNode
4.1配置core-site.xml文件:
<property>
<name>hadoop.tmp.dir</name>
<value>/home/pt/hadoop-cdh4b1/hadoop_tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://goon</value> // goon是NameService ID,这里可以自己设置
</property>
4.2 配置hdfs-site.xml文件:
配置:dfs.namenode.name.dir
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/pt/hadoop-cdh4b1/cluster-data</value>
</property>
配置:dfs.federation.nameservices
<property>
<name>dfs.federation.nameservices</name>
<value>goon</value> //goon是nameservice名称
</property>
配置:dfs.ha.namenodes.[nameservice ID]. 下面的goon是nameservice ID,nn1和nn2是每台namenode的serviceId。
<property>
<name>dfs.ha.namenodes.goon</name>
<value>nn1,nn2</value> //goon
</property>
配置rpc通信地址:dfs.namenode.rpc-address.[nameservice ID].
<property>
<name>dfs.namenode.rpc-address.goon.nn1</name>
<value>10.250.8.106:9000</value>
</property>
<property>
<name>dfs.namenode.rpc-address.goon.nn2</name>
<value>10.250.8.107:9000</value>
</property>
配置http通信地址:dfs.namenode.http-address.[nameservice ID].
<property>
<name>dfs.namenode.http-address.goon.nn1</name>
<value>10.250.8.106:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.nn2</name>
<value>10.250.8.107:50070</value>
</property>
配置:dfs.namenode.shared.edits.dir
dfs.namenode.shared.edits.dir是主备namenode共享目录,这里要求主备都可以读写,我这采用NFS实现共享,NFS实现可以参照:http://www.vpsee.com/2010/06/install-nfs-4-0-on-centos/
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>/home/pt/data_NFS</value>
</property>
配置客户端failover:
<property>
<name>dfs.client.failover.proxy.provider.goon</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
配置:Fencing,这里dfs.ha.fencing.methods实现的方法有两种sshfence和shell,我下面实现的是sshfence,dfs.ha.fencing.ssh.private-key-files这个是ssh的key file。
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/home/lpt/.ssh/id_rsa</value>
</property>
另外dataNode节点需要配置:
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/pt/hadoop-cdh4b1/datanode-data</value>
</property>
4.3 yarn-site.xml的配置
可参考:http://blog.sina.com.cn/s/blog_4a1f59bf010116rh.html
5.初始化NameNode
首先格式化主备namenode :bin/hdfs namenode –format 为了让主备dfs.namenode.name.dir目录下的Namenode的元数据一致以及dfs.namenode.shared.edits.dir包含最近所有的edit files,可以把主节点的dfs.namenode.name.dir目录下的元数据拷贝到备用节点dfs.namenode.name.dir和共享dfs.namenode.shared.edits.dir目录下。
5.启动集群:
启动hdfs:sbin/start-dfs.sh
启动mapreduce:sbin/start-yarn.sh
注意:此时是以NameNode HA配置方式启动集群的,NameNode启动之后处于standby状态,此时集群并不能服务。要想让集群能够服务,此时就应该借助DFSHAadmin命令了,可以采用bin/hdfs haadmin –DFSHAadmin –transitionToActive nn1 让上面配置的nn1处于active状态,nn2还处于stanby状态。另外DFSHAadmin还有一些其他的功能如下:
Usage: DFSHAAdmin [-ns <nameserviceId>]
[-transitionToActive <serviceId>]
[-transitionToStandby <serviceId>]
[-failover [--forcefence] [--forceactive] <serviceId> <serviceId>]
[-getServiceState <serviceId>]
[-checkHealth <serviceId>]
[-help <command>]
其中:bin/hdfs haadmin -DfSHAadmin -failover nn1 nn2是让nn2成为变为active nn1变为standby,这是使用这个命令可能会出现:Failover failed: /10.250.8.107:9000 is not ready to become active,这时我们用命令bin/hdfs haadmin -DfSHAadmin -failover --forceactive nn1 nn2就不会出现上面的问题,要想知道上面参数具体是什么意思可以看看hadoop-0.23或CHD4B1的源码。
相关文章推荐
- CHD4B1(hadoop-0.23)实现NameNode HA安装配置
- CHD4B1(hadoop-0.23)实现NameNode HA安装配置
- CHD4B1(hadoop-0.23)实现NameNode HA安装配置
- 通过tarball形式安装HBASE Cluster(CDH5.0.2)——Hadoop NameNode HA 切换引起的Hbase错误,以及Hbase如何基于NameNode的HA进行配置
- Hadoop2 NameNode HA配置
- 配置hadoop2.X的namenode HA及Yarn HA
- Hadoop NameNode HA实现解析
- Hadoop-2.7.0中HDFS NameNode HA实现综述
- Hadoop-2.7.0中HDFS NameNode HA实现之DFSZKFailoverController、ZKFailoverController(一)
- 基于NameNode HA的Hbase安装配置
- Hadoop+Zookeeper+NameNode(HA)+ResourceManager(HA)自动切换 配置
- Hadoop2.0 Namenode HA实现方案介绍及汇总
- Hadoop 2.0 NameNode HA和Federation实践
- hadoop yarn HA 配置 错误 The HA Configuration has multiple addresses that match local node's address
- Hadoop 2.0 NameNode HA和Federation实践
- 配置NameNode HA
- Hadoop中namenode/secondarynamenode/yarn的一些配置
- Hadoop2.6.4 HA 高可用分布式集群安装配置详细步骤
- 【大数据系列】在hadoop2.8.0下配置SecondaryNameNode
- hadoop namenode ha--手动切换