Hadoop(三)搭建Hadoop全分布式集群【转载】
2017-10-17 16:03
369 查看
原文地址:http://www.cnblogs.com/zhangyinhua/p/7652686.html
阅读目录(Content)
一、搭建Hadoop全分布式集群前提
1.1、网络
1.2、安装jdk
1.3、安装hadoop
二、Hadoop全分布式集群搭建的配置
2.1、hadoop-env.sh
2.2、core-site.xml
2.3、hdfs-site.xml
2.4.mapred-site.xml
2.5、yarn-site.xml
2.6、创建上面配置的目录
三、全分布式集群搭建测试
3.1、运行环境
3.2、服务器集群的启动与关闭
3.3、效果
3.4、监控平台
四、Hadoop全分布式集群配置免密登录实现主节点控制从节点
4.1、配置主从节点之间的免密登录
五、配置集群中遇到的问题
前言
上一篇介绍了伪分布式集群的搭建,其实在我们的生产环境中我们肯定不是使用只有一台服务器的伪分布式集群当中的。接下来我将给大家分享一下全分布式集群的搭建!
其实搭建最基本的全分布式集群和伪分布式集群基本没有什么区别,只有很小的区别
2)如果在一个局域网当中,自己的多台电脑(每台电脑安装相同版本的linux系统)搭建,将所要使用的Ubuntu操作系统的网络模式调整为桥接模式。
步骤:
一是:在要使用的虚拟机的标签上右键单击,选择设置,选择网络适配器,选择桥接模式,确定
二是:设置完成之后,重启一下虚拟机
三是:再设置桥接之前将固定的IP取消
桌面版:通过图形化界面设置的。
服务器版:在/etc/network/interfaces
iface ens33 inet dhcp
#address ...
四是:ifconfig获取IP。172.16.21.xxx
最后试一试能不能ping通
改成:export JAVA_HOME=/opt/jdk
分析:
mip:在主节点的mip就是自己的ip,而所有从节点的mip是主节点的ip。
9000:主节点和从节点配置的端口都是9000
分析:
dfs.nameservices:在一个全分布式集群大众集群当中这个的value要相同
dfs.replication:因为hadoop是具有可靠性的,它会备份多个文本,这里value就是指备份的数量(小于等于从节点的数量)
一个问题:
dfs.datanode.data.dir:这里我在配置的时候遇到一个问题,就是当使用的这个的时候从节点起不来。当改成fs.datanode.data.dir就有用了。
但是官方给出的文档确实就是这个呀!所以很邪乎。因为只有2.0版本之前是fs
分析:
mip:在主节点的mip就是自己的ip,而所有从节点的mip是主节点的ip。
一定要设置成:sudo chmod -R 777 /data
主机名:udzyh1 IP:1.0.0.5 作为主节点(名字节点)
主机名:server1 IP:1.0.0.3 作为从节点(数据节点)
主机名:udzyh2 IP:1.0.0.7 作为从节点(数据节点)
jdk1.8.0_131
hadoop 2.8.1
名字节点、资源管理器:这是在主节点中启动或关闭的。
数据节点、节点管理器:这是在从节点中启动或关闭的。
MR作业日志管理器:这是在主节点中启动或关闭的。
在从节点:server1中
在从节点:udzyh2中
我们在主节点的web控制页面中:http:1.0.0.5:50070中查看到两个从节点
说明配置成功
我们只需要在主节点中使用start-dfs.sh/stop-dfs.sh就能开启或关闭namenode和所有的datanode,使用start-yarn.sh/stop-yarn.sh就能开启或关闭resourcemanager和所有的nodemanager。
如果以前配置过免密登录的话,建议删除重新建立过,因为我们需要配置的是多台服务器:
rm -r ~/.ssh
执行ssh-keygen为了在主节点中生成公钥和私钥,在从从节点生成.ssh目录
2)在主节点中执行
scp ~/.ssh/id_rsa.pub 从节点的用户名@从节点ip:~
注意:第一次远程连接的话,首先输入yes,然后是从节点密码
3)在所有的从节点中执行
我们把主节点的公钥已经拿到了所有的从节点中,接下来就是:
cat id_rsa.pub>>.ssh/authorized_keys当中
在从节点:1.0.0.3
在从节点1.0.0.7
4)测试
我们可以查看他们是用户名相同的,所以可以直接使用ssh 1.0.0.3远程连接
打开vi /opt/hadoop/etc/hadoop/slaves
把它删掉,然后配置上所有从节点的主机名
注意:这样配置的前提是主节点要能免密登录到从节点中
当你去执行start-dfs.sh时,它会去slaves文件中去找从节点(这就是配置免密登录的原因)
然后去启动从节点。同时自己也需要做免密登录也就是说要自己对自己做免密登录.
2)在主节点中
cat .ssh/id_rsa.pub >> .ssh/authorized_keys
3) 测试
ssh 127.0.0.1
注意:在主节点执行start-dfs.sh中主节点的用户名必须和所有从节点的用户名相同。因为那个服务器执行这个脚本
就以这个用户名去远程登录到其他从节点的服务器中,所以在所有的生产环境中控制同一类集群的用户一定要相同。
2)在web监控平台查询
3)在主节点的服务器中执行stop-dfs.sh
3)在主节点的服务器中执行start-yarn.sh
4)在web监控平台查询到
5)在主节点的服务器中执行stop-yarn.sh
解决方案:
在服务器添加完公钥之后,ssh服务器然后报了这个错误
sign_and_send_pubkey: signing failed: agent refused operation
然后执行了以下命令才好。。
eval "$(ssh-agent -s)" 注意:-s前面有空格
ssh-add
3)
在所有主节点和从节点的服务器中的/etc/hosts中: 删除所有关于ipv6的配置
它不能建立IPv6的连接,所以删除了IPv6之后系统会使用IPv4(在主节点上添加从节点的标识的)
4)在主节点的web控制页面查询不到从节点信息(但是使用jps可以查询到)
我说过需要在etc/hosts文件中加入所有集群服务器的ip和主机名
但是今天今天我测试的时候出现问题,然后我就把主从节点的在hosts文件配置的各个节点的ip+主机的配置删除了。
我估计这是因为我是在一台虚拟机中安装了多台的ubuntu中进行搭建集群的原因。
原文地址:http://www.cnblogs.com/zhangyinhua/p/7652686.html
阅读目录(Content)
一、搭建Hadoop全分布式集群前提
1.1、网络
1.2、安装jdk
1.3、安装hadoop
二、Hadoop全分布式集群搭建的配置
2.1、hadoop-env.sh
2.2、core-site.xml
2.3、hdfs-site.xml
2.4.mapred-site.xml
2.5、yarn-site.xml
2.6、创建上面配置的目录
三、全分布式集群搭建测试
3.1、运行环境
3.2、服务器集群的启动与关闭
3.3、效果
3.4、监控平台
四、Hadoop全分布式集群配置免密登录实现主节点控制从节点
4.1、配置主从节点之间的免密登录
五、配置集群中遇到的问题
前言
上一篇介绍了伪分布式集群的搭建,其实在我们的生产环境中我们肯定不是使用只有一台服务器的伪分布式集群当中的。接下来我将给大家分享一下全分布式集群的搭建!
其实搭建最基本的全分布式集群和伪分布式集群基本没有什么区别,只有很小的区别
一、搭建Hadoop全分布式集群前提
1.1、网络
1)如果是在一台虚拟机中安装多个linux操作系统的话,可以使用NAT或桥接模式都是可以的。试一试可不可以相互ping通!2)如果在一个局域网当中,自己的多台电脑(每台电脑安装相同版本的linux系统)搭建,将所要使用的Ubuntu操作系统的网络模式调整为桥接模式。
步骤:
一是:在要使用的虚拟机的标签上右键单击,选择设置,选择网络适配器,选择桥接模式,确定
二是:设置完成之后,重启一下虚拟机
三是:再设置桥接之前将固定的IP取消
桌面版:通过图形化界面设置的。
服务器版:在/etc/network/interfaces
iface ens33 inet dhcp
#address ...
四是:ifconfig获取IP。172.16.21.xxx
最后试一试能不能ping通
1.2、安装jdk
每一个要搭建集群的服务器都需要安装jdk,这里就不介绍了,可以查看上一篇1.3、安装hadoop
每一个要搭建集群的服务器都需要安装hadoop,这里就不介绍了,可以查看上一篇。二、Hadoop全分布式集群搭建的配置
配置/opt/hadoop/etc/hadoop相关文件2.1、hadoop-env.sh
25行左右:export JAVA_HOME=${JAVA_HOME}改成:export JAVA_HOME=/opt/jdk
2.2、core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://mip:9000</value> </property> </configuration>
分析:
mip:在主节点的mip就是自己的ip,而所有从节点的mip是主节点的ip。
9000:主节点和从节点配置的端口都是9000
2.3、hdfs-site.xml
注意:**:下面配置了几个目录。需要将/data目录使用-R给权限为777。<configuration> <property> <name>dfs.nameservices</name> <value>hadoop-cluster</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:///data/hadoop/hdfs/nn</value> </property> <property> <name>dfs.namenode.checkpoint.dir</name> <value>file:///data/hadoop/hdfs/snn</value> </property> <property> <name>dfs.namenode.checkpoint.edits.dir</name> <value>file:///data/hadoop/hdfs/snn</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///data/hadoop/hdfs/dn</value> </property> </configuration>
分析:
dfs.nameservices:在一个全分布式集群大众集群当中这个的value要相同
dfs.replication:因为hadoop是具有可靠性的,它会备份多个文本,这里value就是指备份的数量(小于等于从节点的数量)
一个问题:
dfs.datanode.data.dir:这里我在配置的时候遇到一个问题,就是当使用的这个的时候从节点起不来。当改成fs.datanode.data.dir就有用了。
但是官方给出的文档确实就是这个呀!所以很邪乎。因为只有2.0版本之前是fs
2.4.mapred-site.xml
注意:如果在刚解压之后,是没有这个文件的,需要将mapred-site.xml.template复制为mapred-site.xml。<configuration> <property> <!-指定Mapreduce运行在yarn上--> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
2.5、yarn-site.xml
<configuration> <!-- 指定ResourceManager的地址--> <property> <name>yarn.resourcemanager.hostname</name> <value>mip</value> </property> <!-- 指定reducer获取数据的方式--> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.local-dirs</name> <value>file:///data/hadoop/yarn/nm</value> </property>
分析:
mip:在主节点的mip就是自己的ip,而所有从节点的mip是主节点的ip。
2.6、创建上面配置的目录
sudo mkdir -p /data/hadoop/hdfs/nn sudo mkdir -p /data/hadoop/hdfs/dn sudo mkdir -p /data/hadoop/hdfs/snn sudo mkdir -p /data/hadoop/yarn/nm
一定要设置成:sudo chmod -R 777 /data
三、全分布式集群搭建测试
3.1、运行环境
有三台ubuntu服务器(ubuntu 17.04):主机名:udzyh1 IP:1.0.0.5 作为主节点(名字节点)
主机名:server1 IP:1.0.0.3 作为从节点(数据节点)
主机名:udzyh2 IP:1.0.0.7 作为从节点(数据节点)
jdk1.8.0_131
hadoop 2.8.1
3.2、服务器集群的启动与关闭
名字节点、资源管理器:这是在主节点中启动或关闭的。
数据节点、节点管理器:这是在从节点中启动或关闭的。
MR作业日志管理器:这是在主节点中启动或关闭的。
3.3、效果
在主节点:udzyh1中在从节点:server1中
在从节点:udzyh2中
我们在主节点的web控制页面中:http:1.0.0.5:50070中查看到两个从节点
说明配置成功
3.4、监控平台
四、Hadoop全分布式集群配置免密登录实现主节点控制从节点
配置这个是为了实现主节点管理(开启和关闭)从节点的功能:我们只需要在主节点中使用start-dfs.sh/stop-dfs.sh就能开启或关闭namenode和所有的datanode,使用start-yarn.sh/stop-yarn.sh就能开启或关闭resourcemanager和所有的nodemanager。
4.1、配置主从节点之间的免密登录
1)在所有的主从节点中执行如果以前配置过免密登录的话,建议删除重新建立过,因为我们需要配置的是多台服务器:
rm -r ~/.ssh
执行ssh-keygen为了在主节点中生成公钥和私钥,在从从节点生成.ssh目录
2)在主节点中执行
scp ~/.ssh/id_rsa.pub 从节点的用户名@从节点ip:~
注意:第一次远程连接的话,首先输入yes,然后是从节点密码
3)在所有的从节点中执行
我们把主节点的公钥已经拿到了所有的从节点中,接下来就是:
cat id_rsa.pub>>.ssh/authorized_keys当中
在从节点:1.0.0.3
在从节点1.0.0.7
4)测试
我们可以查看他们是用户名相同的,所以可以直接使用ssh 1.0.0.3远程连接
4.2、实现主节点控制从节点
1)在主节点中打开vi /opt/hadoop/etc/hadoop/slaves
把它删掉,然后配置上所有从节点的主机名
注意:这样配置的前提是主节点要能免密登录到从节点中
当你去执行start-dfs.sh时,它会去slaves文件中去找从节点(这就是配置免密登录的原因)
然后去启动从节点。同时自己也需要做免密登录也就是说要自己对自己做免密登录.
2)在主节点中
cat .ssh/id_rsa.pub >> .ssh/authorized_keys
3) 测试
ssh 127.0.0.1
注意:在主节点执行start-dfs.sh中主节点的用户名必须和所有从节点的用户名相同。因为那个服务器执行这个脚本
就以这个用户名去远程登录到其他从节点的服务器中,所以在所有的生产环境中控制同一类集群的用户一定要相同。
4.3、测试实现主节点控制从节点
1)在主节点的服务器中执行start-dfs.sh2)在web监控平台查询
3)在主节点的服务器中执行stop-dfs.sh
3)在主节点的服务器中执行start-yarn.sh
4)在web监控平台查询到
5)在主节点的服务器中执行stop-yarn.sh
五、配置集群中遇到的问题
2)主节点和从节点启动了,但是在主节点的web控制页面查找不到从节点(linux系统安装在不同的物理机上面)解决方案:
在服务器添加完公钥之后,ssh服务器然后报了这个错误
sign_and_send_pubkey: signing failed: agent refused operation
然后执行了以下命令才好。。
eval "$(ssh-agent -s)" 注意:-s前面有空格
ssh-add
3)
在所有主节点和从节点的服务器中的/etc/hosts中: 删除所有关于ipv6的配置
它不能建立IPv6的连接,所以删除了IPv6之后系统会使用IPv4(在主节点上添加从节点的标识的)
4)在主节点的web控制页面查询不到从节点信息(但是使用jps可以查询到)
我说过需要在etc/hosts文件中加入所有集群服务器的ip和主机名
但是今天今天我测试的时候出现问题,然后我就把主从节点的在hosts文件配置的各个节点的ip+主机的配置删除了。
我估计这是因为我是在一台虚拟机中安装了多台的ubuntu中进行搭建集群的原因。
原文地址:http://www.cnblogs.com/zhangyinhua/p/7652686.html
相关文章推荐
- Hadoop(二)搭建伪分布式集群【转载】
- hadoop 2.5.2 完全分布式集群环境搭建 (2)
- hadoop分布式集群搭建
- 王家林的“云计算分布式大数据Hadoop实战高手之路---从零开始”的第五讲Hadoop图文训练课程:解决典型Hadoop分布式集群环境搭建问题
- Hadoop1.2.1 完全分布式集群搭建实操笔记
- 整理Hadoop2下Hadoop Federation、Automatic HA、Yarn完全分布式集群搭建
- hadoop 分布式集群搭建
- hadoop环境搭建和在本地用虚拟机模拟分布式集群的搭建
- hadoop2.x 伪分布式环境搭建 | 适用于hadoop伪分布式集群环境搭建
- hadoop备战:一台x86计算机搭建hadoop的全分布式集群
- hadoop完全分布式集群搭建全部流程之三:完全分布式集群搭建
- Hadoop-2.6.1伪分布式集群环境搭建
- Hadoop2.7.3完全分布式集群搭建和测试
- Ubuntu搭建hadoop集群(分布式)
- Centos 7 搭建hadoop-2.6.0和spark1.6.0完全分布式集群教程 (最小化配置)
- centos7搭建hadoop2.7.2完全分布式集群
- # 从零开始搭建Hadoop2.7.1的分布式集群
- Hadoop分布式集群搭建
- hadoop分布式集群搭建=两次的总结--包括挂载文件系统
- hadoop初学入门之二:完全分布式集群搭建