hadoop-1.2.1集群-2014.5
2015-08-24 16:36
316 查看
目录
一.规划 ............................................................................................................................................. 2
二、操作步骤: ............................................................................................................................... 3
1.添加网络........................................................................................................................................ 3
2.复制6 个centos ............................................................................................................................ 3
3.更改网段,hostname,IP 地址 ......................................................................................................... 4
4.切换hadoop 用户更改和复制host 映射 .................................................................................... 6
5.在主节点上配置SSH 免登陆,复制到其他5 个节点 ................................................................ 8
6.在主节点更改conf 配置文件,复制到其他5 个节点 ............................................................... 9
7.format 后,start-all.sh 测试启动 ................................................................................................ 11
三.上传文件到分布式系统中,完成mapreduce,查看数据块 ................................................. 14
一.规划
构建6节点集群,其中主节点,secondarynamenode,jobTracker分别为独立的3个主机,从节点3个。
1.添加一个网络
2.复制6个centos主机
3.更改hostname,更改IP地址
4.使用CRT连接,切换hadoop用户,在主节点更改hosts映射,复制到其他5个节点
5.在主节点上配置SSH免登陆,复制到其他5个节点
6.在主节点更改conf配置文件,复制到其他5个节点
7.format后,start-all.sh测试启动
9.hadoop命令练习
10.在eclipse中编辑hadoop源文件,完成练习
二、操作步骤:
1.添加网络
2.复制6个centos(注意使用链接克隆,节省空间和时间)
z
3.更改网段,hostname,IP地址 //选择vmnet16
vi/etc/udev/rules.d/70-persistent-net.rules
//注释掉原eth0,将eth1改为eth0,复制原eth1 MAC地址
vi/etc/sysconfig/network-scripts/ifcfg-eth0 //更改IP地址、MAC地址 注意DHCP设置
service networkstart //重启网络服务,如果失败可以重启系统
vi /etc/sysconfig/network //更改hostname
重启后检查
vi /etc/sysconfig/network //更改hostname
4.切换hadoop用户更改和复制host映射
//使用CRT连接,切换hadoop用户,在主节点更改hosts映射,复制到其他5个节点
vi /etc/hosts
scp /etc/hosts 192.168.179.11:/etc/
scp /etc/hosts 192.168.179.12:/etc/
scp /etc/hosts 192.168.179.101:/etc/
scp /etc/hosts 192.168.179.102:/etc/
scp /etc/hosts 192.168.179.103:/etc/
5.在主节点上配置SSH免登陆,复制到其他5个节点
cd/home/hadoop
ssh-keygen -trsa
cd .ssh
cat id_rsa.pub> authorized_keys
scpauthorized_keys Slave1:/home/hadoop/.ssh/ //克隆鉴权
scpauthorized_keys Slave2:/home/hadoop/.ssh/
scpauthorized_keys Slave3:/home/hadoop/.ssh/
配置ssh免登陆
克隆ssh免登陆到其他节点
6.在主节点更改conf配置文件,复制到其他5个节点
vihadoop-env.sh
export JAVA_HOME=/usr/local/java7 //在文件中增加java路径
vicore-site.xml //加入主节点主机名,也可以是IP地址
scp -r /hadoop/hadoop-1.2.1 Snode:/hadoop/
scp -r /hadoop/hadoop-1.2.1 JTnode:/hadoop/
scp -r /hadoop/hadoop-1.2.1 Slave1:/hadoop/
scp -r /hadoop/hadoop-1.2.1 Slave2:/hadoop/
scp -r /hadoop/hadoop-1.2.1 Slave3:/hadoop/
vihdfs-site.xml //将value值改为2或3
vimapred-site.xml //添加jobtracker
vimasters //添加secondarynode主节点
vislaves //添加从节点
克隆到其他节点
scp -r /hadoop/hadoop-1.2.1 Snode:/hadoop/
7.format后,start-all.sh测试启动
[hadoop@Mnodebin]$ ./hadoop namenode -format
./start-all.sh
启动服务并查看
发现jobtrackersecondnamenode都没有起来
Jobtracker无法启动解决方案 :
dfs与mapred需要分开启动
dfs需要namenode启动
mapred需要jobtracker启动
I:给三台slave节点分配jobtracker免登陆认证
cat id_rsa.pub > authorized_keys2
scp authorized_keys2 Slave1:/home/hadoop/.ssh/
scp authorized_keys2 Slave2:/home/hadoop/.ssh/
scp authorized_keys2 Slave3:/home/hadoop/.ssh/
II:使用namenode启动dfs
./start-dfs.sh
III:使用jobtracker启动mapred
./start-mapred.sh
测试结果如下:启动正常
ps:如果发现datanode有问题可以删除/hadoop/data目录,重新format后再测试
三.上传文件到分布式系统中,完成mapreduce,查看数据块
bin/hadoop fs-put LICENSE1.txt /lic/testCC1.txt
/hadoop/hadoop-1.2.1/bin/hadoopjar hadoop-examples-1.2.1.jar wordcount /lic /lic_res
bin/hadoopfsck /lic/testCC1.txt-blocks
查看数据块
一.规划 ............................................................................................................................................. 2
二、操作步骤: ............................................................................................................................... 3
1.添加网络........................................................................................................................................ 3
2.复制6 个centos ............................................................................................................................ 3
3.更改网段,hostname,IP 地址 ......................................................................................................... 4
4.切换hadoop 用户更改和复制host 映射 .................................................................................... 6
5.在主节点上配置SSH 免登陆,复制到其他5 个节点 ................................................................ 8
6.在主节点更改conf 配置文件,复制到其他5 个节点 ............................................................... 9
7.format 后,start-all.sh 测试启动 ................................................................................................ 11
三.上传文件到分布式系统中,完成mapreduce,查看数据块 ................................................. 14
一.规划
构建6节点集群,其中主节点,secondarynamenode,jobTracker分别为独立的3个主机,从节点3个。
主机名 | 配置 | IP | NetMask | GateWay |
Mnode(主节点namenode) | 2G,30G+20*3G | 192.168.179.10 | 255.255.255.0 | 192.168.179.254 |
Snode(secondarynamenode) | 2G,30G+20*3G | 192.168.179.11 | 255.255.255.0 | 192.168.179.254 |
JTnode(jobtracker) | 2G,30G+20*3G | 192.168.179.12 | 255.255.255.0 | 192.168.179.254 |
Slave1(从节点) | 2G,30G+20*3G | 192.168.179.101 | 255.255.255.0 | 192.168.179.254 |
Slave2(从节点) | 2G,30G+20*3G | 192.168.179.102 | 255.255.255.0 | 192.168.179.254 |
Slave3(从节点) | 2G,30G+20*3G | 192.168.179.103 | 255.255.255.0 | 192.168.179.254 |
2.复制6个centos主机
3.更改hostname,更改IP地址
4.使用CRT连接,切换hadoop用户,在主节点更改hosts映射,复制到其他5个节点
5.在主节点上配置SSH免登陆,复制到其他5个节点
6.在主节点更改conf配置文件,复制到其他5个节点
7.format后,start-all.sh测试启动
9.hadoop命令练习
10.在eclipse中编辑hadoop源文件,完成练习
二、操作步骤:
1.添加网络
2.复制6个centos(注意使用链接克隆,节省空间和时间)
z
3.更改网段,hostname,IP地址 //选择vmnet16
vi/etc/udev/rules.d/70-persistent-net.rules
//注释掉原eth0,将eth1改为eth0,复制原eth1 MAC地址
vi/etc/sysconfig/network-scripts/ifcfg-eth0 //更改IP地址、MAC地址 注意DHCP设置
service networkstart //重启网络服务,如果失败可以重启系统
vi /etc/sysconfig/network //更改hostname
重启后检查
vi /etc/sysconfig/network //更改hostname
4.切换hadoop用户更改和复制host映射
//使用CRT连接,切换hadoop用户,在主节点更改hosts映射,复制到其他5个节点
vi /etc/hosts
scp /etc/hosts 192.168.179.11:/etc/
scp /etc/hosts 192.168.179.12:/etc/
scp /etc/hosts 192.168.179.101:/etc/
scp /etc/hosts 192.168.179.102:/etc/
scp /etc/hosts 192.168.179.103:/etc/
5.在主节点上配置SSH免登陆,复制到其他5个节点
cd/home/hadoop
ssh-keygen -trsa
cd .ssh
cat id_rsa.pub> authorized_keys
scpauthorized_keys Slave1:/home/hadoop/.ssh/ //克隆鉴权
scpauthorized_keys Slave2:/home/hadoop/.ssh/
scpauthorized_keys Slave3:/home/hadoop/.ssh/
配置ssh免登陆
克隆ssh免登陆到其他节点
6.在主节点更改conf配置文件,复制到其他5个节点
vihadoop-env.sh
export JAVA_HOME=/usr/local/java7 //在文件中增加java路径
vicore-site.xml //加入主节点主机名,也可以是IP地址
scp -r /hadoop/hadoop-1.2.1 Snode:/hadoop/
scp -r /hadoop/hadoop-1.2.1 JTnode:/hadoop/
scp -r /hadoop/hadoop-1.2.1 Slave1:/hadoop/
scp -r /hadoop/hadoop-1.2.1 Slave2:/hadoop/
scp -r /hadoop/hadoop-1.2.1 Slave3:/hadoop/
vihdfs-site.xml //将value值改为2或3
vimapred-site.xml //添加jobtracker
vimasters //添加secondarynode主节点
vislaves //添加从节点
克隆到其他节点
scp -r /hadoop/hadoop-1.2.1 Snode:/hadoop/
7.format后,start-all.sh测试启动
[hadoop@Mnodebin]$ ./hadoop namenode -format
./start-all.sh
启动服务并查看
发现jobtrackersecondnamenode都没有起来
Jobtracker无法启动解决方案 :
dfs与mapred需要分开启动
dfs需要namenode启动
mapred需要jobtracker启动
I:给三台slave节点分配jobtracker免登陆认证
cat id_rsa.pub > authorized_keys2
scp authorized_keys2 Slave1:/home/hadoop/.ssh/
scp authorized_keys2 Slave2:/home/hadoop/.ssh/
scp authorized_keys2 Slave3:/home/hadoop/.ssh/
II:使用namenode启动dfs
./start-dfs.sh
III:使用jobtracker启动mapred
./start-mapred.sh
测试结果如下:启动正常
ps:如果发现datanode有问题可以删除/hadoop/data目录,重新format后再测试
三.上传文件到分布式系统中,完成mapreduce,查看数据块
bin/hadoop fs-put LICENSE1.txt /lic/testCC1.txt
/hadoop/hadoop-1.2.1/bin/hadoopjar hadoop-examples-1.2.1.jar wordcount /lic /lic_res
bin/hadoopfsck /lic/testCC1.txt-blocks
查看数据块
相关文章推荐
- 8.2.1.8 IS NULL Optimization IS NULL 优化 (索引不存储NULL值)
- Apache配置域名跳转、日志切割、静态缓存、防盗链
- tomcat 下不在tomcat发布项目,引用外部链接
- 修改linux文件权限命令:chmod
- Linux时间子系统之(四):timekeeping
- Linux信号(signal) 机制分析
- UVA_10271_Chopsticks
- linux vi 操作指令
- 【Linux驱动器】Linux-2.6.20.4内核移植
- 通过OpenSSL获取证书扩展属性之一:“基本约束”
- kvm安装centos报错error processing drive
- Hadoop之HDFS文件操作
- 【Linux命令详解】1、日期和时间―(date、cal、hwclock和clock)
- 设置Linux最大打开文件数和进程数
- centos升级python,以及yum的修复
- Linux驱动中completion接口浅析(wait_for_complete例子,很好)【转】
- 关于一些Linux命令的格式及用法(Linux就业班第二次作业)[修改版]
- nginx反向代理设置
- 4.3.6、基于Nginx身份验证代理
- web使用openoffice实现在线预览office文档