shell脚本完成hadoop的集群安装
2016-04-11 14:49
706 查看
#!/bin/bash #步骤: #1.安装虚拟机,关闭防火墙、selinux #2.ssh免密码,编辑hosts文件 #3.安装JDK #4.安装hadoop #5.修改配置文件 #6.分发hadoop程序到各个节点 #7.启动集群 #准备软件: #hadoop-2.7.0.tar.gz #jdk-7u79-linux-x64.rpm #native_x64 #conf #---------------------------- #1.安装虚拟机,关闭防火墙、selinux(每个节点都要运行) #service iptables stop #setenforce 0 #---------------------------- #2.ssh免密码,编辑hosts文件(以下操作重复都在hd1,hd2,hd3上运行) # ssh-keygen -t rsa # ssh-copy-id hd1 # ssh-copy-id hd2 # ssh-copy-id hd3 #---------------------------- #3.安装JDK scp ./jdk-7u79-linux-x64.rpm root@hd2:/root/soft scp ./jdk-7u79-linux-x64.rpm root@hd3:/root/soft rpm -ivh jdk-7u79-linux-x64.rpm ssh hd2 rpm -ih /root/soft/jdk-7u79-linux-x64.rpm ssh hd3 rpm -ih /root/soft/jdk-7u79-linux-x64.rpm source /etc/profile sleep 1 #---------------------------- #4.安装hadoop tar -xf hadoop-2.7.0.tar.gz sleep 1 #---------------------------- #5.修改配置文件和native文件(准备好配置文件,覆盖hadoop目录的配置文件) cp ./conf/* /root/soft/hadoop-2.7.0/etc/hadoop/ yes | cp -rf /root/soft/native_x64/* /root/soft/hadoop-2.7.0/lib/native/ sleep 1 #---------------------------- #6.分发hadoop程序到各个节点 #把程序拷贝到其它节点 scp -r hadoop-2.7.0/ root@hd2:/root/soft/ scp -r hadoop-2.7.0/ root@hd3:/root/soft/ sleep 1 #---------------------------- #7.启动集群 cd /root/soft/hadoop-2.7.0 yes | ./bin/hdfs namenode -format ./sbin/start-dfs.sh ./sbin/start-yarn.sh sleep 1 /usr/java/default/bin/jps #2353 Jps #1717 NameNode #2087 ResourceManager #1908 SecondaryNameNode
附件:脚本,conf文件,native文件
相关文章推荐
- Linux socket 初步
- Linux Kernel 4.0 RC5 发布!
- linux lsof详解
- linux 文件权限
- Linux 执行数学运算
- 10 篇对初学者和专家都有用的 Linux 命令教程
- Linux 与 Windows 对UNICODE 的处理方式
- Ubuntu12.04下QQ完美走起啊!走起啊!有木有啊!
- 解決Linux下Android开发真机调试设备不被识别问题
- 详解HDFS Short Circuit Local Reads
- 运维入门
- 运维提升
- Linux 自检和 SystemTap
- Ubuntu Linux使用体验
- c语言实现hashmap(转载)
- Linux 信号signal处理机制
- linux下mysql添加用户
- Scientific Linux 5.5 图形安装教程