阿里云虚拟机搭建Hadoop伪分布式环境
2018-01-05 12:27
330 查看
首先先搭配安全组
打开镜像后输入以下内容:
重要: yum -y install lrzszHOSTNAME=(自己的主机名字)
hostname $HOSTNAME
echo "$(grep -E '127|::1' /etc/hosts)">/etc/hosts
echo "$(ifconfig eth0|grep inet|awk -F'[ :]' '{print $13}') $(hostname)">>/etc/hosts
sed -i "s/^HOSTNAME.*$/HOSTNAME=$HOSTNAME/g" /etc/sysconfig/network编译工作需要以下环境支持:
jdk1.7
apache-maven-3
protobuf-2.5.0
findbugs-1.3.9
gcc gcc-c++ make cmake
openssl zlib ncurses snappy bzip2
lzo lzop autoconf automake
PS:将所有文件上传到 /tmp 目录下
配置jdk1.7:
mkdir /usr/java
cd /usr/java/
tar -xf /tmp/server-jre-7u80-linux-x64.tar.gz
chown root: /usr/java/jdk1.7.0_80/ -R
echo 'export JAVA_HOME=/usr/java/jdk1.7.0_80'>>/etc/profile配置maven:
配置findbugs:
输入mv 将文件移出)
编译出来的安装包的部署不在需要findbugs和maven以及protobuf,只需要jdk即可。
可以重新克隆一台实验机,然后配置jdk,也可以清掉编译机器的环境进行部署:cd /usr/local/
rm -rf findbugs-1.3.9 apache-maven-3.3.9 protobuf
sed -i '/^export MAVEN_HOME=/d' /etc/profile
sed -i '/^export MAVEN_OPTS=/d' /etc/profile
sed -i '/^export FINDBUGS_HOME=/d' /etc/profile
sed -i '/^export PROTOC_HOME=/d' /etc/profile
sed -i '/^export PATH=/d' /etc/profile
echo 'export PATH=$JAVA_HOME/bin:$PATH'>>/etc/profile
source /etc/profile
打开镜像后输入以下内容:
重要: yum -y install lrzszHOSTNAME=(自己的主机名字)
hostname $HOSTNAME
echo "$(grep -E '127|::1' /etc/hosts)">/etc/hosts
echo "$(ifconfig eth0|grep inet|awk -F'[ :]' '{print $13}') $(hostname)">>/etc/hosts
sed -i "s/^HOSTNAME.*$/HOSTNAME=$HOSTNAME/g" /etc/sysconfig/network编译工作需要以下环境支持:
jdk1.7
apache-maven-3
protobuf-2.5.0
findbugs-1.3.9
gcc gcc-c++ make cmake
openssl zlib ncurses snappy bzip2
lzo lzop autoconf automake
PS:将所有文件上传到 /tmp 目录下
配置jdk1.7:
mkdir /usr/java
cd /usr/java/
tar -xf /tmp/server-jre-7u80-linux-x64.tar.gz
chown root: /usr/java/jdk1.7.0_80/ -R
echo 'export JAVA_HOME=/usr/java/jdk1.7.0_80'>>/etc/profile配置maven:
cd /usr/local/ yum -y install unzip unzip /tmp/apache-maven-3.3.9-bin.zip chown root: /usr/local/apache-maven-3.3.9 -R echo 'export MAVEN_HOME=/usr/local/apache-maven-3.3.9'>>/etc/profile echo 'export MAVEN_OPTS="-Xms256m -Xmx512m"'>>/etc/profile编译安装protobuf:
yum -y install gcc gcc-c++ make cmake cd /tmp/ tar -xf protobuf-2.5.0.tar.gz cd protobuf-2.5.0 ./configure --prefix=/usr/local/protobuf make && make install echo 'export PROTOC_HOME=/usr/local/protobuf'>>/etc/profile
配置findbugs:
cd /usr/local/ unzip /tmp/findbugs-1.3.9.zip chown root: findbugs-1.3.9 -R echo 'export FINDBUGS_HOME=/usr/local/findbugs-1.3.9'>>/etc/profile最终PATH变量和其他依赖包的安装
echo "export PATH=\ \$FINDBUGS_HOME/bin:\ \$PROTOC_HOME/bin:\ \$MAVEN_HOME/bin:\ \$JAVA_HOME/bin:\ \$PATH">>/etc/profile source /etc/profile java -version mvn -version protoc --version findbugs -version # 测试java和maven以及protoc和findbugs是否配置成功 yum install -y openssl openssl-devel \ svn ncurses-devel zlib-devel libtool \ snappy snappy-devel bzip2 bzip2-devel \ lzo lzo-devel lzop autoconf automake \ openssh-clients
编译hadoop2.6-cdh5.7.1的安装包
cd /tmp tar -xf hadoop-2.6.0-cdh5.7.1-src.tar.gz cd hadoop-2.6.0-cdh5.7.1 mvn clean package -Pdist,native -DskipTests -Dtar # 该步需要通过网络下载和编译,耗时较长 # 参数解释: # clean package 清除原来的包 # -Pdist,native 将生成的包放入本地的dist目录 # -DskipTests 忽略测试 # -Dtar 生成tar包 # 编译生成 hadoop-2.6.0-cdh5.7.1.tar.gz # 目录:/tmp/hadoop-2.6.0-cdh5.7.1/hadoop-dist/target # 可以将编译生成的tar包保存下来,就不用再次编译了。(注意:进入 /tmp/hadoop-2.6.0-cdh5.7.1/hadoop-dist/target
输入mv 将文件移出)
编译出来的安装包的部署不在需要findbugs和maven以及protobuf,只需要jdk即可。
可以重新克隆一台实验机,然后配置jdk,也可以清掉编译机器的环境进行部署:cd /usr/local/
rm -rf findbugs-1.3.9 apache-maven-3.3.9 protobuf
sed -i '/^export MAVEN_HOME=/d' /etc/profile
sed -i '/^export MAVEN_OPTS=/d' /etc/profile
sed -i '/^export FINDBUGS_HOME=/d' /etc/profile
sed -i '/^export PROTOC_HOME=/d' /etc/profile
sed -i '/^export PATH=/d' /etc/profile
echo 'export PATH=$JAVA_HOME/bin:$PATH'>>/etc/profile
source /etc/profile
配置HDFS
添加hadoop用户,配置sudo权限:useradd hadoop echo hadoop|passwd --stdin hadoop sed -i 's/^root.*/&\nhadoop ALL=(ALL) ALL/g' /etc/sudoers安装编译生成的hadoop包:
cd /usr/local tar -xf /tmp/hadoop-2.6.0-cdh5.7.1.tar.gz chown hadoop: hadoop-2.6.0-cdh5.7.1 -R ln -s hadoop-2.6.0-cdh5.7.1/ hadoop cd hadoop echo 'export HADOOP_HOME=/usr/local/hadoop'>>/etc/profile echo 'export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH'>>/etc/profile
source /etc/profile切换到hadoop用户,配置ssh互信
su - hadoop ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys chmod 0600 ~/.ssh/authorized_keys ssh -o StrictHostKeyChecking=no localhost date ssh -o StrictHostKeyChecking=no 127.0.0.1 date ssh -o StrictHostKeyChecking=no $(hostname) date配置HDFS:
cd /usr/local/hadoop vi etc/hadoop/core-site.xml # 在<configuration>这里添加配置</configuration> # 添加完配置之后如下: <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop001:9000</value> </property> </configuration> vi etc/hadoop/hdfs-site.xml # 在<configuration>这里添加配置</configuration> # 添加完配置之后如下: <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>hadoop001:50090</value> </property> <property> <name>dfs.namenode.secondary.https-address</name> <value>hadoop001:50091</value> </property> </configuration> cd /usr/local/hadoop/etc/hadoop echo $(hostname)>slaves
# 修改hadoop的slave的解析地址格式化namenode,启动HDFS:
cd /usr/local/hadoop/etc/hadoop/ sed -i "s#export JAVA_HOME=.*#export JAVA_HOME=$JAVA_HOME#g" hadoop-env.sh hdfs namenode -format start-dfs.sh进程状态查看:
jps # 查看NameNode、SecondaryNameNode和DataNode是否启动 # 网页访问: # http://自己IP:50070
伪分布式配置MR和Yarn
MR配置部署:cd /usr/local/hadoop/etc/hadoop cp -av mapred-site.xml{.template,} vi mapred-site.xml # 在<configuration>这里添加配置</configuration> # 添加完配置之后如下: <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>YARN配置部署:
vi yarn-site.xml # 在<configuration>这里添加配置</configuration> # 添加完配置之后如下: <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>启动:
start-yarn.sh设置开机自动启动HDFS和YARN:
echo "/bin/su - hadoop -c '/usr/local/hadoop/sbin/start-all.sh'">>/etc/rc.local来自@若泽大数据
相关文章推荐
- windows10+eclipse neon+hadoop2.6.4(伪分布式)远程连接虚拟机环境搭建
- hadoop环境搭建和在本地用虚拟机模拟分布式集群的搭建
- 阿里云 centos hadoop伪分布式环境搭建
- 在oracle Virtual Box 虚拟机中搭建hadoop1.2.1完全分布式环境(转自康哥的博客)
- 在Win7虚拟机下搭建Hadoop2.6.0伪分布式环境
- 本地搭建Hadoop伪分布式环境之一:虚拟机的安装
- CentOS6.5虚拟机下搭建Hadoop伪分布式环境
- 虚拟机中Hadoop分布式环境搭建
- Hadoop实战(1)_阿里云搭建Hadoop2.x的伪分布式环境
- 本地虚拟机通过hadoop和spark搭建分布式环境
- 在oracle Virtual Box 虚拟机中搭建hadoop1.2.1完全分布式环境
- zookeeper-3.4.7 环境搭建 (伪分布式环境三台虚拟机)
- hadoop完全分布式环境搭建
- mac下搭建hadoop伪分布式环境
- hadoop2.7.0版本搭建伪分布式环境
- Hadoop2.5.2完全分布式环境搭建
- Hadoop完全分布式环境搭建
- hadoop伪分布式环境搭建
- 分布式集群环境hadoop、hbase、zookeeper搭建(全)
- 阿里云服务器安装配置Hadoop2.7.5+Spark2.2.1伪分布式环境