您的位置:首页 > 运维架构

hadoop cdh 4.5的安装配置

2014-02-19 16:18 369 查看
春节前用的shark,是从github下载的源码,自己编译。shark的master源码仅支持hive 0.9,支持hive 0.11的shark只是个分支,不稳定,官方没有发布release版,在使用过程中出现了一些问题。现在官方将hive 0.11分布合并到主干代码,并且发布了支持hive 0.11的稳定版本。为了使用最新的shark 0.9,需要重新安装部署整个环境,包括:hadoop cdh 4.5+hive 0.11(shark 0.9版)+spark 0.9 +shark 0.9。

一、配置linux用户
groupadd hadoopgroup adduser -g hadoopgroup kituser passwd kituser

二、ssh无验证登陆 1、用kituser登陆,执行:
ssh-keygen -t rsa -P "" cat .ssh/id_rsa.pub >> .ssh/authorized_keys

完成后,用ssh localhost测试。 2、将服务器的authorized_keys文本文件内容“追加”到各客户端的authorized_keys文件中,将客户端的authorized_keys追加到服务端的authorized_keys文件中。 三、上传文件解压后的hadoop文件夹到linux 四、修改hadoop配置文件 1、core-site.xml 2、mapred-site.xml 3、yarn-site.xml 4、hdfs-site.xml 5、slaves.xml 然后执行chmod -R 777 /home/kituser/bigdata,设置此文件夹及下属权限。 五、修改当前用户的.bash_profile文件
export JAVA_HOME=/usr/java/jdk1.7.0_45
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=.:$PATH:$JAVA_HOME/bin

export HADOOP_HOME="/home/kituser/bigdata/hadoop-2.0.0-cdh4.5.0"
export HADOOP_PREFIX=${HADOOP_PREFIX}
export HADOOP_MAPRED_HOME=${HADOOP_PREFIX}
export HADOOP_COMMON_HOME=${HADOOP_PREFIX}
export HADOOP_HDFS_HOME=${HADOOP_PREFIX}
export YARN_HOME=${HADOOP_PREFIX}
export YARN_CONF_DIR=${HADOOP_PREFIX}/etc/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export CLASSPATH=$CLASSPATH:$HADOOP_HOME/lib:$HADOOP_CONF_DIR:$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:/lib64:/usr/lib64

然后执行source /home/kituser/.bash_profile,使.bash_profile文件配置生效。 另外,记得检查/关闭访问墙:service iptables stop/staus。 六、验证hadoop是否正常 1、初始化及启动
首次格式化:hadoop namenode -format 启动:start-all.sh 停止:stop-all.sh 查看进程:jps

2、测试hdfs:
hadoop fs -mkdir hdfs://kit-b5:8020/testfolder hadoop fs -ls hdfs://kit-b5:8020/ hadoop fs -copyFromLocal /home/kituser/bigdata/hadoop-2.0.0-cdh4.5.0/cloudera/*.txt hdfs://kit-b5:8020/

3、验证map/reduce:
hadoop fs -mkdir hdfs://kit-b5:8020/input hadoop fs -put /home/kituser/bigdata/hadoop-2.0.0-cdh4.5.0/cloudera/*.txt hdfs://kit-b5:8020/input/ hadoop jar /home/kituser/bigdata/hadoop-2.0.0-cdh4.5.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.0.0-cdh4.5.0.jar wordcount hdfs://kit-b5:8020/input/ hdfs://kit-b5:8020/output/ hadoop fs -ls hdfs://kit-b5:8020/output/ hadoop fs -cat hdfs://kit-b5:8020/output/part-r-00000/ 即可看到每个 单词的数量

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: