第一章:hadoop1-hdfs完全分布式模式实验
2015-11-13 11:53
447 查看
1 安装hdfs-完整分布式模式
1.1 环境
192.168.118.142:node1 NameNode192.168.118.143:node2
Secondary NameNode,DataNode
192.168.118.144:node3 DataNode
1.2 解压hadoop1.2
1.3 配置NameNode以及HOME目录
1. 编辑conf/core-site.xml文件,详细配置可以参考core-default.html帮助文档2. 创建家目录
mkdir -p /root/hadoop1.2/home/dfs/name
1.4 配置HDFS
编辑conf/hdfs-site.xml文件,详细配置可以参考hdfs-default帮助文档1.5 配置DataNode
编辑slaves文件,添加DataNode1.6 配置Secondary NameNode
编辑masters文件,添加Secondary NameNode1.7 配置环境
1. 编辑conf/hadoop-env.sh,配置JAVA_HOME2. 关闭各个节点的防火墙
3. $bin/hadoop namenode -format #格式化目录
1.8 配置NameNode ssh连接DataNode忽略密码
1. $ ssh-keygen-t dsa -P '' -f ~/.ssh/id_dsa #生成公钥和私钥,所有忽略的Node都执行2. $ scp -rid_dsa.pub root@node2:~ #将公钥copy到node2节点
3. $ cat~/id_dsa.pub >> ~/.ssh/authorized_keys #node2添加公钥,其他节点重复2,3
1.9 启动hdfs
./bin/start-dfs.sh#重新启动datanode
./bin/hadoop-daemons.sh --config conf--hosts slaves start datanode
访问http://192.168.118.142:50070/即可
2 配置MapReduce环境
2.1 配置JobTracker
编辑conf/mapred-site.xml2.2 配置TaskTracker
默认不用配置,默认以datanode节点作为tasktracker2.3 启动
./bin/start-all.sh访问http://192.168.118.142:50030
相关文章推荐
- linux运维30题
- linux find grep组合使用
- 第一章:nginx负载均衡实验
- Hadoop-2.7.1集群环境搭建
- PopupWindow与AlertDialog的使用
- Linux下时间输出格式精确到微秒-gettimeofday
- nginx:2、ngnix安装及配置详解
- Linux系统中管理用户和用户组的相关配置文件简介
- mesos+marathon+zookeeper的docker管理集群亲手搭建实例(详细)
- nginx与lua的执行顺序和步骤说明
- Linux下基本的查看用户和管理用户密码命令
- centos 安装gradle
- 云搜宝:网站布局对网站优化影响有多大?
- 别老扯什么hadoop,你的数据根本不够大
- centos 安装 apt-get
- Centos彻底删除文件夹、文件命令
- CentOS 7 配置OpenCL环境(安装NVIDIA cuda sdk、Cmake、Eclipse CDT)
- CentOS 7 配置OpenCL环境(安装NVIDIA cuda sdk、Cmake、Eclipse CDT)
- unix shell: ksh fundamental(Korn Shell)
- python linux 脚本执行