Hadoop2.7.5伪分布式配置及遇到的问题总结
2018-03-04 12:30
477 查看
系统信息
操作系统:Ubuntu 16.04.4 LTS 64bitHadoop版本:Hadoop 2.7.5
JDK版本:JDK 1.8.0_161 64bit
参考资料
hadoop2.x配置hadoop2.7.3伪分布式搭建之三——>Hadoop2.7.3的安装
NameNode进程未启动
一、修改配置文件
关于JDK的安装及其环境变量的配置,此处不作赘述。在Apache Hadoop官网Release页面选择好某个版本的binary版,下载,解压至
/usr/local/下
这里,我的hadoop目录为
/usr/local/hadoop-2.7.5
进入hadoop目录,首先新建文件夹tmp和hdfs,接着,在hdfs里面新建data和name两个文件夹
mkdir tmp hdfs mkdir -p hdfs/data hdfs/name
进入
etc/hadoop目录下,找到以下几个文件:
hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml.template、yarn-site.xml。core-site.xml包含了整个Hadoop发行版的通用配置,hdfs-site.xml包含了HDFS的配置,mapred-site.xml.template包含了MapReduce的配置。
1.hadoop-env.sh
该文件默认有个export JAVA_HOME=${JAVA_HOME}
将其改为你的JAVA_HOME路径,例如
export JAVA_HOME=/usr/lib/jvm/java-8-oracle
2.core-site.xml
修改为如下内容:<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost</value> <description>HDFS的URI,文件系统://namenode标识:端口号</description> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop-2.7.5/tmp</value> <description>namenode上本地的hadoop临时文件夹</description> </property> </configuration>
3.hdfs-site.xml
修改为如下内容:<configuration> <property> <name>dfs.namenode.name.dir</name> <value>file:///usr/local/hadoop-2.7.5/hdfs/name</value> <description>namenode上存储hdfs名字空间元数据 </description> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///usr/local/hadoop-2.7.5/hdfs/data</value> <description>datanode上数据块的物理存储位置</description> </property> <property> <name>dfs.replication</name> <value>1</value> <description>副本个数,应小于datanode机器数量</description> </property> </configuration>
value的值要以
file://开头,否则到后面格式化节点时会出现警告
18/03/04 11:32:16 WARN common.Util: Path /usr/local/hadoop-2.7.5/hdfs/name should be specified as a URI in configuration files. Please update hdfs configuration. 18/03/04 11:32:16 WARN common.Util: Path /usr/local/hadoop-2.7.5/hdfs/name should be specified as a URI in configuration files. Please update hdfs configuration.
4.mapred-site.xml.template
重命名为mapred-site.xml
修改为如下内容:
<configuration> <property> <name>mapreduce.framewo 4000 rk.name</name> <value>yarn</value> </property> </configuration>
5.yarn-site.xml
修改为如下内容:<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> </configuration>
更多关于Hadoop的配置,可以参考
《Hadoop MapReduce实战手册》中第3章 高级Hadoop MapReduce运维 中的内容。
二、配置环境变量
引入以下变量,用sorce命令或者重启电脑使变量生效
export HADOOP_HOME=/usr/local/hadoop-2.7.5 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
三、配置SSH
终端执行apt install ssh cd ~/.ssh ssh-keygen -t rsa # 按四个回车生,成秘钥文件 cp id_rsa.pub authorized_keys ssh localhost # 第一次登录
四、尝试启动Hadoop
格式化HDFS文件系统hadoop namenode -format
DEPRECATED: Use of this script to execute hdfs command is deprecated. Instead use the hdfs command for it. 18/03/04 12:12:22 INFO namenode.NameNode: STARTUP_MSG: /************************************************************ STARTUP_MSG: Starting NameNode STARTUP_MSG: host = lsn-ubuntu.lan/192.168.199.177 STARTUP_MSG: args = [-format] STARTUP_MSG: version = 2.7.5 STARTUP_MSG: build = https://shv@git-wip-us.apache.org/repos/asf/hadoop.git -r 18065c2b6806ed4aa6a3187d77cbe21bb3dba075; compiled by 'kshvachk' on 2017-12-16T01:06Z STARTUP_MSG: java = 1.8.0_161 ************************************************************/ 18/03/04 12:12:22 INFO namenode.NameNode: registered UNIX signal handlers for [TERM, HUP, INT] ... ... ... 18/03/04 12:12:23 INFO namenode.FSImageFormatProtobuf: Image file /usr/local/hadoop-2.7.5/hdfs/name/current/fsimage.ckpt_0000000000000000000 of size 329 bytes saved in 0 seconds. 18/03/04 12:12:23 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0 18/03/04 12:12:23 INFO util.ExitUtil: Exiting with status 0 18/03/04 12:12:23 INFO namenode.NameNode: SHUTDOWN_MSG: /************************************************************ SHUTDOWN_MSG: Shutting down NameNode at lsn-ubuntu.lan/192.168.199.177 ************************************************************/
进入
/usr/local/hadoop-2.7.5/sbin/
依次执行
./start-dfs.sh ./start-yarn.sh
查看是否成功的方法,终端输入
jps,出现以下信息即成功。
22848 DataNode 23537 NodeManager 23233 ResourceManager 23684 Jps 23046 SecondaryNameNode 22697 NameNode
此时,在浏览器分别输入
localhost:8088和
localhost:50070将会看到以下两个页面。
五、遇到的小问题
1.配置文件中路径不规范
在配置hdfs-site.xml时出现的警告
2.NameNode或DataNode进程未成功启动
Hadoop配置后没有NameNode进程是怎么回事? - 雷雷的回答 - 知乎https://www.zhihu.com/question/31239901/answer/51129753
Hadoop配置后没有NameNode进程是怎么回事? - Ansel Ting的回答 - 知乎
https://www.zhihu.com/question/31239901/answer/127300168
DataNode进程未启动-CSD,NASIA_kobe的回答
相关文章推荐
- hadoop完全分布式过程中遇到的一些问题和总结
- 在hadoop全分布式配置过程中编辑/etc/hosts时遇到权限的问题
- hadoop学习(一)hadoop-1.2.1伪分布式配置及遇到的问题
- hadoop伪分布式配置及遇到的问题
- hadoop为分布式遇到的问题总结
- Hadoop1.2.1+Zookeeper3.4.5+HBase0.94.18完全分布式集群配置过程中遇到的问题
- hadoop伪分布式配置及遇到的问题
- hadoop 2.2.0配置遇到的问题总结
- 单机版Hadoop-2.7.3+Hbase-1.3.1,Windows10-eclipse Java Oxygen版本配置及遇到问题总结
- Hadoop 配置-启动 过程中遇到的问题
- linux下tomcat7配置startssl证书遇到的问题总结
- 配置Spring MVC 所遇到一些问题的总结
- hadoop环境配置过程中可能遇到问题的解决方案
- Centos中vim配置遇到问题总结
- 【Apache Hadoop系列】hadoop伪分布式配置问题集锦
- hadoop环境配置过程中可能遇到问题的解决方案
- ubuntu中安装伪分布式Hadoop问题总结
- Centos中vim配置遇到问题总结
- hadoop集群配置以及配置中遇到的问题详解
- Hadoop linux(ubuntu)分布式部署配置问题记录