hadoop2.6 每次重启linux 都必须重新format datanode的问题
2015-05-06 14:50
411 查看
最近在看hadoop, 本机装的是伪分布模式。
但每次重启linux后,总需要执行hadoop namenode -format重新格式化namenode。
原因是:
HDFS把namenode的格式化信息存在了系统的tmp目录下,该目录每次开机会被清空,因此每次重新启动机器,都需要重新格式化HDFS。
如果之前已经往hdfs里放入了一些文件,这显然是不可接受的。
解决方案如下:
在你自己的家目录下创建 hadoop/tmp文件夹
在HADOOP_INSTALL/etc/hadoop/core-site.xml 的configure重新配置namenode的目录
即添加如下的property
如果出现下面的错误
java.io.IOException: Cannot create directory /* * * / * * */tmp/dfs/name/current
请检查你刚才新建的hadoop/tmp,是否正确分配了用户组与文件夹权限。
配置完成后,执行,hadoop namenode -format 重新格式化namenode
再重启linux,
start-dfs.sh
jps看看namenode是否启动起来。
hadoop fs -mkdir /test
hadoop fs -ls /
随便执行两个命令确认下hdfs是否正常使用。
参考:http://www.tuicool.com/articles/eAbuEvE
但每次重启linux后,总需要执行hadoop namenode -format重新格式化namenode。
原因是:
HDFS把namenode的格式化信息存在了系统的tmp目录下,该目录每次开机会被清空,因此每次重新启动机器,都需要重新格式化HDFS。
如果之前已经往hdfs里放入了一些文件,这显然是不可接受的。
解决方案如下:
在你自己的家目录下创建 hadoop/tmp文件夹
在HADOOP_INSTALL/etc/hadoop/core-site.xml 的configure重新配置namenode的目录
即添加如下的property
<property> <name>hadoop.tmp.dir</name> <value>/home/(当前用户名)/hadoop_tmp</value> <description>A base for other temporary directories.</description> </property>
如果出现下面的错误
java.io.IOException: Cannot create directory /* * * / * * */tmp/dfs/name/current
请检查你刚才新建的hadoop/tmp,是否正确分配了用户组与文件夹权限。
配置完成后,执行,hadoop namenode -format 重新格式化namenode
再重启linux,
start-dfs.sh
jps看看namenode是否启动起来。
hadoop fs -mkdir /test
hadoop fs -ls /
随便执行两个命令确认下hdfs是否正常使用。
参考:http://www.tuicool.com/articles/eAbuEvE
相关文章推荐
- hadoop2.8 每次重启linux 都必须重新format datanode的问题
- hadoop 2.6遇到的DataNode无法启动问题
- Hadoop 2.7.x NameNode重新格式化后导致DataNode无法启动问题
- Hadoop问题:启动hadoop 2.6遇到的datanode启动不了
- hadoop伪分布式每次启动时需要重新format否则namenode无法启动的问题
- hadoop伪分布式每次启动时需要重新format否则namenode无法启动的问题
- Hadoop 在重启或者多次格式化后无法启动datanode问题的解决
- Hadoop问题DataNode error (ERROR org.apache.hadoop.hdfs.server.datanode.DataNode)
- 重新 format namenode datanode无法启动
- 为什么每次重启机器后,namenode都启动不了,需要先hadoop namenode -format
- hadoop的datanode重新加载失败 解决步骤
- 云计算学习笔记---异常处理---hadoop问题处理ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.lang.NullPoin
- 关于hadoop中datanode节点不同的dfs.data.dir之间数据均衡问题
- hadoop运行故障问题解决1——datanode节点启动后自动关闭
- hadoop datanode 问题 INFO org.apache.hadoop.ipc.RPC: Server at /:9000 not available yet, Zzzzz..
- hadoop 平台解决datanode无法启动问题
- 关于hadoop中datanode节点不同的dfs.data.dir之间数据均衡问题
- hadoop datanode 为0的常见问题
- hadoop 安装出现的几种异常的处理方法,hadoop无法启动,no namenode to stop问题的解决方法,no datanode
- hadoop DataNode无法连接NameNode问题,注意/etc/hosts内容