hadoop2.8 每次重启linux 都必须重新format datanode的问题
2017-12-09 11:08
411 查看
最近在看hadoop, 本机装的是伪分布模式。
但每次重启linux后,总需要执行hadoop namenode -format重新格式化namenode。
原因是:
HDFS把namenode的格式化信息存在了系统的tmp目录下,该目录每次开机会被清空,因此每次重新启动机器,都需要重新格式化HDFS。
如果之前已经往hdfs里放入了一些文件,这显然是不可接受的。
解决方案如下:
在你自己的家目录下创建 hadoop/tmp文件夹
在HADOOP_INSTALL/etc/hadoop/core-site.xml 的configure重新配置namenode的目录
即添加如下的property
2
3
4
5
如果出现下面的错误
java.io.IOException: Cannot create directory /* * * / * * */tmp/dfs/name/current
请检查你刚才新建的hadoop/tmp,是否正确分配了用户组与文件夹权限。
配置完成后,执行,hadoop namenode -format 重新格式化namenode
再重启linux,
start-dfs.sh
jps看看namenode是否启动起来。
hadoop fs -mkdir /test
hadoop fs -ls /
随便执行两个命令确认下hdfs是否正常使用。
hdfs dfs -mkdir /user
hdfs dfs -mkdir /user/<username>
hdfs dfs -ls /
参考:http://blog.csdn.net/jobschen/article/details/45535827
顶
但每次重启linux后,总需要执行hadoop namenode -format重新格式化namenode。
原因是:
HDFS把namenode的格式化信息存在了系统的tmp目录下,该目录每次开机会被清空,因此每次重新启动机器,都需要重新格式化HDFS。
如果之前已经往hdfs里放入了一些文件,这显然是不可接受的。
解决方案如下:
在你自己的家目录下创建 hadoop/tmp文件夹
在HADOOP_INSTALL/etc/hadoop/core-site.xml 的configure重新配置namenode的目录
即添加如下的property
<property> <name>hadoop.tmp.dir</name> <value>/home/(当前用户名)/hadoop_tmp</value> <description>A base for other temporary directories.</description> </property>1
2
3
4
5
如果出现下面的错误
java.io.IOException: Cannot create directory /* * * / * * */tmp/dfs/name/current
请检查你刚才新建的hadoop/tmp,是否正确分配了用户组与文件夹权限。
配置完成后,执行,hadoop namenode -format 重新格式化namenode
再重启linux,
start-dfs.sh
jps看看namenode是否启动起来。
hadoop fs -mkdir /test
hadoop fs -ls /
随便执行两个命令确认下hdfs是否正常使用。
hdfs dfs -mkdir /user
hdfs dfs -mkdir /user/<username>
hdfs dfs -ls /
参考:http://blog.csdn.net/jobschen/article/details/45535827
顶
相关文章推荐
- hadoop2.6 每次重启linux 都必须重新format datanode的问题
- Hadoop 在重启或者多次格式化后无法启动datanode问题的解决
- hadoop伪分布式每次启动时需要重新format否则namenode无法启动的问题
- hadoop伪分布式每次启动时需要重新format否则namenode无法启动的问题
- Hadoop 2.7.x NameNode重新格式化后导致DataNode无法启动问题
- hadoop 平台解决datanode无法启动问题
- Hadoop问题DataNode error (ERROR org.apache.hadoop.hdfs.server.datanode.DataNode)
- hadoop 安装出现的几种异常的处理方法,hadoop无法启动,no namenode to stop问题的解决方法,no datanode
- c# 中对于每次修改的程序 都必须重新手动生成 才能编译的问题
- 解决hadoop集群中datanode启动后自动关闭的问题
- 关于hadoop中datanode节点不同的dfs.data.dir之间数据均衡问题
- Hadoop--Datanode存储均衡问题
- 局域网中电脑每次重启都要重新添加打印机之问题解决
- 【Hadoop datanode重新加载失败无法启动现象解决方法介绍】
- 每次重启电脑后VSS客户端重新连接SourceSafe的问题
- 关于hadoop中datanode节点不同的dfs.data.dir之间数据均衡问题
- hadoop学习笔记(2)-hadoop安装目录权限的问题导致datanode启动失败
- hadoop的datanode重新加载失败 解决步骤
- .NET2003安裝出现一直重启问题和SQL 2000安装出现“以前进行的程序安装创建了挂起的文件操作。运行程序之前,必须重新起动计算机。”~[解决方案]
- 使用hadoop过程中两次datanode无法启动问题