启动hadoop时,datanode启动不起来的问题
2017-07-07 17:02
369 查看
2017-07-07 00:13:11,629 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool (Datanode Uuid unassigned) service to F22/192.168.221.128:9000. Exiting. java.io.IOException: Incompatible clusterIDs in /tmp/hadoop-root/dfs/data:
namenode clusterID = CID-86d6ae8c-f82f-49b4-81ce-5c9a3c06329c; datanode clusterID = CID-90b727c1-7591-4af5-b96f-8f463b465767at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:646)at org.apache.hadoop.hdfs.server.datanode.DataStorage.addStorageLocations(DataStorage.java:320)at
org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:403)at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:422)at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1311)at
org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1276)at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:314)当我执行 ./sbin/start-dfs.sh启动hadoop时。用jps查看在java虚拟机运行的进程时。发现namenode ,secondenamenode
,都启动了。但是没有datanode!!! 翻看datanode.log的启动文件发现。启动时报了如上异常。 经在网上查明。原来我的namenode 执行-format 执行了两次。导致这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。所以报异常: 解决方案:清除之前的文件:rm -rf /tmp/hadoop-root/* 然后在重新启动 ./sbin/start-dfs.sh 即可!
namenode clusterID = CID-86d6ae8c-f82f-49b4-81ce-5c9a3c06329c; datanode clusterID = CID-90b727c1-7591-4af5-b96f-8f463b465767at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:646)at org.apache.hadoop.hdfs.server.datanode.DataStorage.addStorageLocations(DataStorage.java:320)at
org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:403)at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:422)at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1311)at
org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1276)at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:314)当我执行 ./sbin/start-dfs.sh启动hadoop时。用jps查看在java虚拟机运行的进程时。发现namenode ,secondenamenode
,都启动了。但是没有datanode!!! 翻看datanode.log的启动文件发现。启动时报了如上异常。 经在网上查明。原来我的namenode 执行-format 执行了两次。导致这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。所以报异常: 解决方案:清除之前的文件:rm -rf /tmp/hadoop-root/* 然后在重新启动 ./sbin/start-dfs.sh 即可!
相关文章推荐
- 解决hadoop集群中datanode启动后自动关闭的问题
- hadoop中slaves的datanode不能正常启动问题
- hadoop datanode启动不起来
- 异常:hadoop 上传文件报错 WARN hdfs.DFSClient: DataStreamer Exception,hadoop datanode 启动不起来
- hadoop学习笔记(2)-hadoop安装目录权限的问题导致datanode启动失败
- Hadoop 在重启或者多次格式化后无法启动datanode问题的解决
- hadoop2.0中无法启动datanode的问题
- hadoop集群只有一个datanode启动问题
- Hadoop集群启动之后,datanode节点未正常启动的问题
- 使用hadoop过程中两次datanode无法启动问题
- hadoop运行故障问题解决1——datanode节点启动后自动关闭
- hadoop中启动datanode或者namenode没有启动起来
- hadoop多次格式化namenode造成datanode无法启动问题解决
- 解决hadoop集群中datanode启动后自动关闭的问题
- hadoop2.2集群搭建问题只能启动一个datanode问题
- hadoop 安装出现的几种异常的处理方法,hadoop无法启动,no namenode to stop问题的解决方法,no datanode
- hadoop的datanode启动不起来
- hadoop问题总结:datanode启动后,在web50070端口发现不到datanode节点(能力工场)
- hadoop datanode启动不起来
- hadoop datanode启动不起来