您的位置:首页 > Web前端 > Node.js

启动hadoop时,datanode启动不起来的问题

2017-07-07 17:02 369 查看
2017-07-07 00:13:11,629 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool (Datanode Uuid unassigned) service to F22/192.168.221.128:9000. Exiting. java.io.IOException: Incompatible clusterIDs in /tmp/hadoop-root/dfs/data:
namenode clusterID = CID-86d6ae8c-f82f-49b4-81ce-5c9a3c06329c; datanode clusterID = CID-90b727c1-7591-4af5-b96f-8f463b465767at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:646)at org.apache.hadoop.hdfs.server.datanode.DataStorage.addStorageLocations(DataStorage.java:320)at
org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:403)at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:422)at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1311)at
org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1276)at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:314)当我执行 ./sbin/start-dfs.sh启动hadoop时。用jps查看在java虚拟机运行的进程时。发现namenode ,secondenamenode
,都启动了。但是没有datanode!!! 翻看datanode.log的启动文件发现。启动时报了如上异常。 经在网上查明。原来我的namenode 执行-format 执行了两次。导致这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。所以报异常: 解决方案:清除之前的文件:rm -rf /tmp/hadoop-root/* 然后在重新启动 ./sbin/start-dfs.sh 即可!
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: