Hadoop安装后dataNode无法启动
2017-10-27 15:47
309 查看
安装好Hadoop后 在对应的解压文件夹中(就是你安装Hadoop的文件夹下)运行./sbin/statr-dfs.sh 后 查看jps会发现没有dataNode这个进程
附上报错的原因
java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/tmp/dfs/data: namenode clusterID = CID-2197e1e6-bec4-4f64-bce8-6c894a4484ad; datanode clusterID = CID-e82166c2-9457-4348-9a7e-60c23b854234
at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:646)
at org.apache.hadoop.hdfs.server.datanode.DataStorage.addStorageLocations(DataStorage.java:320)
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:403)
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:422)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1311)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1276)
at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:314)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:220)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:828)
at java.lang.Thread.run(Thread.java:748)
解决的办法就是 进入到那个usr/local/hadoop/tmp/dfs/data这个文件夹下 删除current文件夹就ok 代码
rm -r current
重新启动就OK
附上报错的原因
java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/tmp/dfs/data: namenode clusterID = CID-2197e1e6-bec4-4f64-bce8-6c894a4484ad; datanode clusterID = CID-e82166c2-9457-4348-9a7e-60c23b854234
at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:646)
at org.apache.hadoop.hdfs.server.datanode.DataStorage.addStorageLocations(DataStorage.java:320)
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:403)
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:422)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1311)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1276)
at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:314)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:220)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:828)
at java.lang.Thread.run(Thread.java:748)
解决的办法就是 进入到那个usr/local/hadoop/tmp/dfs/data这个文件夹下 删除current文件夹就ok 代码
rm -r current
重新启动就OK
相关文章推荐
- hadoop安装问题---datanode无法启动
- hadoop 安装出现的几种异常的处理方法,hadoop无法启动,no namenode to stop问题的解决方法,no datanode
- hadoop 安装出现的几种异常的处理方法,hadoop无法启动,no namenode to stop问题的解决方法,no datanode
- 安装hadoop集群无法启动datanode
- Hadoop分布式时远程Datanode无法启动的解决
- hadoop datanode无法启动
- Hadoop datanode无法启动解决方案
- Hadoop DataNode用jps查看无法启动的解决办法
- Hadoop-datanode无法正常启动
- hadoop中datanode无法启动
- hadoop无法启动datanode
- hadoop伪分布式下 无法启动datanode的原因及could only be replicated to > 0 nodes, instead of 1的错误
- [完]Hadoop中DataNode在格式化Namenode后无法启动。
- Hadoop的datanode,namenode无法启动
- hadoop datanode 无法启动
- 端口被其他进程占用导致hadoop namenode,datanode,jobTracker,taskTracker,secondnamenode无法启动
- hadoop 节点链接不通、datanode无法启动问题解决
- 解决hadoop集群环境datanode无法启动的问题
- hadoop中datanode无法启动
- hadoop中datanode无法启动,报Caused by: java.net.NoRouteToHostException: No route to host