您的位置:首页 > 运维架构

创建hadoop2.2.0遇到的问题

2014-06-17 17:50 375 查看
1. incorrect configuration: namenode addres dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured

解决方法:将slave节点的hadoop删除,再将master节点的hadoop再次传送到slave节点

2.

Caused by: java.io.IOException: Failed on local exception: java.io.IOException: Broken pipe; Host Details : local host is: "ubuntu/192.168.56.101"; destination host is: "localhost":54310;

将master的配置文件发送到各个slave节点

3.java.io.IOException: Incompatible clusterIDs in /tmp/hadoop-yarn/dfs/data: namenode clusterID = CID-2917fbbc-dcd7-40f3-8a1f-f222c3941fc1; datanode clusterID
= CID-d53b270a-893f-4fa5-b5e5-1e5ed5ee4e86

解决方法:把datanode的dfs.datanode.data.dir指定的目录清空
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: