创建hadoop2.2.0遇到的问题
2014-06-17 17:50
375 查看
1. incorrect configuration: namenode addres dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured
解决方法:将slave节点的hadoop删除,再将master节点的hadoop再次传送到slave节点
2.
将master的配置文件发送到各个slave节点
3.java.io.IOException: Incompatible clusterIDs in /tmp/hadoop-yarn/dfs/data: namenode clusterID = CID-2917fbbc-dcd7-40f3-8a1f-f222c3941fc1; datanode clusterID
= CID-d53b270a-893f-4fa5-b5e5-1e5ed5ee4e86
解决方法:把datanode的dfs.datanode.data.dir指定的目录清空
解决方法:将slave节点的hadoop删除,再将master节点的hadoop再次传送到slave节点
2.
Caused by: java.io.IOException: Failed on local exception: java.io.IOException: Broken pipe; Host Details : local host is: "ubuntu/192.168.56.101"; destination host is: "localhost":54310;
将master的配置文件发送到各个slave节点
3.java.io.IOException: Incompatible clusterIDs in /tmp/hadoop-yarn/dfs/data: namenode clusterID = CID-2917fbbc-dcd7-40f3-8a1f-f222c3941fc1; datanode clusterID
= CID-d53b270a-893f-4fa5-b5e5-1e5ed5ee4e86
解决方法:把datanode的dfs.datanode.data.dir指定的目录清空
相关文章推荐
- Hadoop 编译 Eclipse 插件及创建eclipse项目 遇到的问题
- spark结合Hadoop2.2.0 HA使用中遇到的问题
- hadoop2.2.0 的fairscheduler 遇到的一个问题
- hadoop 2.2.0配置遇到的问题总结
- 创建普通用户登录并使用Hadoop集群遇到的若干问题
- 在hadoop-2.2.0集群上使用TotalOrderPartitioner进行排序时遇到的新旧接口问题
- 创建sql server关系图过程中遇到的问题
- Hadoop安装过程中遇到的一些问题
- VS2005创建Web项目时遇到的问题及解决办法
- 解决Linux中在创建大于4g文件时遇到的File Size Limit Exceeded问题
- Windows下用Eclipse开发Hadoop程序遇到的问题及解决方法
- hadoop搭建时候遇到的两个问题及解答
- cuda 自己创建工程,复制sdk中的代码,执行遇到的问题
- 关于用c生成的dll在使用其他供应商的工具创建可执行模块时遇到的一些问题
- 装sql server sp4时,遇到的问题:以前进行的程序安装创建了挂起的文件操作.运行程序之前,必须重新起动计算机
- SQL server 学习中遇到的问题—— 阻止保存要求重新创建表的更改
- 创建数据库遇到的简单问题
- 创建“维护计划”时遇到的问题
- oracle学习中遇到的问题——用select语句创建现有表的副本
- 创建视图时遇到的问题