Flume采集日志遇到Hadoop的datanode为0的解决方案。
2016-08-18 00:00
295 查看
Flume采集日志的时候报hadoop的datanode为0。(具体报错语句忘了......)
在hadoop目录下输入jps,发现datanode没启动。只有namenode等。
这是因为之前format过namenode导致的(调试的过程中瞎搞结果造成了后遗症。),不知道是否还会有其他情况造成datanode不启动。
解决教程:http://jingyan.baidu.com/article/3c343ff7e75e9e0d36796347.html
在部署hadoop过程中自己配置过的hdfs-site.xml中找到配置的目录:如下图
![](http://static.oschina.net/uploads/space/2016/0818/145405_INJA_2478308.png)
找到namenode.name.dir和datanode.name.dir的路径中的dfs目录下的name和data中current目录下的VERSION下的clusterID统一即可,将namenode的clusterID复制给datanode。
在hadoop目录下输入jps,发现datanode没启动。只有namenode等。
这是因为之前format过namenode导致的(调试的过程中瞎搞结果造成了后遗症。),不知道是否还会有其他情况造成datanode不启动。
解决教程:http://jingyan.baidu.com/article/3c343ff7e75e9e0d36796347.html
在部署hadoop过程中自己配置过的hdfs-site.xml中找到配置的目录:如下图
![](http://static.oschina.net/uploads/space/2016/0818/145405_INJA_2478308.png)
找到namenode.name.dir和datanode.name.dir的路径中的dfs目录下的name和data中current目录下的VERSION下的clusterID统一即可,将namenode的clusterID复制给datanode。
相关文章推荐
- hadoop 不使用hostname,使用ip遇到的问题(Datanode denied communication with namenode because hostname cann)及解决方案
- hadoop配置好之后启服务,jps能看到datanode进程,可是后台的datanode日志有如下错误,且50070端口上也是没有活的节点
- 启动hadoop 2.6遇到的datanode启动不了
- 启动hadoop 2.6遇到的datanode启动不了
- 启动hadoop 2.6遇到的datanode启动不了
- 启动hadoop 2.6遇到的datanode启动不了
- hadoop生产集群离线datanode(遇到的问题及解决方法)
- Hadoop入门之Flume的几种配置和使用采集日志Demo
- 搭建hadoop伪集群时遇到的datanode不启动的问题
- hadoop 在搭建分布式时遇到DataNode,NameNode,JobTracker,TaskTracker用jps查看无法启动解决办法
- 启动hadoop 2.6遇到的datanode启动不了
- 【那些遇到的坑】—hadoop完全分布式集群搭建namenode找不到datanode,总显示0
- 启动hadoop 2.6遇到的datanode启动不了
- 启动hadoop 2.6遇到的datanode启动不了
- hadoop配置好之后启服务,jps能看到datanode进程,可是后台的datanode日志有如下错误,且50070端口上也是没有活的节点
- Hadoop集群datanode磁盘不均衡的解决方案
- hadoop 2.6遇到的DataNode无法启动问题
- 启动hadoop 2.6遇到的datanode启动不了
- Hadoop问题:启动hadoop 2.6遇到的datanode启动不了
- hadoop2.7.2中datanode无法启动,日志报错java.net.BindException: Port in use: localhost:0