hadoop错误
2013-12-20 17:42
267 查看
我在安装hadoop之后,因为其中一台节点机器出了故障,(我用的一台服务器上三个虚拟机),直接是克隆的另外一个节点机器的系统。但是在改过ip之后,发现每次只能启动一个节点,有时候启动的是137.192.168.137.138,有时候启动另一个datanode192.168.137.139.
尝试了很多办法之后,发现把配置的hdfs放置的文件删除后重新格式化hdfs就可以了
尝试了很多办法之后,发现把配置的hdfs放置的文件删除后重新格式化hdfs就可以了
相关文章推荐
- Windows 下OpenSSL 安装
- 网页中显示内容过多,如何从bottom回到top
- Ubuntu Server 10.04修改Apache的默认目录的方法
- 海康威视视频监控demo 源码+库文件
- Linux glibc被删除。。。。。。。
- [quote] How to comment multi-lines in bash shell script.
- 深入分析企业网站为何失去营销价值
- DB2整体架构图
- 【玩转Ubuntu】12. Ubuntu上使用tomcat做下载服务器
- linux shell之天干地支算法-年干支/月干支计算
- 在Linux下使用命令行安装DB2
- 将W5500驱动移植到Parallax Propeller(螺旋桨芯片)上
- Linux下xampp里面的proftpd简明使用方法
- Linux 安全之pam后门
- linux 后台执行命令
- suse10 linux下载地址
- Linux c动态链接库的生成及使用
- OPPO刘作虎谈创业、手机、丁磊
- Linux基础知识之文件和目录的权限机制
- Linux命令行之逗趣无极限