您的位置:首页 > 运维架构

hadoop2.2.0在64位readhat编译实战

2014-08-05 10:01 573 查看
前阵子升级hadoop到2.2.0,官方32位的本地库和系统不兼容,亲自编译了一次。网上不少写如何编译hadoop的资料,照着做了几次,终于成功了,踩了几个坑,希望看到这篇文章的人不要再踩同样的坑。

参考这些博文:

/article/3738199.htmlredhat版

/article/3801266.html

http://blog.csdn.net/bamuta/article/details/13506893

http://blog.csdn.net/canlets/article/details/18709969

https://issues.apache.org/jira/browse/HADOOP-10110

http://blog.csdn.net/bamuta/article/details/13506843

/article/7716924.htmloscent

http://www.linuxidc.com/Linux/2013-11/93080.htm

http://blog.csdn.net/w13770269691/article/details/16883663/

编译过程不断遇到问题,第一次卡在

[INFO] Apache Hadoop Common ............................... FAILURE

第二次卡在

[INFO] Apache Hadoop Pipes ................................ FAILURE [ 0.457 s]

静下心来仔细看错误日志,对着源码看,最终发现每次编译错误,都是因为依赖的环境没有安装成功。

重新一个一个安装,仔细检查哪个没有安装成功:

yum install svn

yum install autoconfautomake libtool cmake

yum install ncurses-devel

yum install openssl-devel

yum install gcc*

原来是没有openssl-devel 这个东西,从另外一篇文章找到这个的时候才恍然大悟:

yum install cmake lzo-devel  zlib-devel  gcc autoconf automake libtool   ncurses-devel openssl-deve

原来是把openssl-deve
这个的名字拼错了。

环境问题的确让人头疼,一直也没有找到啥好办法,还是需要多看看错误日志,多找些资料结合着看。每个人的机器环境不一样,尽信书不如无书。也许山穷水尽疑无路的时候,也许再往前走一步,就柳暗花明又一村了。




内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: