hadoop2.4.1 spark1.0.1编译
2014-08-09 11:24
330 查看
spark编译用的是2.4.1版本,而hadoop用的则是2.5.0版本,这样在进行rpc通信的时候,会导致失败。于是将$SPARK_HOME下的pom.xml中的protobuf版本改为2.5.0,重新进行编译
hadoop启动会报
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform.
因为hadoop32位编译所以64位需要重新编译
首先重新编译hadoop2.4.1
系统安装protobuf-2.5.0.tar.bz2
首先安装这个包不然编译会出错
https://code.google.com/p/protobuf/downloads/detail?name=protobuf-2.5.0.tar.bz2&can=2&q=
安装之前还需要安装
sudo apt-get install g++ zlib1g-dev libssl-dev
./configure --prefix=/usr
make
make check
make install
重新编译hadoop
mvn package -Pdist,native -DskipTests -Dtar
编译eclipse hadoop plugin
https://github.com/winghc/hadoop2x-eclipse-plugin
进入src/contrib/eclipse-plugin
ok最后祝大家一切顺利
重新编译spark
export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"
mvn -Pyarn -Phadoop-2.4.1 -Dhadoop.version=2.4.1 -DskipTests clean package
hadoop启动会报
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform.
因为hadoop32位编译所以64位需要重新编译
首先重新编译hadoop2.4.1
系统安装protobuf-2.5.0.tar.bz2
首先安装这个包不然编译会出错
https://code.google.com/p/protobuf/downloads/detail?name=protobuf-2.5.0.tar.bz2&can=2&q=
安装之前还需要安装
sudo apt-get install g++ zlib1g-dev libssl-dev
./configure --prefix=/usr
make
make check
make install
重新编译hadoop
mvn package -Pdist,native -DskipTests -Dtar
编译eclipse hadoop plugin
https://github.com/winghc/hadoop2x-eclipse-plugin
进入src/contrib/eclipse-plugin
ant jar -Dversion=2.4.1 -Declipse.home=eclipse路径
-Dhadoop.home=hadoop路径
将生成好的jar,复制到${eclipse.home}/plugins目录下
插件运行错误修改build.xml
ClassNotFoundException: org.apache.commons.collections.map.UnmodifiableMap
<copy file="${hadoop.home}/share/hadoop/common/lib/slf4j-api-${slf4j-api.version}.jar" todir="${build.dir}/lib" verbose="true"/> <copy file="${hadoop.home}/share/hadoop/common/lib/guava-${guava.version}.jar" todir="${build.dir}/lib" verbose="true"/> <copy file="${hadoop.home}/share/hadoop/common/lib/hadoop-auth-2.4.1.jar" todir="${build.dir}/lib" verbose="true"/> <copy file="${hadoop.home}/share/hadoop/common/lib/commons-cli-${commons-cli.version}.jar" todir="${build.dir}/lib" verbose="true"/> <copy file="${hadoop.home}/share/hadoop/common/lib/netty-${netty.version}.jar" todir="${build.dir}/lib" verbose="true"/> <copy file="${hadoop.home}/share/hadoop/common/lib/commons-collections-3.2.1.jar" todir="${build.dir}/lib" verbose="true"/> <copy file="${hadoop.home}/share/hadoop/common/hadoop-common-2.4.1.jar" todir="${build.dir}/lib" verbose="true"/>
lib/commons-configuration-1.6.jar, lib/commons-collections-3.2.1.jar,
红色部分是修改build.xml的地方,错误就去除,该错需要查看eclipse的日志
ok最后祝大家一切顺利
相关文章推荐
- spark 1.0 编译支持 hadoop 2.4.0
- hadoop 2.4.1 部署--1 编译安装
- Spark-1.0.1 的make-distribution.sh编译、SBT编译、Maven编译 三种编译方法
- hadoop2.4.1源码编译步骤 hive0.13.1编译
- 修改hadoop源码后,hadoop和spark的编译过程
- hadoop1.0.1 在eclipse3.6下的插件编译
- Spark集群搭建——Hadoop2.4.1集群搭建
- Hadoop-2.4.1在win7下的编译
- spark 1.1.0 on hadoop 2.4.1 安装笔记 (resourcemanager ha 支持)
- maven编译spark1.2 on hadoop-2.6.0
- hadoop2.4.1在64位Deepin/Ubuntu系统中编译安装
- 在centos6.4 编译64位的hadoop 2.4.1
- 简化 Hadoop 2.4.1 Eclpse 插件编译【原创】
- hadoop-2.4.1在linux下的编译
- Hadoop2.4.1 源码编译
- 编译hadoop和spark
- Spark-1.0.1 的make-distribution.sh编译、SBT编译、Maven编译 三种编译方法
- Hadoop源码编译,hadoop-2.4.1+Lubuntu(Ubuntu)
- hadoop2.4.1集群安装spark1.1.0
- spark的安装部署--10(源码编译安装hadoop+spark+解决64位系统本地库问题)