spark源码编译(maven)
2017-05-16 15:29
357 查看
从Spark官网上下载编译好的安装包,并不一定能够满足需要,有时候希望通过阅读和调试Spark源码来深入理解其内部机制,这时候需要自己去手动编译Spark。
Spark可以通过SBT和Maven两种方式进行编译,再通过make-distribution.sh脚本生成分布式的部署包。SBT编译需要安装sbt工具,而Maven安装则需要maven工具
准备:JDK,maven(或sbt)
选择源码包,上传到开发环境并解压。
编译过程如下:
也可以参照官网,步骤简单:
http://spark.apache.org/docs/1.6.2/building-spark.html
编译
进入源码包下build目录下执行:
参数表示生成的版本支持yarn,hadoop,hive,ganglia。编译过程我花了半小时。
最后生成源码包目录下生成jar包:
最终生成和官网下载编译好的包一样,可以直接部署。
整个过程也半小时。
参考:
http://www.cnblogs.com/shishanyuan/p/4701656.html
Spark可以通过SBT和Maven两种方式进行编译,再通过make-distribution.sh脚本生成分布式的部署包。SBT编译需要安装sbt工具,而Maven安装则需要maven工具
准备:JDK,maven(或sbt)
1. 源码下载:
选择源码包,上传到开发环境并解压。
编译过程如下:
也可以参照官网,步骤简单:
http://spark.apache.org/docs/1.6.2/building-spark.html
2.maven编译
官方推荐maven编译,由于maven工具默认分配的内存比较小,因此需要将其内存上限调整。$export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m"
编译
进入源码包下build目录下执行:
$mvn -Pyarn -Phadoop-2.4 -Dhadoop.version=2.6.0 -Pspark-ganglia-lgpl -Phive -DskipTests clean package
参数表示生成的版本支持yarn,hadoop,hive,ganglia。编译过程我花了半小时。
最后生成源码包目录下生成jar包:
3.生成部署包
在源码包下找到脚本make-distribution.sh执行:./make-distribution.sh --name 2.6.0 --tgz -Pyarn -Phadoop-2.2 -Pspark-ganglia-lgpl -Phive
最终生成和官网下载编译好的包一样,可以直接部署。
整个过程也半小时。
参考:
http://www.cnblogs.com/shishanyuan/p/4701656.html
相关文章推荐
- intellij idea 导入maven编译好的spark源码
- Maven编译打包spark(2.1.0)源码及出现问题的解决方案(win7+Intellij IDEA)
- Spark -4:maven编译spark 源码
- Spark 学习(三) maven 编译spark 源码
- mac下利用IDEA工具Maven编译Spark源码
- maven编译spark 源码
- linux 下用maven 编译spark源码版
- [Spark--基础]--maven编译spark源码(spark-2.3.0)
- 使用Maven编译Spark源码
- Maven编译Spark源码总结
- idea 查看 spark 源码 ,并用 maven 编译
- 使用Maven编译Spark源码
- Spark笔记--使用Maven编译Spark源码(windows)
- maven 编译 spark1.0.0
- Spark-1.0.1 的make-distribution.sh编译、SBT编译、Maven编译 三种编译方法
- Spark源码编译
- sbt/sbt assembly 编译spark源码出错问题解决方法
- 使用Maven将Hadoop2.2.0源码编译成Eclipse项目
- 使用maven编译项目,下载相关的jar包,包括源码包和doc包
- 用Maven编译Apache flume-ng 1.5.0源码及问题解决