Spark编译
2016-03-20 10:26
337 查看
Spark安装部署
–官网选择版本,下载后用maven编译- Spark版本:1.3.0
- Hadoop版本:2.6.0-cdh5.4.0
- JDK版本:1.7
- Maven版本:3.0.5
- Scala版本:2.10.4
一:安装JDK和Maven
项目 | 方式 | 配置 | 检测 |
---|---|---|---|
JDK | 解压即可 | 环境变量 | java -version |
Maven | 解压即可 | 环境变量 | mvn -version |
Scala | 解压即可 | 环境变量 | scala -version |
一:编译Spark
-Spark官方编译说明:http://spark.apache.org/docs/latest/building-spark.html-编译Spark需要需要使用jdk1.6+和Maven3.0.4+版本
##配置域名解析服务器 # vi /etc/resolv.conf nameserver 8.8.8.8 nameserver 8.8.4.4 ##设置Maven镜像 # cd .m2/ #more seting.xml <mirror> <id>nexus-osc</id> <mirrorOf>*</mirrorOf> <name>Nexus osc</name> <url>http://maven.oschina.net/content/groups/public/</url> </mirror> ##设定下Maven编译内存: export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m" ##编译命令 需要很久很久,因为make-distribution.sh (spark文件内的一个maven编译脚本)检测版本。 ./make-distribution.sh --name custom-spark --tgz -Psparkr -Phadoop-2.4 -Dhadoop.version=2.6.0-cdh5.4.0 -Phive-0.13.1 -Phive-thriftserver -Pyarn ###不想等的,可以手动配置make-distribution.sh检测的版本。 vi make-distribution.sh ##大约128行起,138末 #注释VERSION,SPARK_HADOOP_VERSION,SPARK_HIVE行 #手动添加: VERSION=1.3.0 SPARK_HADOOP_VERSION=2.6.0-cdh5.4.2 SPARK_HIVE=1 #(SPARK_HIVE : 1表示需要将hive打包进去,非1表示不打包hive) ##再次编译执行命令,会检测到jdk版本异常,不需要理会。y ##如果编译异常,多编译几次试试。。 ##编译时间大概需要3-6小时。 ##编译完成产生:spark-1.3.0-bin-2.6.0-cdh5.4.0.tgz
相关文章推荐
- 构建之法阅读笔记03
- video2sentence
- 第39讲项目3——反序数
- 保存修改后的Docker容器
- Akka是个什么鬼?
- 查看 git 仓库日志与版本回退
- Linux实验四报告
- JAVA循环遍历Map的几种方法
- zTree理解和简单Demo
- ThinkPHP 常用配置 和 四种url访问方式
- UVA 11149 Power of Matrix(矩阵幂和)
- PB中关于GetChild的用法
- 解析Tomcat内部结构和请求过程
- 提交文件到git仓库
- HDU 4861-A - Couple doubi-数学规律/打表观察
- 批量添加文件到git仓库暂存区
- (六) 6.3 Neurons Networks Gradient Checking
- Fibonacci Numbers
- POJ 1127 Jack Straws [计算几何]
- leetcode 25. Reverse Nodes in k-Group