您的位置:首页 > 运维架构 > Apache

3.如何安装Apache Spark

2017-07-31 14:32 288 查看

如何安装Apache Spark

1
Why Apache Spark
2
关于Apache Spark
3
如何安装Apache Spark
4
Apache Spark的工作原理
5
spark弹性分布式数据集
6
RDD持久性
7
spark共享变量
8
Spark SQL
9
Spark Streaming

原文链接:http://blogxinxiucan.sh1.newtouch.com/2017/07/23/%E5%A6%82%E4%BD%95%E5%AE%89%E8%A3%85Apache-Spark/

下表列出了一些重要的链接和先决条件:

当前版本1.0.1 @ http://d3kbcqa49mib13.cloudfront.net/spark-1.0.1.tgz
下载页面https://spark.apache.org/downloads.html
JDK版本(必填)1.6以上
Scala版本(必填)2.10以上
Python(可选)[2.6,3.0)
简单构建工具(必需)http://www.scala-sbt.org
开发版本git clone git://github.com/apache/spark.git
Building说明https://spark.apache.org/docs/latest/building-with-maven.html
Maven3.0以上
Apache Spark可以配置为独立运行,也可以在Hadoop V1 SIMR或Hadoop 2 YARN / Mesos上运行。Apache Spark需要Java,Scala或Python中等技能。这里我们将看到如何在独立配置中安装和运行Apache Spark。

安装JDK 1.6+,Scala 2.10+,Python [2.6,3)和sbt
下载Apache Spark 1.0.1发行版

在指定的目录中解压缩并解压缩spark-1.0.1.tgz

akuntamukkala@localhost~/Downloads$ pwd
/Users/akuntamukkala/Downloads akuntamukkala@localhost~/Downloads$ tar -zxvf spark- 1.0.1.tgz -C /Users/akuntamukkala/spark

4、 从#4转到目录并运行sbt来构建Apache Spark

akuntamukkala@localhost~/spark/spark-1.0.1$ pwd /Users/akuntamukkala/spark/spark-1.0.1 akuntamukkala@localhost~/spark/spark-1.0.1$ sbt/sbt assembly

5、 启动Apache Spark独立REPL对于Scala,请使用:
/ Users / akuntamukkala / spark / spark - 1.0。1 / bin / spark - shell


对于Python,请使用:
/Users/akuntamukkala/spark/spark-1.0.1/bin/ pyspark


6.、转到SparkUI @ http:// localhost:4040

公众号:it全能程序猿

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: