您的位置:首页 > 其它

sprak 环境搭建的坑

2016-04-21 21:44 225 查看
1,/etc/hosts下的ip master/slave 的对照

/etc/sysconfig/network 配置:

  NETWORKING=yes
   HOSTNAME=master

以及spark/conf/spark-env.sh 及 slave文件的相关配置

如果不bind ip和master名字,那就直接--master spark://ip:port来指定master

2, 最大的坑是一定要scala一定要配置为2.10.版本,之前配置为2.11.各种出错,心累啊啊啊啊

3,IDEA上spark搭建,用于本地调试:http://zhidao.baidu.com/link?url=1BZPWt5SrrtN38El2gFoE0oam5Drk5uepCMna2RmKiiSK0o49z3WofU7o7hGMJoWzHfD36bfJsUXbyIi9Zu7TtsFY3O-XhADK-UWSBo60Ja

http://debugo.com/idea-spark/

4,至于其他的,看牛人博客 http://www.cnblogs.com/shishanyuan/p/4700615.html

5,其他坑:http://greemranqq.iteye.com/blog/2241277

6,spark学习干货:(坚持都看完)

理解RDD:http://itindex.net/detail/51871-spark-rdd-模型

pyspark: http://blog.jobbole.com/86232/

from
pyspark
import
SparkContext
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: