[hadoop+spark+python]大数据实战随手笔记
2017-08-08 14:44
253 查看
1.提交任务
指令(我配置了spark-submit的环境变量)
逐条解释如下:
(1)–class org.apache.spark.examples.SparkPi
设置运行的环境,java或者yarn
(2)–master spark://192.168.12.233:7077
设置spark服务的地址,格式为 spark:// +
(3)–executor-memory 10G
分配内存,这个属性每个worker都会分配10G,根据实际情况分配
(4)–total-executor-cores 10
分配运行cpu核数,不超过总核数即可
(5)fielname
要运行的文件,相对路径或者绝对路径都可以,如果是python文件一定要能在命令行环境运行,requirment和包环境都要满足才行,我一般是把项目打包写好setup.py先编译一遍在运行主程序
指令(我配置了spark-submit的环境变量)
spark-submit --class org.apache.spark.examples.SparkPi --master spark://192.168.12.233:7077 --executor-memory 10G --total-executor-cores 10 fielname
逐条解释如下:
(1)–class org.apache.spark.examples.SparkPi
设置运行的环境,java或者yarn
(2)–master spark://192.168.12.233:7077
设置spark服务的地址,格式为 spark:// +
(3)–executor-memory 10G
分配内存,这个属性每个worker都会分配10G,根据实际情况分配
(4)–total-executor-cores 10
分配运行cpu核数,不超过总核数即可
(5)fielname
要运行的文件,相对路径或者绝对路径都可以,如果是python文件一定要能在命令行环境运行,requirment和包环境都要满足才行,我一般是把项目打包写好setup.py先编译一遍在运行主程序
相关文章推荐
- 大数据Spark企业级实战版【学习笔记】-----Spark Streaming的编程模式
- 大数据Spark企业级实战版【学习笔记】--------开篇
- 数据Spark “蘑菇云”行动Hadoop实战速成之路第30课:Hadoop在Eclipse下的编程实战
- python爬虫笔记(七):实战(三)股票数据定向爬虫
- 小书翻译完成,分享啦--《用Python操作大数据[MapReduceHadoop和Spark]》
- 学习Python数据分析随手笔记【一】numpy数组的函数简单应用
- 大数据Spark企业级实战版【学习笔记】-----Spark Streaming案例分析
- 哈,我自己翻译的小书,马上就完成了,是讲用python处理大数据框架hadoop,spark的
- 大数据Spark企业级实战版【学习笔记】----Spark Shark& Spark SQL
- hadoop,spark,大数据,数据分析,实战内部培训视频资料价值W+
- 大数据精英实战项目班-Hadoop-Spark-真实企业项目
- 大数据Spark企业级实战版【学习笔记】----Tachyon& BlinkDB&Akka
- python数据分析与挖掘学习笔记(7)-交通路标自动识别实战与神经网络算法
- 学习Python数据分析随手笔记【二】numpy数组的属性
- 大数据,云计算,架构,数据分析师,Hadoop,Spark,Storm,Kafka,人工智能,机器学习,深度学习,项目实战视频教程
- 第112讲:为什么会有第一代大数据技术Hadoop和第二代大数据技术Spark?学习笔记
- python数据分析与挖掘学习笔记(6)-电商网站数据分析及商品自动推荐实战与关联规则算法
- Python数据分析与挖掘实战学习笔记(一)
- 北风首套Hadoop大数据包跳槽课程(Hive、ZooKeeper、Storm、Spark、项目实战)
- python数据分析与挖掘学习笔记(6)-电商网站数据分析及商品自动推荐实战与关联规则算法