spark-submit提交作业过程
2015-03-05 07:59
351 查看
1. 作业提交方法以及参数
[align=left]我们先看一下用Spark Submit提交的方法吧,下面是从官方上面摘抄的内容。[/align]
[align=left]我们先看一下用Spark Submit提交的方法吧,下面是从官方上面摘抄的内容。[/align]
# Run application locally on 8 cores ./bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master local[8] \ /path/to/examples.jar \ 100 # Run on a Spark standalone cluster ./bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://207.184.161.138:7077 \ --executor-memory 20G \ --total-executor-cores 100 \ /path/to/examples.jar \ 1000 # Run on a YARN cluster export HADOOP_CONF_DIR=XXX ./bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn-cluster \ # can also be `yarn-client` for client mode --executor-memory 20G \ --num-executors 50 \ /path/to/examples.jar \ 1000 # Run a Python application on a cluster ./bin/spark-submit \ --master spark://207.184.161.138:7077 \ examples/src/main/python/pi.py \ 1000
相关文章推荐
- Spark源码系列(一)spark-submit提交作业过程
- Spark-Submit提交作业过程
- Spark源码系列(一)spark-submit提交作业过程
- Spark源码系列(一)spark-submit提交作业过程
- Spark源码系列(一)spark-submit提交作业过程
- Spark源码系列(一)spark-submit提交作业过程
- Spark源码系列(一)spark-submit提交作业过程
- spark源码分析之DAGScheduler提交作业(job)过程、stage阶段说明
- Launching Applications with spark-submit【使用脚本提交作业到集群5种部署模式--】
- spark-submit 提交作业到集群
- Spark作业的Stage划分,Task创建分发一直到提交给Spark的Executor的线程池执行全过程
- SparkSubmit 提交作业源码流程粗略概述(含application中 driver、client、 executor的创建)
- Spark提交作业运行过程
- Spark on Yarn客户端作业提交过程分析
- spark提交应用的方法(spark-submit)
- Spark学习之3:SparkSubmit启动应用程序主类过程
- spark-submit提交kafka测试
- 提交jar作业到spark上运行
- spark源码研究---作业提交
- spark-submit提交任务到集群