spark运行方式及其常用参数
2016-09-19 18:27
465 查看
本文将介绍spark的几种运行方式,及常用的参数
yarn client模式:spark driver和client在同一个节点上,支持shell
yarn cluster模式
例行任务一般会采用这种方式运行指定固定的executor数
作业常用的参数都在其中指定了,后面的运行脚本会省略spark-submit \ --master yarn-cluster \ --deploy-mode cluster \ #集群运行模式 --name wordcount_${date} \ #作业名 --queue production.group.yanghao \ #指定队列 --conf spark.default.parallelism=1000 \ #并行度,shuffle后的默认partition数 --conf spark.network.timeout=1800s \ --conf spark.yarn.executor.memoryOverhead=1024 \ #堆外内存 --conf spark.scheduler.executorTaskBlacklistTime=30000 \ --conf spark.core.connection.ack.wait.timeout=300s \ --num-executors 200 \ #executor数目 --executor-memory 4G \ #executor中堆的内存 --executor-cores 2 \ #executor执行core的数目,设置大于1 --driver-memory 2G \ #driver内存,不用过大 --class ${main_class} \ #主类 ${jar_path} \ #jar包位置 param_list \ #mainClass接收的参数列表
动态调整executor数目
spark-submit \ --master yarn-cluster \ --deploy-mode cluster \ --name wordcount_${date} \ --queue production.group.yanghao \ --conf spark.dynamicAllocation.enabled=true \ #开启动态分配 --conf spark.shuffle.service.enabled=true \ #shuffle service,可以保证executor被删除时,shuffle file被保留 --conf spark.dynamicAllocation.minExecutors=200 \ #最小的executor数目 --conf spark.dynamicAllocation.maxExecutors=500 \ #最大的executor数目 --class ${main_class} \ ${jar_path} \ param_list
yarn client模式
边写脚本,边在集群上运行。这样调试会很方便spark-shell \ --master yarn-client \ --queue production.group.yanghao \ #指定队列 --num-executors 200 \ #executor数目 --executor-memory 4G \ #executor中堆的内存 --executor-cores 2 \ #executor执行core的数目,设置大于1 --driver-memory 2G \ #driver内存,不用过大 --jars ${jar_path} #jar包位置
yarn cluster模式 vs yarn client模式
yarn cluster模式:spark driver和application master在同一个节点上yarn client模式:spark driver和client在同一个节点上,支持shell
参考
http://stackoverflow.com/questions/21138751/spark-java-lang-outofmemoryerror-java-heap-space相关文章推荐
- Spark提交作业运行原理及其参数设置
- [QNX]查看当前运行进程及其运行参数
- C语言中多维数组的常见动态分配方式及其在函数参数传递时的应用
- Maven常用参数及其说明
- Spark不常用的参数调节
- 辛星解读iptables的常用参数及其值
- eclipse常用快捷方式 和 启动参数 说明
- spark-submit常用参数
- php 命令行方式运行时 几种传入参数的方式
- 从零开始学习Spark--第4章 Spark的各种运行方式
- spark-submit常用参数
- linux视频教程之常用的命令及其参数001
- activity的启动方式及其参数总结
- 开始-运行常用命令及其用法
- .net单元测试——常用测试方式(异常模拟、返回值测试、参数测试、数据库访问代码测试)
- 二维数组的存储方式及其作为参数的方法
- Struts2常用接收参数的4种方式
- 常用的一些“开始-运行”的命令快捷方式
- Python函数可变参数定义及其参数传递方式详解
- spark-submit常用参数