您的位置:首页 > 其它

Spark学习笔记2@spark-env参数说明

2017-04-06 14:22 246 查看
参数名默认值参数说明
JAVA_HOMEAVA安装目录
PYSPARK_PYTHONPySpark驱动器和worker使用的Python二进制可执行文件
PYSPARK_DRIVER_PYTHON$PYSPARK_PYTHON
SPARK_LOCAL_IP本地绑定的IP
SPARK_PUBLIC_DNSSpark应用发布给其他主机的hostname
SPARK_MASTER_IPMaster绑定特定的IP
SPARK_MASTER_PORT7077为Master指定特定端口
SPARK_MASTER_WEBUI_PORT8080Master web UI特定端口
SPARK_MASTER_OPTS配置Master参数,格式“-Dx=y”,可选参数参考下面列表
SPARK_LOCAL_DIRS本地存储空间,包括map输出文件和存储在磁盘的RDDs,可以设置为以逗号分隔的不同磁盘的多个目录
SPARK_WORKER_CORES所有cpu核允许Spark应用程序使用的cpu核数
SPARK_WORKER_MEMORYtotal memory minus 1 GB允许Spark应用程序使用的memory总数
SPARK_WORKER_PORTWorker端口
SPARK_WORKER_WEBUI_PORTWorker webUI 端口
SPARK_WORKER_INSTANCES1每台机器上运行的Worker实例数。如果要设置这个参数,也要设置SPARK_WORKER_CORES参数以明确限制每个Worker使用Cpu数,否则每个Worker尝试使用所有Cpu核
SPARK_WORKER_DIR$SPARK_HOME/work运行应用程序的目录,包括日志及scratch空间
SPARK_WORKER_OPTS配置Worker参数,格式“-Dx=y”,可选参数参考下面列表
SPARK_DAEMON_MEMORY1G分配给Spark Master、worker守护进程的内存
SPARK_DAEMON_JAVA_OPTSSpark Master、Worker守护进程的JVM选项,格式“-Dx=y”
SPARK_PUBLIC_DNSSpark Master、worker公共DNS名称
参考文档:http://spark.apache.org/docs/1.5.0/spark-standalone.html#cluster-launch-scripts
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  spark
相关文章推荐