您的位置:首页 > 其它

Spark On Yarn

2018-06-03 20:53 309 查看

背景:

对于一些处于Hadoop向Spark迁移的过程中,可能一些老的应用还是在Yarn来资源调度的,那么此时用Spark如何来触发Yarn调度呢

步骤:

1、将原Spark集群的node01集点的配置改成如下

export JAVA_HOME=/usr/java/jdk1.8.0_162
export HADOOP_CONF_DIR=/usr/local/hadoop-2.6.4/etc/hadoop

2、启动yarn

start-yarn.sh

3、计算Pi值

./bin/spark-submit --class org.apache.spark.examples.SparkPi
--master yarn
--deploy-mode cluster
--driver-memory 1g
--executor-memory 1g
--executor-cores 2
--queue default lib/spark-examples*.jar 10

4、运行完成后如下图所示



5、在控制台中观察结果:node01:8088的logs



注意:但这个地方,不知道为什么Node节点显示的是node02,从Logs链接点进去后,即使强行将域名改成node01,也显示无日志,真是蛋疼

参考-yarn如何启动
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: