Spark中standalone模式的HA(了解,知道怎么配置即可)
2017-02-07 16:19
357 查看
1.官网
2.具体的配置
3.配置方式一(不是太理想)
方式一:Single-Node Recovery with Local File System
类似于Hadoop1中的SecondaryNameNode
当出现单点故障的时候,需要手动启动master,然后master会读刚刚断掉之前的日志,类似于secondarynamenode方式。
做法:
1. 修改conf/sparn-env.sh配置文件,打开conf/sparn-env.sh
2. 给参数SPARK_DAEMON_JAVA_OPTS添加配置参数
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=FILESYSTEM -Dspark.deploy.recoveryDirectory=/tmp/xxxx"
4.配置方式二(比较给力)
方式二:Standby Masters with ZooKeeper
类似于Hadoop2中的NameNode的HA机制,因此会自动转移
做法:
1. 修改conf/sparn-env.sh配置文件
2. 给参数SPARK_DAEMON_JAVA_OPTS添加配置参数
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop-senior01:2181,hadoop-senior02:2181,hadoop-senior03:2181 -Dspark.deploy.zookeeper.dir=/spark"
2.具体的配置
3.配置方式一(不是太理想)
方式一:Single-Node Recovery with Local File System
类似于Hadoop1中的SecondaryNameNode
当出现单点故障的时候,需要手动启动master,然后master会读刚刚断掉之前的日志,类似于secondarynamenode方式。
做法:
1. 修改conf/sparn-env.sh配置文件,打开conf/sparn-env.sh
2. 给参数SPARK_DAEMON_JAVA_OPTS添加配置参数
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=FILESYSTEM -Dspark.deploy.recoveryDirectory=/tmp/xxxx"
4.配置方式二(比较给力)
方式二:Standby Masters with ZooKeeper
类似于Hadoop2中的NameNode的HA机制,因此会自动转移
做法:
1. 修改conf/sparn-env.sh配置文件
2. 给参数SPARK_DAEMON_JAVA_OPTS添加配置参数
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop-senior01:2181,hadoop-senior02:2181,hadoop-senior03:2181 -Dspark.deploy.zookeeper.dir=/spark"
相关文章推荐
- Spark部署三种方式介绍:YARN模式、Standalone模式、HA模式
- Spark配置—HA模式
- 深入理解Spark 2.1 Core (八):Standalone模式容错及HA的原理与源码分析
- spark的standalone的HA配置
- spark之Standalone模式部署配置详解
- Spark 1.4.1 Standalone 模式部署安装配置
- 深入理解Spark 2.1 Core (八):Standalone模式容错及HA的原理与源码分析
- 配置和启动Spark | local模式以及standalone模式
- spark本地模式和Standalone配置
- spark standalone模式配置
- Spark1.6.1集群环境搭建——Standalone模式HA
- Spark自带的集群模式(Standalone),Spark/Spark-ha集群搭建
- spark-0.8.0源码剖析--standalone模式集群并行和单机并行
- Spark教程-构建Spark集群-配置Hadoop单机模式并运行Wordcount(2)
- Spark教程-构建Spark集群-配置Hadoop单机模式并运行Wordcount(1)
- 【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群-配置Hadoop伪分布模式并运行Wordcount示例(1)
- 【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群-配置Hadoop伪分布模式并运行Wordcount示例(1)
- 观察者模式--上班玩游戏,老总是怎么知道的?
- Spark On Yarn(HDFS HA)详细配置过程
- Apache Spark源码走读之15 -- Standalone部署模式下的容错性分析