您的位置:首页 > 运维架构 > 网站架构

spark的架构

2016-05-30 16:56 309 查看
spark架构采用了分布式计算中的master-slave模型,master是对应集群中含有master进程的节点,slave是集群中含有worker进程的节点,master作为整个集群的控制器,负责整个集群的正常运行,worker相当于是计算节点,接受主节点命令与进行状态汇报。

Executor负责任务的执行,client作为用户的客户端负责提交应用,driver负责控制一个应用的执行 

spark集群部署后,需要在主节点和从节点分别启动master进程和worker进程,对真个集群进行控制,在一个spark应用的执行过程中。driver和worker是两个重要角色

driver程序是应用逻辑执行的起点,负责作业的调度,即task任务的分发,而多个worker用来管理计算节点和创建executor并行处理任务,在执行阶段,driver会将task和task所依赖的file和jar序列化后传递给对于的worker机器,同时executor对相应的数据分区的任务进行处理。

下面详细介绍spakr中的架构基本组件

clustermanager 在standalone模式中即为master主节点, 控制整个集群,监控worker, 在yarn中为资源管理器

worker 从节点, 负责控制计算节点, 启动executor 或者 driver 在yarn模式中为nodemanage 负责计算节点的控制

driver 运行 application的main函数并创建sparkcontxt

executor执行器,在woker node上执行任务的组件,用于启动线程池运行任务,每个application拥有独立的一组executors

sparkcontext 整个应用的上下文,控制应用的生命周期

rdd  spark 的基本计算单元,一组rdd可形成执行的有向五环图rdd graph

dag scheduler 根据作业构建基于stage额 dag ,听提交stage给task scheduler

taskscheduler  将任务分发给executor执行

spark env  县城级别的上下文,存储运行时的重要组件的引用。

mapoutput tracker 负责shuffle元信息的存储。

broadcastmanager 负责广播变量的控制与元信息的存储

spark的整体流程为: client提交应用,master找到一个worker启动driver,driver向master或者资源管理器申请资源,之后将应用转化为rdd graphh 再有dagscheduler将rdd graph转化为stage的有向无环图 提交给taskscheduler,由taskscheduler提价任务给executor执行, 在任务执行的过程中。其他组件协同工作,确保整个应用顺利执行。

spark运行逻辑
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: