大数据之Spark探秘:一.Spark简介
2015-07-25 11:45
330 查看
1.这是什么?
Spark于2009年诞生于加州大学伯克利分校AMPLab(出身高贵呀)。目前,已经成为Apache软件基金会旗下的顶级项目(后妈同样很强)。Spark是基于内存计算的大数据并行计算架构。这里面有两个概念:内存计算,并行计算架构。内存计算,把数据放在内存中,运算的时候从内存中读取数据,而不是从硬盘中读取数据。
并行计算框架,使用多台计算机同时工作解决一件计算任务的框架。
2.优势
支持复杂查询。(能干的活多)轻量级快速处理。(代码少,速度快)
易于使用。支持Scala.java.python编写程序,最新版的Spark1.4还支持R语言。
于HDFS等存储层兼容。(Spark只负责计算,存储使用其他存储层)
社区活跃程度高。(很多人支持,不怕倒下)
3.Spark生态系统BDAS
伯克利将Spark的整个生态系统称为伯克利数据分析栈(BDAS).其核心是Spark,围绕着Spark有着一系列的子项目,提供了更高层/更丰富的计算范式。底层同时也有其他重量级的选手,如分布式内存文件系统Tachyon,分布式文件系统HDFS,资源管理框架Mesos。(1)Spark
Spark是整个BDAS的核心组件,是一个大数据分布式编程框架,不仅实现了MapReduce的算子map 函数和reduce函数及计算模型,还提供更为丰富的算子,如filter、join、groupByKey等。Spark将分布式数据抽象为弹性分布式数据集(RDD),实现了应用任务调度、RPC、序列化和压缩,并为运行在其上的上层组件提供API。其底层采用Scala这种函数式语言书写而成,并且所提供的API深度借鉴Scala函数式的编程思想,提供与Scala类似的编程接口。
(2)Shark
Shark是构建在Spark和Hive基础之上的数据仓库。目前,Shark已经完成学术使命,终止开发,但其架构和原理仍具有借鉴意义。它提供了能够查询Hive中所存储数据的一套SQL接口,兼容现有的Hive QL语法。这样,熟悉Hive QL或者SQL的用户可以基于Shark进行快速的Ad-Hoc、Reporting等类型的SQL查询。Shark底层复用Hive的解析器、优化器以及元数据存储和序列化接口。Shark会将Hive QL编译转化为一组Spark任务,进行分布式运算。
(3)Spark SQL
Spark SQL提供在大数据上的SQL查询功能,类似于Shark在整个生态系统的角色,它们可以统称为SQL on Spark。之前,Shark的查询编译和优化器依赖于Hive,使得Shark不得不维护一套Hive分支,而Spark SQL使用Catalyst做查询解析和优化器,并在底层使用Spark作为执行引擎实现SQL 的Operator。用户可以在Spark上直接书写SQL,相当于为Spark扩充了一套SQL算子,这无疑更加丰富了Spark的算子和功能,同时Spark SQL不断兼容不同的持久化存储(如HDFS、Hive等),为其发展奠定广阔的空间。
(4)Spark Streaming
Spark Streaming通过将流数据按指定时间片累积为RDD,然后将每个RDD进行批处理,进而实现大规模的流数据处理。其吞吐量能够超越现有主流流处理框架Storm,并提供丰富的API用于流数据计算。
(5)GraphX
GraphX基于BSP模型,在Spark之上封装类似Pregel的接口,进行大规模同步全局的图计算,尤其是当用户进行多轮迭代时,基于Spark内存计算的优势尤为明显。
(6)Tachyon
Tachyon是一个分布式内存文件系统,可以理解为内存中的HDFS。为了提供更高的性能,将数据存储剥离Java Heap。用户可以基于Tachyon实现RDD或者文件的跨应用共享,并提供高容错机制,保证数据的可靠性。
(7)Mesos
Mesos是一个资源管理框架,提供类似于YARN的功能。用户可以在其中插件式地运行Spark、MapReduce、Tez等计算框架的任务。Mesos会对资源和任务进行隔离,并实现高效的资源任务调度。
(8)BlinkDB
BlinkDB是一个用于在海量数据上进行交互式 SQL 的近似查询引擎。它允许用户通过在查询准确性和查询响应时间之间做出权衡,完成近似查询。其数据的精度被控制在允许的误差范围内。为了达到这个目标,BlinkDB的核心思想是:通过一个自适应优化框架,随着时间的推移,从原始数据建立并维护一组多维样本;通过一个动态样本选择策略,选择一个适当大小的示例,然后基于查询的准确性和响应时间满足用户查询需求。
4.Spark架构
Spark集群成功部署了之后,需要在主节点和从节点分别启动Master进程和Worker进程。Client客户机将计算任务提交到主节点中的master进程,master进程找到一个worker启动Driver,Driver向Master或ClusterManager申请资源,之后将任务转化成RDD DAG,DAGScheduler将RDD DAG转化位Stage的有向无环图图提交给TaskScheduler,再又TaskScheduler提交计算任务给Executor执行。
参考书籍
《Spark大数据处理:技术、应用与性能优化》相关文章推荐
- Leetcode 11 Container With Most Water
- uva12546. LCM Pair Sum
- HDU 2473 Junk-Mail Filter (并查集的删除操作)
- 可笑的unsigned double http://blog.csdn.net/suhuaiqiang_janlay/article/details/6078034
- 动态规划,而已! CodeForces 433B - Kuriyama Mirai's Stones
- udp socket bind fail
- 2014级学生程序设计学习大数据
- ZOJ 3675 Trim the Nails(bfs)
- 使用UltraISO制作启动盘装Windows系统详细教程
- AIX7.1+11.2.0.4RAC实施
- 如何提升 RailS 应用的性能?
- wait/waitpid函数使用
- hdu 1532 Drainage Ditches
- 第四篇:报错出现“Run-Time Check Failure #2-Stack around the variable 'p2240' was corrupted
- 【bfs】hdu 1104 Remainder
- HDU 3376 Matrix Again(费用流)
- DT大数据梦工厂 第67讲
- 2015 Multi-University Training Contest 2 1009 I Wanna Become A 24-Point Master(HDU5308) 构造
- 2015 HUAS Summer Training#2~D
- Project Euler:Problem 90 Cube digit pairs