Spark笔记:复杂RDD的API的理解(上)
2018-02-05 13:09
267 查看
本篇接着讲解RDD的API,讲解那些不是很容易理解的API,同时本篇文章还将展示如何将外部的函数引入到RDD的API里使用,最后通过对RDD的API深入学习,我们还讲讲一些和RDD开发相关的scala语法。
1) aggregate(zeroValue)(seqOp,combOp)
该函数的功能和reduce函数一样,也是对数据进行聚合操作,不过aggregate可以返回和原RDD不同的数据类型,使用时候还要提供初始值。
我们来看看下面的用法,代码如下:
该方法是将有数字组成的RDD的数值进行求和,同时还要统计元素的个数,这样我们就可以计算出一个平均值,这点在实际运算中是非常有用的。
假如读者不太懂scala语言,或者就算懂那么一点点scala语法,该API的使用还是让人很难理解的,这个x是什么东西,这个y又是什么东西,为什么它们放在一起这么运算就可以得到预期结果呢?
其实aggregate方法使用了scala里元组的结构,元组是scala里很具特色的数据结构,我们看看下面的代码:
元组在scala里使用Tuple来构造,不过实际运用中我们会给Tuple带上数字后缀,例如Tuple2就是二元组它包含两个元素,Tuple6是6元组它包含6个元素,元组看起来很像数组,但是数组只能存储相同数据类型的数据结构,而元组是可以存储不同数据类型的数据结构,元组里元素访问使用_1,_2这样的形式,第一个元素是从1开始标记的,这点和数组是不同的。实际使用中我们很少使用Tuple构造元组,而是使用字面量定义方式(参见代码注释),由此我们可以看出spark里键值对RDD其实就是使用二元组来表示键值对数据结构,回到aggregate方法,它的运算也是通过二元组这种数据结构完成的。
下面我们来看看aggregate的运算过程,这里我将aggregate方法里的算子都使用外部函数,代码如下所示:
由以上代码我们就可以清晰看到aggregate方法的实际运算过程了。
aggrFtnOne方法的参数格式是((Int, Int), Int),这个复合二元组里第二个元素才是实际的值,而第一个元素就是我们给出的初始化值,第一个元素里的第一个值就是我们实际求和的值,里面第二个元素就是累计记录元素个数的值。
aggrFtnTwo方法的参数里的二元组第一个元素还是初始化值,第二个元素则是aggrFtnOne计算的结果,这样我们就可以计算出我们要的结果。
作为对比我将初始化参数改为(1,1)二元组,最终结果在求和运算以及计算元素个数上都会加2,这是因为初始化值两次参入求和所致的,由上面代码我们可以很清晰的看到原因所在。
如果我们想要结果二元组里第一个元素求积那么初始化值就不能是(0,0),而应该是(1,0),理解了原理我们就很清晰知道初始值该如何设定了,具体代码如下:
2) fold(zero)(func)
该函数和reduce函数功能一样,只不过使用时候需要加上初始化值。
代码如下所示:
我们发现当初始化值为1时候,求和增加的不是1而是2,原因就是fold计算时候为了凑齐一个完整的二元组,在第一个元素计算以及最后一个元素计算时候都会让初始化值凑数组成二元组,因此初始值会被使用两遍求和,因此实际结果就不是增加1,而是增加2了。
作为对比我们看看reduce实际运算过程,代码如下:
3) combineByKey[C](createCombiner: Int => C, mergeValue: (C, Int) => C, mergeCombiners: (C, C) => C): RDD[(String, C)]
combineByKey作用是使用不同的返回类型合并具有相同键的值,combineByKey适用键值对RDD,普通RDD是没有这个方法。
有上面定义我们看到combineByKey会经过三轮运算,前一个运算步骤结果就是下一个运算步骤的参数,我们看下面的代码:
这个算法和上面aggregate求和方法很像,不过combineByKey很奇怪,它第三个算子似乎并没有被执行,第二个算子打印的信息也不齐备,不过我认为它们都执行了,只不过有些语句没有打印出来,至于原因为何,我以后再研究下吧。
本篇就写到这里吧,其余内容我在下篇里讲解了。
1) aggregate(zeroValue)(seqOp,combOp)
该函数的功能和reduce函数一样,也是对数据进行聚合操作,不过aggregate可以返回和原RDD不同的数据类型,使用时候还要提供初始值。
我们来看看下面的用法,代码如下:
假如读者不太懂scala语言,或者就算懂那么一点点scala语法,该API的使用还是让人很难理解的,这个x是什么东西,这个y又是什么东西,为什么它们放在一起这么运算就可以得到预期结果呢?
其实aggregate方法使用了scala里元组的结构,元组是scala里很具特色的数据结构,我们看看下面的代码:
下面我们来看看aggregate的运算过程,这里我将aggregate方法里的算子都使用外部函数,代码如下所示:
aggrFtnOne方法的参数格式是((Int, Int), Int),这个复合二元组里第二个元素才是实际的值,而第一个元素就是我们给出的初始化值,第一个元素里的第一个值就是我们实际求和的值,里面第二个元素就是累计记录元素个数的值。
aggrFtnTwo方法的参数里的二元组第一个元素还是初始化值,第二个元素则是aggrFtnOne计算的结果,这样我们就可以计算出我们要的结果。
作为对比我将初始化参数改为(1,1)二元组,最终结果在求和运算以及计算元素个数上都会加2,这是因为初始化值两次参入求和所致的,由上面代码我们可以很清晰的看到原因所在。
如果我们想要结果二元组里第一个元素求积那么初始化值就不能是(0,0),而应该是(1,0),理解了原理我们就很清晰知道初始值该如何设定了,具体代码如下:
2) fold(zero)(func)
该函数和reduce函数功能一样,只不过使用时候需要加上初始化值。
代码如下所示:
作为对比我们看看reduce实际运算过程,代码如下:
3) combineByKey[C](createCombiner: Int => C, mergeValue: (C, Int) => C, mergeCombiners: (C, C) => C): RDD[(String, C)]
combineByKey作用是使用不同的返回类型合并具有相同键的值,combineByKey适用键值对RDD,普通RDD是没有这个方法。
有上面定义我们看到combineByKey会经过三轮运算,前一个运算步骤结果就是下一个运算步骤的参数,我们看下面的代码:
本篇就写到这里吧,其余内容我在下篇里讲解了。
相关文章推荐
- Spark笔记:复杂RDD的API的理解(上)
- Spark笔记:复杂RDD的API的理解(下)
- 对spark中RDD的API的理解
- Spark视频王家林大神第1课: 30分钟彻底理解Spark核心API发展史:RDD、DataFrame、DataSet
- 3.4 Spark RDD Action操作7-saveAsNewAPIHadoopFile、saveAsNewAPIHadoopDataset
- Spark RDD/Core 编程 API入门系列之动手实战和调试Spark文件操作、动手实战操作搜狗日志文件、搜狗日志文件深入实战(二)
- Spark RDD/Core 编程 API入门系列 之rdd实战(rdd基本操作实战及transformation和action流程图)(源码)(三)
- 深入理解Spark 2.1 Core (一):RDD的原理与源码分析
- spark RDD api
- Spark RDD API详解 Map和Reduce
- 三大框架---hibernate框架基础笔记(个人理解,环境搭建及api)--一
- Spark RDD API详解(一) Map和Reduce
- SparkRDDAPIExamples
- spark源码阅读笔记RDD(二)RDD子类基本方法和信息
- Spark RDD API详解(一) Map和Reduce
- Spark算子:RDD行动Action操作(7)–saveAsNewAPIHadoopFile、saveAsNewAPIHadoopDataset
- 如何理解spark中RDD和DataFrame的结构?
- Spark RDD API扩展开发(1)
- Spark学习笔记(三)-RDD(弹性分布式数据集)
- 理解Spark的核心RDD