Spark开发-RDD分区重新划分
2017-10-09 23:36
211 查看
repartition(numPartitions: Int):RDD[T]
coalesce(numPartitions: Int, shuffle: Boolean = false):RDD[T]
repartition和coalesce是对RDD的分区进行重新划分,repartition只是coalesce接口中shuffle为true的简易实现,所以这里主要讨论coalesce合并函数该如何设置shuffle参数,这里分三种情况,假设RDD为N个分区,需要重新划分M个分区
1、如果N< M,一般情况下N个分区有数据分布不均的状况,利用HashPartitioner函数将数据重新分区为M个,这时需要将shuffle设置为true
2、如果N>M并且N和M相差不多,比如N是1000,M是100,那么就可以将N个分区中的若干个分区合并成一个新的分区,最终合并成M个分区,这时可以将shuffle的参数设置为false(在shuffle为false的情况下,设置M>N,coalesce是不起作用的),不进行shuffle过程,父RDD和子RDD之间是窄依赖关系
3、如果N>M并且N和M差距悬殊大,比如N是1000,M是1,这个时候如果把shuffle设置成false,由于父子RDD是窄依赖,它们同处在一个stage中,就可能会造成spark程序运行的并行度不够,从而影响性能,比如在M为1时,由于只有一个分区,所以只会有一个任务在运行,为了是coalesce之前的操作有更好的并行度,可以将shuffle参数设置为true。
coalesce(numPartitions: Int, shuffle: Boolean = false):RDD[T]
repartition和coalesce是对RDD的分区进行重新划分,repartition只是coalesce接口中shuffle为true的简易实现,所以这里主要讨论coalesce合并函数该如何设置shuffle参数,这里分三种情况,假设RDD为N个分区,需要重新划分M个分区
1、如果N< M,一般情况下N个分区有数据分布不均的状况,利用HashPartitioner函数将数据重新分区为M个,这时需要将shuffle设置为true
2、如果N>M并且N和M相差不多,比如N是1000,M是100,那么就可以将N个分区中的若干个分区合并成一个新的分区,最终合并成M个分区,这时可以将shuffle的参数设置为false(在shuffle为false的情况下,设置M>N,coalesce是不起作用的),不进行shuffle过程,父RDD和子RDD之间是窄依赖关系
3、如果N>M并且N和M差距悬殊大,比如N是1000,M是1,这个时候如果把shuffle设置成false,由于父子RDD是窄依赖,它们同处在一个stage中,就可能会造成spark程序运行的并行度不够,从而影响性能,比如在M为1时,由于只有一个分区,所以只会有一个任务在运行,为了是coalesce之前的操作有更好的并行度,可以将shuffle参数设置为true。
相关文章推荐
- Spark与Mysql(JdbcRDD)整合开发(zh)
- 在Spark集群中,集群的节点个数、RDD分区个数、cpu内核个数三者与并行度的关系??
- 决定Spark RDD分区算法因素的总结
- JavaSpark-编程进阶-数值RDD管道基于分区操作
- Spark RDD API扩展开发(1)
- MYSQL 表的分区以及分区的重新划分
- 影响到Spark输出RDD分区的操作函数
- Spark开发-spark运行原理和RDD
- Spark基础脚本入门实践3:Pair RDD开发
- 在Spark集群中,集群的节点个数、RDD分区个数、cpu内核个数三者与并行度的关系??
- Spark成长之路(2)-RDD中分区依赖系统
- 使用Vista/windows 7自带分区工具实现磁盘大小重新划分(无损数据)
- Learning Spark笔记13-基于分区工作、通过管道使用外部程序、数字RDD操作
- Spark开发-RDD接口编程
- 改写Spark JdbcRDD,支持自己定义分区查询条件
- Spark算子:统计RDD分区中的元素及数量
- 使用Vista/windows 7自带分区工具 实现磁盘大小重新划分(无损数据)
- 使用Vista/windows 7自带分区工具实现磁盘大小重新划分(无损数据)
- spark rdd详解及开发优化
- Spark与Mysql(JdbcRDD)整合开发