Spark从入门到精通18:RDD常用高级算子介绍

前面章节介绍的都是一些RDD中常用的简单算子,本节就来介绍一些RDD中常用的高级算子,比如mapPartitionsWithIndex、aggregate: aggregateByKey、coalesce与repartition等。更多关于RDD中算子的详细内容请参考下面的文章:

Zhen He的个人主页

1.mapPartitionsWithIndex算子

作用:把RDD中每个分区中的元素和对应的分区号拿出来,进行计算;

定义如下:

def mapPartitionsWithIndex[U: ClassTag](
f: (Int, Iterator[T]) => Iterator[U],
preservesPartitioning: Boolean = false): RDD[U]
参数1:函数 f: (Int, Iterator[T]) => Iterator[U]
第一个参数:Int 分区号
第二个参数:Iterator[T] 该分区元素的集合
返回值:Iterator[U] 是集合
参数2:preservesPartitioning: Boolean = false 是否保留分区,默认不保留</pre>

示例:打印RDD的每个元素,显示分区号。

(1)创建一个包含9个整型元素的RDD,并指定2个分区

scala> val rdd1 = sc.parallelize(List(1,2,3,4,5,6,7,8,9),2)
rdd1: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0]
at parallelize at <console>:24

(2)定义函数参数:对每个分区中的元素进行处理,打印分区中的元素和对应的分区号

scala> def func1(index:Int,iter:Iterator[Int]):Iterator[String] = {
| iter.toList.map(x => "[PartID:"+index + ", value=" + x +"]").iterator
| }
func1: (index: Int, iter: Iterator[Int])Iterator[String]</pre>

(3)调用mapPartitionsWithIndex算子并显示结果

scala> rdd1.mapPartitionsWithIndex(func1).collect
res0: Array[String] = Array([PartID:0, value=1],[PartID:0, value=2],
[PartID:0, value=3],[PartID:0, value=4], [PartID:1, value=5], [PartID:1, value=6],
[PartID:1, value=7], [PartID:1, value=8], [PartID:1, value=9])

2.aggregate算子

作用:先对局部(每个分区)进行聚合操作,然后再对全局(所有分区)进行聚合操作。

定义如下:

def aggregate[U](zeroValue: U)(seqOp: (U, T) ⇒ U, combOp: (U, U) ⇒ U)
参数1:zeroValue: U 初始值(每个分区中放一个,全局再放一个)
参数2:seqOp: (U, T) ⇒ U 局部聚合匿名函数
参数3:combOp: (U, U) ⇒ U 全局聚合匿名函数</pre>

示例1:将RDD中每个分区的最大值求和。

(1)创建一个包含9个整型元素的RDD,并指定3个分区

scala> val rdd2 = sc.parallelize(List(1,2,3,4,5,6,7,8,9),3)
rdd1: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0]
at parallelize at <console>:24

(2)查看每个分区中对应的元素:

scala> rdd2.mapPartitionsWithIndex(func1).collect
res1: Array[String] = Array(

[PartID:0, value=1], [PartID:0, value=2], [PartID:0, value=3],
[PartID:1, value=4], [PartID:1, value=5], [PartID:1, value=6],
[PartID:2, value=7], [PartID:2, value=8], [PartID:2, value=9])

(3)调用aggregate算子:将每个分区最大值求和

scala> rdd2.aggregate(0)(math.max(,),+)
res2: Int = 18

可以看到三个分区的最大值分别是3,6,9,和是18。如果参数1不是0呢?

scala> rdd2.aggregate(10)(math.max(,),+)
res3: Int = 40

总结:aggregate算子会在每个分区中的所有元素前面添加一个初始值元素,然后在全局中所有元素前面再添加一个初始值元素。为了更好的看到这个效果,请看下面的例子:

示例2:连接RDD中每个元素。

(1)创建一个包含6个字符串元素的RDD,并指定2个分区

scala> val rdd3 = sc.parallelize(List("a","b","c","d","e","f"),2)
rdd3: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[4]
at parallelize at <console>:24

(2)查看每个分区中对应的元素:

scala> def func2(index:Int,iter:Iterator[String]):Iterator[String] = {
| iter.toList.map(x => "[PartID:"+index + ", value=" + x +"]").iterator
| }
func2: (index: Int, iter: Iterator[String])Iterator[String]

scala> rdd3.mapPartitionsWithIndex(func2).collect
res4: Array[String] = Array(
[PartID:0, value=a], [PartID:0, value=b], [PartID:0, value=c],
[PartID:1, value=d], [PartID:1, value=e], [PartID:1, value=f])

(3)调用aggregate算子:连接RDD中的每个元素:

scala> rdd3.aggregate("")(+,+)
res6: String = abcdef

初始值可以设置为分割符:

scala> rdd3.aggregate("|")(+,+)
res7: String = ||abc|def

3.aggregateByKey算子

作用:先对局部(每个分区)进行聚合操作,然后再对全局(所有分区)进行聚合操作。与aggregate算子的区别是,aggregateByKey算子操作的数据类型必须是<key value>,而aggregate算子的操作的数据类型不限。

示例:将RDD每个分区中每个键的最大值求和。

(1)创建一个包含6个<String,Int>类型元素的RDD,并指定2个分区

scala> val rdd4 = sc.parallelize(List(("cat",2),("cat",5),
("mouse",4),("cat",12),("dog",12),("mouse",2)),2)
rdd4: org.apache.spark.rdd.RDD[(String, Int)] =
ParallelCollectionRDD[6] at parallelize at <console>:24

(2)查看每个分区中对应的元素:

scala> def func3(index:Int,iter:Iterator[(String,Int)]):Iterator[String] = {
| iter.toList.map(x => "[PartID:"+index + ", value=" + x +"]").iterator
| }
func3: (index: Int, iter: Iterator[(String, Int)])Iterator[String]

scala> rdd4.mapPartitionsWithIndex(func3).collect
res8: Array[String] = Array([PartID:0, value=(cat,2)],
[PartID:0, value=(cat,5)], [PartID:0, value=(mouse,4)],
[PartID:1, value=(cat,12)], [PartID:1, value=(dog,12)],
[PartID:1, value=(mouse,2)])

(3)调用aggregateByKey算子:将RDD每个分区中每个键的最大值求和:

scala> rdd4.aggregateByKey(0)(math.max(,),+).collect
res9: Array[(String, Int)] = Array((dog,12), (cat,17), (mouse,6))

(4)调用aggregateByKey算子:将RDD每个分区中每个键的所有值求和:

scala> rdd4.aggregateByKey(0)(+,+).collect
res10: Array[(String, Int)] = Array((dog,12), (cat,19), (mouse,6))

4.coalesce与repartition算子

相同点:都是对RDD原有的分区进行重新划分。

不同点:coalesce默认没有shuffle操作,repartition有shuffle操作。

二者关系:repartition内部调用的是coalesce 。这可以从repartition的定义式看出:

def repartition(numPartitions: Int)(implicit ord: Ordering[T] = null): RDD[T] = withScope {
coalesce(numPartitions, shuffle = true)
}

示例1:使用repartition将RDD重新分区。

(1)创建一个包含9个整型元素的RDD,并指定2个分区

scala> val rdd5 = sc.parallelize(Array(1,2,3,4,5,6,7,8,9),2)
rdd5: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[10]
at parallelize at <console>:24

2)查看每个元素原来的分区情况:

scala> rdd5.mapPartitionsWithIndex(func1).collect
res11: Array[String] = Array([PartID:0, value=1],

[PartID:0, value=2], [PartID:0, value=3], [PartID:0, value=4],
[PartID:1, value=5], [PartID:1, value=6], [PartID:1, value=7],
[PartID:1, value=8], [PartID:1, value=9])

(3)使用repartition将RDD重新分区

scala> val rdd6 = rdd5.repartition(3)
rdd6: org.apache.spark.rdd.RDD[Int] = MapPartitionsRDD[15]
at repartition at <console>:26

(4)查看每个元素新的分区情况:

scala> rdd6.mapPartitionsWithIndex(func1).collect
res12: Array[String] = Array([PartID:0, value=3], [PartID:0, value=7],
[PartID:1, value=1], [PartID:1, value=4], [PartID:1, value=5],
[PartID:1, value=8], [PartID:2, value=2], [PartID:2, value=6],
[PartID:2, value=9])

示例2:使用coalesce将RDD重新分区。

(1)创建一个包含9个整型元素的RDD,并指定2个分区

scala> val rdd7 = sc.parallelize(Array(1,2,3,4,5,6,7,8,9),2)
rdd7: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[17]
at parallelize at <console>:24

(2)查看每个元素原来的分区情况:

scala> rdd7.mapPartitionsWithIndex(func1).collect
res13: Array[String] = Array([PartID:0, value=1], [PartID:0, value=2],
[PartID:0, value=3], [PartID:0, value=4], [PartID:1, value=5],
[PartID:1, value=6], [PartID:1, value=7], [PartID:1, value=8],
[PartID:1, value=9])

(3)使用coalesce将RDD重新分区

scala> val rdd8 = rdd7.coalesce(3)
rdd8: org.apache.spark.rdd.RDD[Int] = CoalescedRDD[19]
at coalesce at <console>:26

(4)查看每个元素新的分区情况:

scala> rdd8.mapPartitionsWithIndex(func1).collect
res14: Array[String] = Array([PartID:0, value=1], [PartID:0, value=2],
[PartID:0, value=3], [PartID:0, value=4], [PartID:1, value=5],
[PartID:1, value=6], [PartID:1, value=7], [PartID:1, value=8],
[PartID:1, value=9])

对比示例1和示例2的结果可以发现,repartition算子重新分区后元素的顺序变化了,证明发生了shuffle操作;coalesce算子重新分区后元素保持原来的顺序,证明没有shuffle操作。

本节详细介绍了几个RDD常用的高级算子。祝你玩的愉快!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,047评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,807评论 3 386
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,501评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,839评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,951评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,117评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,188评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,929评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,372评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,679评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,837评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,536评论 4 335
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,168评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,886评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,129评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,665评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,739评论 2 351

推荐阅读更多精彩内容