Spark学习记录|RDD分区的那些事

以前在工作中主要写Spark SQL相关的代码,对于RDD的学习有些疏漏。本周工作中学习了一些简单的RDD的知识,主要是关于RDD分区相关的内容。下面的内容都是自己亲身实践所得,如果有错误的地方,还希望大家批评指正。

本文的目录如下:

1、RDD特性-分区列表

2、宽/窄依赖

3、RDD的创建

4、查看分区数据:mapPartitionsWithIndex

5、笛卡尔积:cartesian

6、数据分组:groupByKey

7、重新分区:repartition VS coalesce

8、map Vs mapPartitions

在正式开始文章内容之前,先介绍一下咱们的背景。考虑一下机器学习中网格搜索策略,比如随机森林中,我们想得到n_estimators和max_depth两个参数的最优组合,我们会对给出的参数取值范围计算笛卡尔积,然后对每一种组合训练得到一个效果,并选取效果最好的一组参数。假设我们想使用spark把这个过程并行化,但是参数组合数量太多,没有足够的计算资源,只能一个task上运行几组参数。

举例来说,假设n_estimators有10个取值,max_depth有5个取值,共有5*10=50种组合,最好的方法就是并行50个task。但是由于资源不足,我们只能并行执行10个task,也就是说一个task上执行五组参数组合。

好了,介绍完了背景,是不是很简单?接下来就介绍一下在这一过程中的一些学习收获。

1、RDD特性-分区列表

Spark中的RDD是被分区的,每一个分区都会被一个计算任务(Task处理),分区数决定了并行计算的数量。

2、宽/窄依赖

RDD中的一些算子,会将一个RDD转换为另一个RDD,在这一过程中,由于RDD是分区的,就会产生不同的依赖关系,主要分为宽依赖和窄依赖。

2.1 窄依赖

窄依赖如下图所示:

先定义一下,上图中每一组中左边的称做父RDD、右边的称为子RDD,那么窄依赖就是说:每一个父RDD中的Partition最多被子RDD中的1个Partition所使用。窄依赖最常见的就是map算子。

2.2 宽依赖

宽依赖的示意图如下:

在宽依赖中,一个父RDD的Partition会被多个子RDD所使用。宽依赖也很常见,如我们下文要介绍的groupByKey和repartition。

介绍完一些简单的知识之后,我们开始进入正题了,你应该还没有忘记刚才的背景介绍吧!

3、RDD的创建

首先创建一个sparkSession的对象:

val spark = SparkSession
  .builder()
  .appName("Spark SQL basic example")
  .enableHiveSupport()
  .getOrCreate()

spark.sparkContext.setLogLevel("WARN")

接下来,咱们建立两个RDD,分别是n_estimators和max_depth对应的取值

val n_estimators = Array(10,20,30,40,50,60,70,80,90,100)
val max_depth = Array(3,4,5,6,7)

val n_estimators_rdd = spark.sparkContext.parallelize(n_estimators)
val max_depth_rdd =  spark.sparkContext.parallelize(max_depth)

先来查看一下分区数量:

println(n_estimators_rdd.partitions.length)
println(max_depth_rdd.partitions.length)

输出为:

1
1

可以看到两个RDD的分区数量都是1,那是不是RDD的分区数量默认是1呢?答案当然是否定的,有关于RDD默认的分区数量,可以参考:https://www.jianshu.com/p/fe987f6d2018?utm_source=oschina-app

当然,我们也可以在创建时指定RDD的分区数量:

val n_estimators_rdd = spark.sparkContext.parallelize(n_estimators,10)
val max_depth_rdd =  spark.sparkContext.parallelize(max_depth,5)

此时分区数量就是10和5了。

4、查看分区数据:mapPartitionsWithIndex

接下来你可能会想查看一下每个分区的内容,我们使用mapPartitionsWithIndex函数,先直接给出代码,随后再详细介绍:

n_estimators_rdd.mapPartitionsWithIndex((partid,iter)=>{
      iter.map(n_estimator => {
        println(partid + "," + n_estimator)
        n_estimator
      })
    }).collect()

结果输出如下:

可以看到,每个分区对应了一个n_estimator的数值,关于上述代码,有以下几点需要注意的点:

1)mapPartitionsWithIndex对每一对(分区id,分区内容)进行操作,partid即是分区id,上面的iter即是分区内容。
2)分区内容iter是一个Iterator,在我们这里是Iterator[Int]类型的,对其每个元素进行查看,需要通过map操作。

5、笛卡尔积:cartesian

接下来,我们需要计算两组参数的笛卡尔积,RDD间的笛卡尔积操作示意图如下:

可以看到,经过笛卡尔积后的RDD的Partition数量应该是两个父RDD的分区数量的乘积:

val cartesian_rdd = n_estimators_rdd.cartesian(max_depth_rdd)
println(cartesian_rdd.partitions.length)

由于n_estimators_rdd的分区数量是10,max_depth_rdd的分区数量是5,因此cartesian_rdd的分区数量是50。

6、数据分组:groupByKey

在对n_estimators和max_depth计算笛卡尔积之后,我们已经得到了50组参数组合,并且分布在50个Partition上。无论是通过map还是mapPartitions去并行计算每组参数对应的GBDT拟合效果,都会创建50个task。如果我们只想要10个task,每个task去执行5组参数,那么需要对数据进行分组,使用groupByKey算子。代码如下:

val cartesian_grp_rdd = cartesian_rdd
        .zipWithIndex()
        .map(row=>(row._2 / 5,row._1))
        .groupByKey()

对于上一节中得到的RDD,我们首先使用zipWithIndex()为其添加了编号,此时RDD中每一条数据分为两部分,假设一行用row表示,那么row._2 代表其对应的行号,row._1代表一组实验参数,类型为(Int,Int)。

接下来,使用map把我们的RDD转换成K-V形式的pairRDD,注意这里我们进行row._2 / 5,这样5条数据的Key相同。

最后通过groupByKey()对每5条数据进行了分组。接下来我们来看下经过groupByKey()操作后RDD的分区情况:

cartesian_grp_rdd.mapPartitionsWithIndex((partid,iter)=>{
      iter.map(data => {
        println(partid + "," +data)
        data
      })
    }).collect()

输出如下:

可以看到,分区数量为10,但是,每个分区仅有一条数据,每条数据的Key是我们刚才计算的index,Value是一个包含5组实验参数的CompactBuffer。此时如果我们想对每组参数进行操作的话,还需要将数据转换为List,通过循环进行处理,如下:

cartesian_grp_rdd.mapPartitionsWithIndex((partid,iter)=>{
      iter.map(data => {
        println(partid + "," +data)
        val dataList = data._2.toList
        for(i <- 0 until dataList.length){
          println("do something")
        }
        data
      })
    }).collect()

7、重新分区:repartition VS coalesce

看到这里,你可能会想,能不能不通过groupByKey()来对数据进行重新分区?这里我们介绍两种方法repartition和coalesce。

7.1 coalesce

先上代码:

val cartesian_coalesce_rdd = cartesian_rdd.coalesce(10)

    cartesian_coalesce_rdd.mapPartitionsWithIndex((partid,iter)=>{
      iter.map(data => {
        println(partid + "," +data)
        data
      })
    }).collect()

结果如下:

分区效果还不错,对吧。如果将一个分区较多的RDD重新分区为分区较少的RDD,默认的coalesce是不会进行shuffle过程的(参数中的shuffle默认值为false),其过程类似于如下,是一个分区之间相互组合的过程(窄依赖):

但是如果想要分区较少的RDD转换为分区较多的RDD,shuffle过程是会有的。

7.2 repartition

而对于repartition来说,它其实就是shuffle=True的coalesce过程,看源码也可以看出来:

def repartition(numPartitions: Int)(implicit ord: Ordering[T] = null): RDD[T] = withScope {
    coalesce(numPartitions, shuffle = true)
  }

先看一下repartition的分区效果:


val repartition_coalesce_rdd = cartesian_rdd.repartition(10)

repartition_coalesce_rdd.mapPartitionsWithIndex((partid,iter)=>{
  iter.map(data => {
    println(partid + "," +data)
    data
  })
}).collect()

感觉分区效果很乱啊,其背后的分区原理是什么呢?还是得看源码:

从源码中可以看出,它是基于HashPartitioner来进行分区的。HashPartitioner分区的原理很简单,对于给定的key,计算其hashCode,并除于分区的个数取余,如果余数小于0,则用余数+分区的个数,最后返回的值就是这个key所属的分区ID。

好了, 既然是基于Key分区的,那我们先给RDD搞一个Key,看看是不是按照我们的想法去进行分区的:

val repartition_coalesce_rdd = cartesian_rdd
  .zipWithIndex()
  .map(row=>(row._2 / 5,row._1))
  .repartition(10)

repartition_coalesce_rdd.mapPartitionsWithIndex((partid,iter)=>{
  iter.map(data => {
    println(partid + "," +data)
    data
  })
}).collect()

输出如下:

结果并不是如我们所想,那么是为什么呢?原因在于repartition所使用的Key,并非是RDD中每一条数据的Key,而是它为每条数据重新生成了一个随机数,作为此条数据的Key:

所以,在将一个分区较多的RDD重新分区为分区较少的RDD时,尽量使用coalesce算子。

8、map Vs mapPartitions

好了,我们已经重新将数据分为10个分区了,接下来就是并行调度了,这里有两个方法,一个是map,一个是mapPartitions。二者有什么区别呢:

map是对rdd中的每一个元素进行操作;mapPartitions则是对rdd中的每个分区的迭代器进行操作。假设我们想把RDD中所有的数变为两倍,如果共有5个Partition,每个Partition有1万条数据。那么map操作会执行5万次function,而mapPartitions操作只会执行5次function。因此mapPartitions的性能较高。

但要注意的一点是,MapPartitions操作,对于大量数据来说,比如一个Partition有100万数据,一次传入一个function以后,那么可能一下子内存不够,但是又没有办法去腾出内存空间来,可能就OOM,内存溢出。

而在我们的场景中,选择mapPartitions即可。二者代码示例如下:

def doubleMap(a:(Int,Int))= { (a._1 * 2,a._2 * 3) }

    cartesian_coalesce_rdd.map(
      data=>{
        doubleMap(data)
      }
    ).foreach(println)
def doubleMapPartition( iter : Iterator[(Int,Int)]) = {
  var res = List[(Int,Int)]()
  while (iter.hasNext){
    val cur = iter.next()
    res .::= (cur._1 * 2, cur._2 * 3)
  }
  res.iterator
}

cartesian_coalesce_rdd.mapPartitions(
  iter=>{
    doubleMapPartition(iter)
  }
).foreach(println)

注意,mapPartitions方法接受的是一个Iterator,返回也必须是一个Iterator。

好了,本文就整理到这里了!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,937评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,503评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,712评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,668评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,677评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,601评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,975评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,637评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,881评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,621评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,710评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,387评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,971评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,947评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,189评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,805评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,449评论 2 342

推荐阅读更多精彩内容