Spark-sql读取hive分区表限制分区过滤条件及限制分区数量

问题描述

在开发过程中使用spark去读取hive分区表的过程中(或者使用hive on spark、nodepad开发工具),部分开发人员未注意添加分区属性过滤导致在执行过程中加载了全量数据,引起任务执行效率低、磁盘IO大量损耗等问题

解决办法

1、自定义规则CheckPartitionTable类,实现Rule

    type ExtensionsBuilder = SparkSessionExtensions => Unit
//在Optimizer中追加CheckPartitionTable规则执行器
    val extBuilder: ExtensionsBuilder = { e => e.injectOptimizerRule(CheckPartitionTable) }
    val conf = new SparkConf()
      .setMaster("local[*]")
      .set("spark.table.check.partition", "true")
      .set("spark.table.check.partition.num","30")
      .setAppName("SQL")
    val spark = SparkSession.builder().config(conf).withExtensions(extBuilder).enableHiveSupport().getOrCreate()

然后通过此种方法创建SparkSession
2、自定义规则CheckPartitionTable类,实现Rule,将规则类追加致Optimizer.batches: Seq[Batch]中


image.png

规则内容实现

1、CheckPartitionTable规则执行类,需要通过引入sparkSession从而获取到引入conf;需要继承Rule[LogicalPlan];

case class CheckPartitionTable(sparkSession: SparkSession)
  extends Rule[LogicalPlan] with PredicateHelper {
// 是否检查分区,配置
  val check_partition = "spark.table.check.partition"
// 检查分区,限制分区读取数量,配置
  val check_num_partition = "spark.table.check.partition.num"

  val conf = sparkSession.conf

2、通过splitPredicates方法,分离分区谓词,得到分区谓词表达式
在sql解析过程中将谓词解析为TreeNode,此处采用递归的方式获取分区谓词

def splitPredicates(condition: Expression,partitionSet :AttributeSet): Seq[Expression] = {
    condition match {
       // 匹配 and表达式,并筛选and表达式中的分区表达式
      case And(cond1, cond2) =>
        splitPredicates(cond1,partitionSet) ++ splitPredicates(cond2,partitionSet) 
      // 匹配 or表达式,并筛选or表达式中的分区表达式
      case Or(cond1, cond2)=>
        val leftSeq = splitPredicates(cond1,partitionSet) 
        val rightSeq = splitPredicates(cond2,partitionSet)
        if(leftSeq.nonEmpty && rightSeq.nonEmpty)
          Or(leftSeq.reduceLeft(And),rightSeq.reduceLeft(And)) :: Nil
        else Nil
      case other  => if (other.references.subsetOf(partitionSet)) other :: Nil else Nil
    }
  }

3、判断是否是分区表,且是否添加分区字段

def isPartitionTable(filter: Filter,numPartition:Int): Boolean = {
    var boolean = false
    filter.child match {
      // 匹配logicalRelation
      case logicalRelation@LogicalRelation(fsRelation@HadoopFsRelation(location: CatalogFileIndex,
      partitionSchema: StructType, _, _, _, _), _, catalogTable) =>
        val table = catalogTable.get
        // 判断读取表是否存在分区column
        if (table.partitionColumnNames.nonEmpty) {
          val sparkSession = fsRelation.sparkSession
          // 获取表的分区column的Attribute
          val partitionColumns =
            logicalRelation.resolve(
              partitionSchema, sparkSession.sessionState.analyzer.resolver)
          log.info("partitionColumns : " + partitionColumns)
          val partitionSet = AttributeSet(partitionColumns) 
          // 获取分区Filter表达式
          val partitionKeyFilters = splitPredicates(filter.condition,partitionSet)
          var partition_size = -1L
          if (partitionKeyFilters.nonEmpty) {
            log.info("partitionKeyFiltersExpression:" + partitionKeyFilters)
            // 在hdfs上获取分区path
            val prunedFileIndex = location.filterPartitions(partitionKeyFilters)
            val partitions = prunedFileIndex.partitionSpec().partitions
            partition_size = partitions.size
            log.info("partitions : " + partitions)
          }
          boolean = partitionKeyFilters.isEmpty || partition_size > numPartition
        }
      // 匹配 CatalogRelation 
      case catalogRelation:CatalogRelation =>
        val partitionSet = AttributeSet(catalogRelation.partitionCols)
        val partitionKeyFilters = splitPredicates(filter.condition,partitionSet)
        // 判断是否存在分区属性
        boolean = partitionKeyFilters.forall(_.references.subsetOf(partitionSet))
      case _ => log.warn("未获取到表信息")
    }
    boolean
  }

4、实现Rule的apply方法

def apply(plan: LogicalPlan): LogicalPlan =
    if (!conf.get(check_partition, "true").toBoolean) {
      log.warn(s"Is not enabled $check_partition")
      plan
    } else plan transform {
      case j@Filter(condition: Expression, child: LogicalPlan)
        if isPartitionTable(j,conf.get(check_num_partition,s"${Int.MaxValue}").toInt) =>
        throw new Exception(
          s"""${condition.sql} ${child.treeString} No partition information is added to the partition table""".stripMargin)
    }

关于spark-sql的主要执行流程及预备知识,可参照我同学的这篇博文https://www.jianshu.com/p/4cc6797fb9ce

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,133评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,682评论 3 390
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,784评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,508评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,603评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,607评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,604评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,359评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,805评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,121评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,280评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,959评论 5 339
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,588评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,206评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,442评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,193评论 2 367
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,144评论 2 352

推荐阅读更多精彩内容