【Spark】SparkOptimizer 优化规则:OptimizeMetadataOnlyQuery

这两天在SparkSQL Core看到一个优化规则:OptimizeMetadataOnlyQuery,它的意思是如果一个sql只涉及表的分区字段元信息查询的话,执行过程将不会路由到TableScanExec的PhysicalPlan进行表扫描,而是通过分区元信息的字段和值构建LocalRelation,进而构造一个LocalTable,走LocalTableScanExec的PhysicalPlan。

这个规则的触发要满足下面几个条件:

  • sql中所有查询的字段必须是分区字段
  • 如果使用了聚合函数,必须满足下面条件:
    1. 聚合表达式是分区字段,如(col等为tbl的分区字段,下同):
      SELECT col FROM tbl GROUP BY col.
    2. 对分区字段使用的聚合函数带Distinct,如:
      SELECT count(DISTINCT col) FROM tbl GROUP BY col.
    3. 对分区字段使用的聚合函数为Max,Min,First、Last函数,如:
      SELECT Max(col) FROM tbl GROUP BY col.

如果满足上面的条件,将会对逻辑计划进行优化,调用replaceTableScanWithPartitionMetadata,做的事情包括:
1. 把CatalogTable中的分区字段取出来;
2. 把CatalogTable中的分区值取出来;
3. 构建LocalRelation(partAttrs, partitionData)

简单来说,就是把分区字段及其值取出来,构造一个本地表,这样在执行时就不需要去扫描真正的表了。

如果要禁用该优化,需要设置参数spark.sql.optimizer.metadataOnly=false,spark里面默认是true。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容