Hive调优之工具篇

HQL提供EXPLAIN和ANALYZE语句,用于检查和确定查询性能。另外Hive日志包含有足够详细的信息用于性能调查和问题确认。

  1. EXPLAIN 不需要执行查询即可返回一个查询的执行计划。当我们担心查询有性能问题是,可以用该语句来分析查询语句。该语句语法为,

EXPLAIN FORMATTED|EXTENDED|DEPENDENCY|AUTHORIZATION] hql_query
其中:

  • FORMATTED: 用于生成JSON格式的执行计划
  • EXTENDED: 提供计划中操作方式的额外信息,如文件路径名等
  • DEPENDENCY: JSON格式,包含表和分区的列表。自Hive 0.10.0以后支持
  • AUTHORIZATION:列出所有需要认证的尸体,包括用于运行查询的输入和输出,以及认证失败信息。自Hive 0.14.0之后支持
    一个典型的查询执行计划包含三部分:
  • 抽象语法树(Abstract Syntax Tree (AST))使用ANTLR解析生成器来自动生成HQL的语法树。
  • 阶段依赖(Stage Dependencies)列出所有依赖以及用于执行查询的阶段。
  • 阶段计划 (Stage Plans) 包含用于执行Job任务的重要信息,如操作和排序等
    以下例子是一个典型的执行计划。我们看到抽象语法树(Abstract Syntax Tree (AST))作为Map / Reduce Operator Tree显示出来。在 阶段依赖(Stage Dependencies)区,Stage-0 和 Stage-1都是独立互不依赖的根阶段。在阶段计划 (Stage Plans)区,Stage-1各有一个Map/Reduce Operator Tree,每一个Map/Reduce Operator Tree区内,所有操作包括表达式和聚集计算都列了出来。Stage-0无Map或Reduce,只有一个Fetch操作。
> EXPLAIN SELECT gender_age.gender, count(*) 
> FROM employee_partitioned WHERE year=2018 
> GROUP BY gender_age.gender LIMIT 2;
+----------------------------------------------------------------------+
| Explain                                                              |
+----------------------------------------------------------------------+
| STAGE DEPENDENCIES:                                                  |
| Stage-1 is a root stage                                              |
| Stage-0 depends on stages: Stage-1                                   |
|                                                                      |
| STAGE PLANS:                                                         |
| Stage: Stage-1                                                       |
| Map Reduce                                                           |
| Map Operator Tree:                                                   |
| TableScan                                                            |
| alias: employee_partitioned                                          |
| Pruned Column Paths: gender_age.gender                               |
| Statistics:                                                          |
| Num rows: 4 Data size: 223 Basic stats: COMPLETE Column stats: NONE  |
| Select Operator                                                      |
| expressions: gender_age.gender (type: string)                        |
| outputColumnNames: _col0                                             |
| Statistics:                                                          |
| Num rows: 4 Data size: 223 Basic stats: COMPLETE Column stats: NONE  |
| Group By Operator                                                    |
| aggregations: count()                                                |
| keys: _col0 (type: string)                                           |
| mode: hash                                                           |
| outputColumnNames: _col0, _col1                                      |
| Statistics:                                                          |
| Num rows: 4 Data size: 223 Basic stats: COMPLETE Column stats: NONE  |
| Reduce Output Operator                                               |
| key expressions: _col0 (type: string)                                |
| sort order: +                                                        |
| Map-reduce partition columns: _col0 (type: string)                   |
| Statistics:                                                          |
| Num rows: 4 Data size: 223 Basic stats: COMPLETE Column stats: NONE  |
| TopN Hash Memory Usage: 0.1                                          |
| value expressions: _col1 (type: bigint)                              |
| Reduce Operator Tree:                                                |
| Group By Operator                                                    |
| aggregations: count(VALUE._col0)                                     |
| keys: KEY._col0 (type: string)                                       |
| mode: mergepartial                                                   |
| outputColumnNames: _col0, _col1                                      |
| Statistics:                                                          |
| Num rows: 2 Data size: 111 Basic stats: COMPLETE Column stats: NONE  |
| Limit                                                                |
| Number of rows: 2                                                    |
| Statistics:                                                          |
| Num rows: 2 Data size: 110 Basic stats: COMPLETE Column stats: NONE  |
| File Output Operator                                                 |
| compressed: false                                                    |
| Statistics:                                                          |
| Num rows: 2 Data size: 110 Basic stats: COMPLETE Column stats: NONE  |
| table:                                                               |
| input format:                                                        |
| org.apache.hadoop.mapred.SequenceFileInputFormat                     |
| output format:                                                       |
| org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat            |
| serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe            |
|                                                                      |
| Stage: Stage-0                                                       |
| Fetch Operator                                                       |
| limit: 2                                                             |
| Processor Tree:                                                      |
| ListSink                                                             |
+----------------------------------------------------------------------+
53 rows selected (0.232 seconds)
  1. ANALYZE Hive统计数据是描述更多详细信息如行数、文件数和数据库中各对象源数据大小等数据集合。统计数据是数据的元数据(Metadata),收集和存放于Metastore数据库中。Hive的统计数据支持表、分区和列等级别。这些统计数据是Hive 基于成本优化器(Cost-Based Optimizer (CBO))的输入方,帮助基于成本优化器以消耗系统资源完成查询所需最低成本来设计执行计划。Hive统计数据既可以部分自动收集(自Hive V3.2.0之后),也可以手工通过执行ANALYZE来收集生成。
手工收集表统计数据

但NOSCAN指定时,该操作不会扫描文件,只收集文件数的大小

> ANALYZE TABLE employee COMPUTE STATISTICS;
No rows affected (27.979 seconds)

> ANALYZE TABLE employee COMPUTE STATISTICS NOSCAN;
No rows affected (25.979 seconds)
手工收集分区统计数据
-- Applies for specific partition
> ANALYZE TABLE employee_partitioned 
> PARTITION(year=2018, month=12) COMPUTE STATISTICS;
No rows affected (45.054 seconds)
      
-- Applies for all partitions
> ANALYZE TABLE employee_partitioned 
> PARTITION(year, month) COMPUTE STATISTICS;
No rows affected (45.054 seconds)
手工收集列统计数据
> ANALYZE TABLE employee_id COMPUTE STATISTICS FOR COLUMNS       
employee_id;       
No rows affected (41.074 seconds)

自动收集统计数据可以通过

SET hive.stats.autogather=true

通过INSERT OVERWRITE/INTO语句来加载表或者分区数据的统计数据会自动收集至Metastore,而LOAD语句不会触发自动收集统计数据机制。
查看统计数据可以使用DESCRIBE EXTENDED/FORMATTED命令,以下为相关示例,

-- Check statistics in a table
> DESCRIBE EXTENDED employee_partitioned PARTITION(year=2018, month=12);
-- Check statistics in a partition
> DESCRIBE EXTENDED employee;
...
parameters:{numFiles=1, COLUMN_STATS_ACCURATE=true, transient_lastDdlTime=1417726247, numRows=4, totalSize=227, rawDataSize=223}).
-- Check statistics in a column
> DESCRIBE FORMATTED employee.name;
+--------+---------+---+---+---------+--------------+
|col_name|data_type|min|max|num_nulls|distinct_count| ...
+--------+---------+---+---+---------+--------------+
| name   | string  |   |   | 0       | 5            | ...
+--------+---------+---+---+---------+--------------+
+-----------+-----------+
|avg_col_len|max_col_len| ...
+-----------+-----------+
| 5.6       | 7         | ...
+-----------+-----------+
3 rows selected (0.116 seconds)
  1. Logs 日志提供用于查看一个查询或者Job任务的详细信息。通过查看日志,我们可以发现运行问题和错误,这些问题往往导致很糟糕的性能。Hive提供两类日志,包括系统日志和Job任务日志。
  • 系统日志,包含Hive运行状态和问题。通过{HIVE_HOME}/conf/hive-log4j.properties来配置,其中包含以下配置信息,

hive.root.logger=WARN,DRFA ## set logger level
hive.log.dir=/tmp/${user.name} ## set log file path
hive.log.file=hive.log ## set log file name

以上设置适用于所有用户,我们也可以通过在Hive命令行中指定这些设置,这样只在当前用户会话中生效,如:

$hive --hiveconf hive.root.logger=DEBUG,console

  • Job任务日志,包含Job信息,通常由Yarn来管理。可以通过执行以下Yarn命令来查看一个Job日志,

yarn logs -applicationId <application_id>

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,132评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,802评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,566评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,858评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,867评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,695评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,064评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,705评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,915评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,677评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,796评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,432评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,041评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,992评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,223评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,185评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,535评论 2 343

推荐阅读更多精彩内容