oushudb 中 orc 格式的使用

1 介绍

ORC(Optimized RC File)表是一种行列混合存储。用户可以通过内表/外表的形式创建ORC格式的表。在OushuDB中,其查询性能相比Parquet 更有优势。从 4.5.0.0 版本开始,默认建表格式改为 ORC,带 LZ4 压缩。

2 建表语法

2.1 Native ORC

CREATE[TEMPORARY | TEMP]TABLE (

  [ { <column_name> <data_type> [ DEFAULT <default_expr> ]

     [ <column_constraint> [ ... ] ]

     | <table_constraint>

|LIKE [ { INCLUDING | EXCLUDING }

                            { DEFAULTS | CONSTRAINTS } ] ... } ]

  [, ... ] ]

)

[ INHERITS ( parent_table [, ... ] ) ]

[ WITH ( <storage_parameter> [, ... ] )

[ONCOMMIT { PRESERVE ROWS |DELETEROWS |DROP} ]

[ TABLESPACE <tablespace> ]

[ DISTRIBUTEDBY(, [ ... ] ) | DISTRIBUTED RANDOMLY ]

[ PARTITIONBY ()

[ SUBPARTITIONBY () ]

  [ SUBPARTITION TEMPLATE ( <template_spec> ) ]

  [...]

  ( <partition_spec> )

whereis:

  [ CONSTRAINT <constraint_name> ]

NOTNULL|NULL| CHECK ( )


andis:

  [ CONSTRAINT <constraint_name> ]

  | CHECK ( <expression> )


andis:

  APPENDONLY = {TRUE}

  ORIENTATION = {ORC}

  COMPRESSTYPE = {LZ4|ZSTD|ZLIB|SNAPPY|NONE}

  OIDS = {FALSE}

DICTHRESHOLD = [0-1]

BLOOMFILTER ='<column_names>'

andis:

    [, ...]

andis:

  DEFAULT PARTITION <name>

| [ PARTITION ]VALUES( [,...] )

  | [ PARTITION <name> ]

START ( []'<start_value>') [ INCLUSIVE | EXCLUSIVE ]

[ END ( []'<end_value>') [ INCLUSIVE | EXCLUSIVE ] ]

[ EVERY ( [] [ | INTERVAL]'<interval_value>') ]

  | [ PARTITION <name> ]

END ( []'<end_value>') [ INCLUSIVE | EXCLUSIVE ]

[ EVERY ( [ ] [ | INTERVAL]'<interval_value>') ]

  [ WITH ( <partition_storage_parameter> [, ... ] ) ]

  [ TABLESPACE <tablespace> ]

说明:

不支持 primary key

不支持指定 column 级别的存储选项(比如 compresstype),不支持 blocksize, compresslevel, fillfactor 存储选项,不支持 gzip 压缩

支持的数据类型:bool, int2, int4, int8, float4, float8, char, text, varchar, char(), varchar(), date, time, timestamp, timestamptz, numeric, UDT

decimal 缺省的精度为 decimal(10, 0)

支持的压缩类型:lz4, zstd, zlib, snappy

ORC 中字符串可以使用 dictionary encoding 压缩存储空间,如果 distinct-count / non-null-count > DICTHRESHOLD,就会自动关闭这一功能。实践中推荐 DICTHRESHOLD=0.8,压缩格式使用 lz4

bloom filter主要用于提升相关列的查找性能,默认为空

默认的建表选项为 {appendonly=true,orientation=orc,compresstype=lz4}

2.2 External ORC

CREATEREADABLE EXTERNALTABLE

( [, ...] |LIKE )

LOCATION ('gpfdist://<filehost>[:<port>]/<file_pattern>[#<transform>]'[, ...])

| ('gpfdists://<filehost>[:<port>]/<file_pattern>[#<transform>]'[, ...])

| ('hdfs://<host>[:<port>]/<path-to-data-directory>'[, ...])

| ('hive://<host>[:<port>]/<hive-db-name>/<hive-table-name>'[, ...])

| ('s3://S3_endpoint[:port]/bucket_name/[S3_prefix] [config=config_file_location]')

FORMAT'ORC'

[ ENCODING'<encoding>']

[ [ LOG ERRORSINTO] SEGMENT REJECTLIMIT [ ROWS | PERCENT ] ]


CREATE[WRITABLE] EXTERNALTABLE

( [, ...] |LIKE )

LOCATION ('gpfdist://<filehost>[:<port>]/<file_pattern>[#<transform>]'[, ...])

| ('gpfdists://<filehost>[:<port>]/<file_pattern>[#<transform>]'[, ...])

| ('hdfs://<host>[:<port>]/<path-to-data-directory>'[, ...])

| ('hive://<host>[:<port>]/<hive-db-name>/<hive-table-name>'[, ...])

| ('s3://S3_endpoint[:port]/bucket_name/[S3_prefix] [config=config_file_location]')

FORMAT'ORC'

[ ( [COMPRESSTYPE ='NONE'|'SNAPPY'|'LZ4'|'ZSTD'|'ZLIB']

[DICTHRESHOLD [0-1]]

[BLOOMFILTER'column_names'] ) ]

[ ENCODING'<encoding>']

[ [ LOG ERRORSINTO] SEGMENT REJECTLIMIT [ ROWS | PERCENT ] ]

[ DISTRIBUTED RANDOMLY ]

说明:

与 Native ORC 所有限制相同

encoding 目前只支持 utf-8

额外不支持 constraint,不支持 inherit

不支持 update/delete 操作

不支持 partition,不支持 distributed by column

3 与 HIVE 数据类型的转换

ORC中支持的类型与HIVE数据类型,基本上名称一一对应。

OushuDB-TypeHive-Type

booltinyint

int2smallint

int4int

int8bigint

float4float

float8double

textstring

4 关于Update/Delete 的并行

目前 native orc update/delete 的上锁级别为 ExclusiveLock,会阻塞除 AccessShareLock 外的所有锁级别。

简单理解就是:对于同一个表,update/delete 只能串行执行,只能与普通 select 并行,会阻塞其他所有操作。

实践中,推荐用于 update/delete 数据比例较高的场景,不适合用于小批量数据的更新。

5 ORC 相关工具

orc-contents: 以 json 格式显示 orc 文件里的内容,可以使用 columns 参数来显示特定列

% orc-contents[--columns=0,1,...]

orc-metadata: 以 json 格式显示 orc 文件的元数据,可以使用 -v 获取更多信息

% orc-metadata [-v] [--raw] <filename>

orc-statistics: 显示文件级别和 stripe 级别的列统计信息

% orc-statistics [--withIndex] <filename>

6 实践中的使用限制

不适合single row insert或者小批量数据频繁插入/更新

decimal默认精度建表,新执行器运算过程中可能会精度溢出报错

decimal默认精度建表,写出来的orc文件和社区不兼容,开源社区引擎读取会丢失精度,被截断成整型

不支持以下datatype:bit, varbit, box, cidr, circle, inet, interval, lseg, macaddr, money, path, point, polygon, timetz, array, json, xml

不支持madlib,需要把默认建表改回row表: set default_create_table_opt_with = "appendonly=true, orientation=row"

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,884评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,755评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,369评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,799评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,910评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,096评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,159评论 3 411
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,917评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,360评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,673评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,814评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,509评论 4 334
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,156评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,882评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,123评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,641评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,728评论 2 351

推荐阅读更多精彩内容

  • pyspark.sql模块 模块上下文 Spark SQL和DataFrames的重要类: pyspark.sql...
    mpro阅读 9,448评论 0 13
  • 上一篇:096-BigData-24Hive查询排序分桶 七、函数 7.1 系统自带的函数1)查看系统自带的函数h...
    AncientMing阅读 371评论 0 1
  • Hadoop 常见面试题 mr 工作原理 ☆☆☆☆mr 将得到的split 分配对应的 task,每个任务处理相对...
    hdn040083阅读 3,597评论 0 1
  • 转载请注明出处,谢谢合作~该篇中的示例暂时只有 Scala 版本~ 数据源 Spark SQL 支持通过 Data...
    Whaatfor阅读 605评论 0 0
  • 一、Hive基本概念 Hive 是基于 Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提...
    CJ21阅读 1,732评论 0 13