HIVE操作基础实战

hive是基于Hadoop的一个数据仓库工具,提供了丰富的SQL查询方式来分析存储在Hadoop分布式文件系统中的数据。

一、HIVE基础概念与操作

1、Hive 内部表和外部表关系

学习create table时经常会遇到“内部表”、“外部表”的概念,因此需要梳理一下这两类表的关系

差异 内部表 外部表
创建 默认创建为内部表 需要加关键字external创建
sql create create table create external table....location '/path'
对数据的处理 将数据移动到数据仓库指向的路径 仅记录数据所在的路径,不对数据的位置做任何改变
删除 内部表的元数据和数据会被一起删除 外部表只删除元数据,不删除数据

【场景使用】[1]
外部表:比如某个公司的原始日志数据存放在一个目录中,多个部门对这些原始数据进行分析,那么创建外部表是明智选择,这样原始数据不会被删除。
内部表:对原始数据或比较重要的中间数据进行建表存储

2、分区是什么?

hive为了避免全表查询,从而引进分区,将数据按目录进行划分,减少不必要的查询,从而提高效率。

(1)分区表创建
hive的分区字段采用表外字段,在建表时partitioned by设定分区字段

CREATE table t_part(
    id int
    , name string
)
partitioned by (country string)
ROW format delimited
fields terminated by ','

(2)插入数据
插入分区及数据内容

insert into t_part partition(country='China') values(7,'Mark');
insert into t_part partition(country='China') values(9,'Tony');
insert into t_part partition(country='US') values(10,'Jane');
insert into t_part partition(country='US') values(11,'Lisa');
# 批量插入模式
insert into t_part partition(country='US') values(7,'Mark'),(9,'Tony'),(10,'Jane'),(11,'Lisa')

可以用show partitions t_part查看分区情况

(3)数据检索
分区表的意义在于优化查询。查询时尽量利用分区字段,如果不使用分区字段,就会全表扫描。

SELECT * FROM t_part WHERE country='China'
3、建表

(1)人工建表
create table的时候需要设置字段、字段类型,还有分隔符的设置

CREATE TABLE IF NOT EXISTS student(
    id int
    , name string
    ,age int
    ,class string
)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'

(2)基于已有表建立

CREATE TABLE IF NOT EXISTS student
AS
SELECT ...
4、INSERT 数据插入

insert有两种方式,一种是人为插入数据,一种为select检索后插入数据(ps还有导入文本插入,暂放)

插入方式 SQL
人工插入 INSERT INTO table_name(field1,field2) VALUES(v101,v102),(v201,v202),(v301,v302),(v401,v402)
检索插入 INSERT INTO t2(field1,field2) SELECT col1,col2 FROM t1 WHERE

在insert into 和 insert overwrite的选择上,insert into直接追加到表中数据的尾部,而insert overwrite会重写数据,既先进行删除,再写入,采用哪种方式根据项目要求选择。

5、ALTER 对表的操作

ALTER TABLE 语句用于在已有的表中对列的操作。

操作 SQL
增加列 ALTER TABLE table_name ADD columns(column_name datatype)
删除列 ALTER TABLE table_name DROP COLUMN column_name
修改列类型 ALTER TABLE table_name CHANGE old_col_name new_col_name new_col_type
表的重命名 ALTER TABLE table_name RENAME COLUMN a TO b

例如将表emp重命名为students,添加一个名为 "birthday" 的新列,dete格式。SQL如下:

ALTER TABLE emp RENAME TO students
ALTER table students ADD columns(birthday date)

注意:转换格式时,String类型到int类型是数据类型高阶到低阶转化,这一般是被禁止的。就像可以由int转double是无损的,但是double转int会损失精度所以也不能转化。几乎所有的数据类型都能转化成string

6、内置函数

HIVE提供了很多内置函数用来支持基础数据操作,详细可参考Hive2.0函数大全(中文版)

二、案例实践

数据对象为student和black_name

1、【案例一】修改错误问题

【需求】插入balck_name信息时,小明重复插入了,需要对balck_name表做去重处理;表student id=8的name应该为“小曹”,需要修正过来
【技术点】row_number、update、overwrite、if

【实现步骤】
(1)black_name去重
使用row_number可以记录目标对象出现的次数,SELECT name, Row_Number() OVER (partition by name ORDER BY name desc) rank FROM student,所以选择第一次出现的值即可(rank=1)

insert overwrite table black_name
SELECT name
FROM (
    SELECT name, row_number() OVER (PARTITION BY name ORDER BY name DESC) AS rn
    FROM black_name
) t
WHERE t.rn = 1

(2)修改错误
HIVE作为一种分布式环境下以HDFS为支撑的数据仓库,它同样更多的要求数据是不可变的,基本不用hive做数据更新

可以通过update来修改数据。如果一个表要实现update和delete功能,该表就必须支持ACID(语法是update 表名 set 字段名=“”where 条件)

有点麻烦,换个方法试试看

INSERT overwrite table student
SELECT id
    , if(id = 8, '小曹', name)
    , age, class
FROM student

成功!

2、【案例二】去重用逗号分隔

【需求】根据name做group by,每个人的课程去重用逗号分隔,为string格式

【技术点】collect_set、concat_ws

【实现步骤】
(1)collect_set 去重取值
Hive中支持将某列转为一个数组返回的函数有collect_list和collect_set。不同的是collect_list不去重,而collect_set去重。

SELECT name,collect_set(class)
FROM student
GROUP BY name

(2)CONCAT的拼接
Hive中支持将list拼接为string的为concat和concat_ws,concat对字符串按次序进行拼接,concat_ws指定分隔符,进行拼接

SELECT name,concat_ws(',',collect_set(class))
FROM student
GROUP BY name
3、【案例三】生成md5编号

【需求】根据name、class、age为每一行生成一个md5编号
【技术点】md5、concat、cast

【实现步骤】
Hive提供md5(string/binary)返回md5码;concat支持把不同类型的字段组装;cast支持字段类型的转换

SELECT name,md5(CAST(concat(name, class, CAST(age AS STRING)) AS BINARY))
FROM student
# 简化版
SELECT name,md5(concat(name,class,age))
FROM student
4、【案例四】各类格式日期生成

【需求】每一行增加5个字段:
字段一为此刻的时间格式为“yyyy-MM-dd hh:mm:ss";
字段二为此刻的时间戳格式;
字段三为“XXXX年XX月XX日”格式的此刻时间;
字段四为减去90天的时间,格式为“yyyy-MM-dd"

【技术点】current_timestamp、unix_timestamp、from_unixtime、date_sub

【实现步骤】
Hive使用current_timestamp()获得当前时间,格式为“yyyy-MM-dd hh:mm:ss";
格式转换方面,unix_timestamp用于转换time string为时间戳格式,from_unixtime支持将时间戳转换为time string
日期差值方面,datediff(string enddate,string startdate)返回结束日期减去开始日期的天数;date_add(string startdate, int days)返回开始日期startdate增加days天后的日期;date_sub (string startdate,int days)返回开始日期startdate减去days天后的日期,返回yyyy-MM-dd日期格式

SELECT current_timestamp() as a
    ,unix_timestamp() as b
    ,from_unixtime(unix_timestamp(),'yyyy年MM月dd日') as c
    ,date_sub(CAST(current_timestamp() AS DATE),30) as d
FROM student
5、【案例五】数量大于某个值

【需求】输出name出现行数大于1的完整信息
【技术点】a.*

【实现步骤】
因为需要指定要输出完整信息,SELECT * FROM student group by name是不合理、无法运行、无法输出完整信息的。

SELECT a.*
FROM (
    SELECT *
    FROM student
) a
    INNER JOIN (
        SELECT name
        FROM student
        GROUP BY name
        HAVING COUNT(name) > 1
    ) b
    ON a.name = b.name
SELECT *
FROM student
WHERE student.name IN (
    SELECT name
    FROM student
    GROUP BY name
    HAVING COUNT(name) > 1
)
6、【案例六】多表匹配

【需求】获得不在黑名单的student信息

【技术点】left join、full outer join、right join、inner join

比较inner join、full join、left join、right join的效果

【实现步骤】

SELECT a.*
FROM student a
    LEFT JOIN (
        SELECT name
        FROM black_name
    ) b
    ON a.name = b.name
    WHERE b.name is NULL
7、【案例七】[{[]}]格式

【需求】输出字段info,该字段内容为:[{'name':name,'class':['奥数']}]。要求最外面为[],中间为{},class字段对应为[]

【技术点】str_to_map,named_struct

【实现步骤】
str_to_map支持将文本转换为{}形式,但显然是无法满足当前需求的
str_to_map('aaa:11&bbb:22', '&', ':')
发现函数named_struct可以实现该功能
named_struct('type', name, 'info', collect_set(class))

三、备注

参考资料

[1] Hive外部表和内部表的使用场景:https://blog.csdn.net/qq_34341930/article/details/89032791
[2] 《HIVE编程指南》

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,324评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,356评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,328评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,147评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,160评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,115评论 1 296
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,025评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,867评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,307评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,528评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,688评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,409评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,001评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,657评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,811评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,685评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,573评论 2 353

推荐阅读更多精彩内容

  • 时间:2017-08-16 19:36:53来源:CSDN Hive 是基于Hadoop 构建的一套数据仓库分析系...
    majyer阅读 1,480评论 0 2
  • Hive 是基于Hadoop 构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop 分...
    三万_chenbing阅读 12,143评论 0 10
  • pyspark.sql模块 模块上下文 Spark SQL和DataFrames的重要类: pyspark.sql...
    mpro阅读 9,451评论 0 13
  • Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能。本...
    felix521阅读 1,304评论 0 0
  • 啊啊啊啊啊啊啊啊啊啊啊… 吃饭不老实的孩子出门包里要常备一次性雨衣,吃饭的时候套上。这样妈妈就再也不会吼我衣服上的...
    亮亮929阅读 36评论 0 0