库操作
# 标准做法
create database if not exists test;
# 直接创建
create database test;
# 指定数据库位置
create database if not exists test location '/user/zz/hive/workspace/test' ;
# 查询所有库
show databases;
# 模糊查询库(查询test开头的库)
show databases like "test*"
# 使用库(库的名字是test)
use test;
#描述库
desc database test
desc database extended test ;
#删除库
drop database test;
#展示库中的表
show tables in test;
表操作
创建内部表,默认存储在/user/hive/warehouse下,也可以通过location指定,删除表时,会删除hdfs中的数据以及元数据;
场景外部表,外部表称之为EXTERNAL_TABLE,在创建表时可以自己指定目录位置(LOCATION),删除表时,只会删除元数据不会删除hdfs中的数据。
创建表语法:
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
[(col_name data_type [COMMENT col_comment], ...)]
[COMMENT table_comment]
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]
[CLUSTERED BY (col_name, col_name, ...) [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]
[
[ROW FORMAT row_format] [STORED AS file_format]
| STORED BY 'storage.handler.class.name' [ WITH SERDEPROPERTIES (...) ]
]
[LOCATION hdfs_path]
[TBLPROPERTIES (property_name=property_value, ...)] [AS select_statement] CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
LIKE existing_table_name
[LOCATION hdfs_path]
data_type
: primitive_type
| array_type
| map_type
| struct_type
primitive_type
: TINYINT
| SMALLINT
| INT
| BIGINT
| BOOLEAN
| FLOAT
| DOUBLE
| STRING
array_type
: ARRAY < data_type >
map_type
: MAP < primitive_type, data_type >
struct_type
: STRUCT < col_name : data_type [COMMENT col_comment], ...>
row_format
: DELIMITED [FIELDS TERMINATED BY char] [COLLECTION ITEMS TERMINATED BY char]
[MAP KEYS TERMINATED BY char] [LINES TERMINATED BY char]
| SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value, property_name=property_value, ...)]
file_format:
: SEQUENCEFILE
| TEXTFILE
| RCFILE (Note: only available starting with 0.6.0)
| INPUTFORMAT input_format_classname OUTPUTFORMAT output_format_classname
1、CREATE TABLE
创建一个指定名字的表。如果相同名字的表已经存在,则抛出异常;
用户可以用 IF NOT EXISTS 选项来忽略这个异常。
2、EXTERNAL
可以让用户创建一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION)。Hive 创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据.
3、LIKE
允许用户复制现有的表结构,但是不复制数据。
4、ROW FORMAT DELIMITED
是用来设置创建的表在加载数据的时候,支持的列分隔符。
Hive默认的分隔符是\001,属于不可见字符,这个字符在vi里是^A
5、STORED AS
文件数据格式。
如果文件数据是纯文本,可以使用 STORED AS TEXTFILE。
如果数据需要压缩,使用 STORED AS SEQUENCEFILE。
6、CLUSTERED BY
对于每一个表(table)或者分区, Hive可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分。Hive也是 针对某一列进行桶的组织。Hive采用对列值哈希,然后除以桶的个数求余的方式决定该条记录存放在哪个桶当中。
7、LOCATION
指定加载数据路径(指定在hdfs上的位置).针对的extetnal外部表,要指定存储路径,不指定也没事,默认路径。内部表不用指定,默认路径/user/hive/warehouse
CREATE TABLE创建一个具有给定名称的表。如果已存在具有相同名称的表或视图,则会引发错误。您可以使用IF NOT EXISTS跳过错误。
8、PARTITIONED BY
给表做分区,决定了表是否是分区表。
9.TBLPROPERTIES
指定配置属性
10.SKEWED BY
指定倾斜字段及值
三种创建表的方式
1.直接创建
create table temp.temp_create_table_test (
col1 string comment "字段1",
col2 int comment "字段2"
)
comment "测试"
partitioned by (part_col string comment "分区字段")
clustered by (col1) sorted by (col1 desc) into 2 buckets
skewed by (col1) on ((2), (3))
row format delimited fields terminated by "\t"
stored as parquet
location "/user/hive/warehouse/test.db/create_table_test"
tblproperties("parquet.compression"="snappy");
2.复制表结构创建
create table test.create_table_like_test like test.create_table_test;
3.通过子查询创建表
create table test.create_table_as_test as
select col1, col2 from test.create_table_test where part_col = '2';
展示表的创建语句:
show create table create_table_test;
展示表结构
desc create_table_test;
查找表数据
基本与sql语句一致
#查询全部
select * from create_table_test;
#根据分区查询
select col1, col2 from create_table_test where part_col = '2';
删除表
drop table create_table_test;
#删除表中数据保留表结构
truncate table iot_devicelocation;
hive作为数据仓库,与数据库还是有本质的区别,hive不支持单条数据的删除和修改,按照网上的说法是可以操作,需要进行一些配置,但是配置成功后,操作还是有很多问题的,而且这也违背了数据仓库的本来作用,所以不建议去增加单条数据修改的配置
分区表下一篇单独说明,这篇没对分区表做过多介绍