测试ClickHouse中写入Parquet格式数据到Hive

先在HDFS创建目录

hdfs dfs -mkdir -p /user/hive/warehouse/test.db/hdfsParquet/

在CK创建表

create table hdfsParquet(id Int16,name String)
 engine=HDFS('hdfs://node1:8020/user/hive/warehouse/test.db/hdfsParquet/a.Parquet','Parquet');
  

创建CK表成功

insert into hdfsParquet values(1,'zhangsan');

写入成功,

到HDFS上查看一下

hdfs dfs -text /user/hive/warehouse/test.db/hdfsParquet/a.Parquet
image.png

看到数据啦

创建HIVE表关联刚刚的文件

drop table if exists hdfsParquet;
create external table if not exists hdfsParquet (
 id   int ,
 name string
)
stored as parquet
location '/user/hive/warehouse/test.db/hdfsParquet';

执行查询语句

select * from hdfsParquet;

image.png

数据出来啦!!

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容