在上一节,我们其实已经安装好了Presto server,所以,这里只是简单的说一说如何体验一下presto的操作。
上一节的URL:
https://www.jianshu.com/p/f69268fa14dd
本文参考URL:
https://blog.csdn.net/weixin_44131414/article/details/102629063
https://blog.csdn.net/weixin_41008393/article/details/90269228
Presto简介
Presto通过使用分布式查询,可以快速高效的完成海量数据的查询。如果你需要处理TB或者PB级别的数据,那么你可能更希望借助于Hadoop和HDFS来完成这些数据的处理。作为Hive和Pig(Hive和Pig都是通过MapReduce的管道流来完成HDFS数据的查询)的替代者,Presto不仅可以访问HDFS,也可以操作不同的数据源,包括:RDBMS和其他的数据源(例如:Cassandra)。Presto被设计为数据仓库和数据分析产品:数据分析、大规模数据聚集和生成报表。这些工作经常通常被认为是线上分析处理操作
既然在上一节,已安装好了Presto Coordinator服务,那这一节,只需要使用Presto CLI来连接操作就可以了。
下载Presto CLI
这里我随便找了个CLI版本,也是OK的。
https://repo1.maven.org/maven2/com/facebook/presto/presto-cli/0.219/presto-cli-0.219-executable.jar
为了极速,我将这个文件cp进了上一节的Presto Coordinator容器内,直接实践。
docker cp ./presto 37cfb912841f:/opt/presto/prosto
- 这里的presto是下载的jar包改的名,37cfb912841f是我启动时的Coordinator容器名。
CLI连接Server
./presto --server 127.0.0.1:8080 --catalog hive --schema default
show schemas;
show tables from default;
select * from default.pokes;
- 此次到此为止,还有其它事作呢~