Spark - SQL查询文件数据

> 有时候有没有这么一种情况,我拿到了一个sql,csv,parquet文件,一起来就想写sql,不想写那些乱七八糟的的东西,只是想快速实现我要的聚合查询数据。那么我们可以利用spark-sql直接操作文件的特性处理这类的需求,姐姐再也不用担心我不会spark了,因为我就只会sql。

## 使用方法

csv

```

spark.sql("select * from csv.`/tmp/demo.csv`").show(false)

```

json

```

spark.sql("select * from json.`/tmp/demo.json`").show(false)

```

parquet

```

spark.sql("select * from parquet.`/tmp/demo.parquet`").show(false)

```

![](https://upload-images.jianshu.io/upload_images/9028759-054b37583ddfab28.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

---

![](https://upload-images.jianshu.io/upload_images/9028759-07315bb8dadcd082.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • > 在Flink中我们有时候需要分析数据1点到2点的范围,可是经过Region又比较慢,这时候我们就可以定制`Ta...
    kikiki4阅读 208评论 0 1
  • > 通过spark-submit会固定占用一占的资源,有什么办法,在任务不运作的时候将资源释放,让其它任务使用呢,...
    kikiki4阅读 163评论 0 1
  • > 在spark的数据源中,只支持Append, Overwrite, ErrorIfExists, Ignore...
    kikiki4阅读 146评论 0 1
  • > 昨天有位大哥问小弟一个Spark问题,他们想在不停Spark程序的情况下动态更新UDF的逻辑,他一问我这个问题...
    kikiki4阅读 428评论 0 1
  • > 如果我们的Mysql服务器性能不咋滴,但是硬盘很够,如何才能做各种复杂的聚合操作?答案就是使用spark的计算...
    kikiki4阅读 400评论 0 2