Spark从入门到精通25:Spark SQL 之 Dataset

DataFrame虽然可以让Spark更好的处理结构化数据,但是存在编译时类型安全检查的问题。为此,Spark 1.6起对DataFrame进行了扩展,形成了一套新的API 即Dataset。本节就来介绍Dataset的相关知识。

1.什么是Dataset

Dataset是一个分布式的数据收集器。这是在Spark1.6之后新增的一个编程接口(API),兼顾了RDD优点(即强类型,可以使用功能强大的lambda表达式等)以及Spark SQL的执行器高效性的优点。所以可以把DataFrame看作是一种特殊的Dataset,即Dataset(Row)。

2.Dataset与DataFrame的关系

Dataset兼顾了RDD和DataFrame的优点,是对二者功能的进一步扩展和升级。Dataset与RDD和DataFrame的关系如下图所示:

image

3.创建Dataset

3.1使用序列创建Dataset

(1)定义case class

scala> case class MyData(a:Int, b:String)
defined class MyData

(2)生成序列数据

scala> val myseq = Seq(MyData(1,"Tom"), MyData(2, "Mary"))
myseq: Seq[MyData] = List(MyData(1,Tom), MyData(2,Mary))

(3)转换成Dataset

scala> val ds = myseq.toDS
ds: org.apache.spark.sql.Dataset[MyData] = [a: int, b: string]

(4)查看结果

scala> ds.show

image

3.2使用JSON数据创建Dataset

(1)定义case class

scala> case class Person(name:String, gender:String)
defined class Person

(2)读取JSON数据生成DataFrame

scala> val df = spark.read.json(sc.parallelize("""{"gender":"Male","name":"Tom"}"""::Nil))
df: org.apache.spark.sql.DataFrame = [gender: string, name: string]

(3)将DataFrame转换成Dataset

scala> val ds = df.as[Person]
ds: org.apache.spark.sql.Dataset[Person] = [gender: string, name: string]

(4)查看结果

scala> ds.show

image

3.3使用HDFS数据创建Dataset

(1)读取HDFS数据

# hdfs dfs -cat /input/data.txt
I love Beijing
I love China
Beijing is the capital of China

scala> val linesDF = spark.read.text("hdfs://master:9000/input/data.txt")
linesDF: org.apache.spark.sql.DataFrame = [value: string]

(2)转换成Dataset

scala> val linesDS = linesDF.as[String]
linesDS: org.apache.spark.sql.Dataset[String] = [value: string]

(3)显示长度大于3个字符的单词

scala> val result = linesDS.flatMap(.split(" ")).filter(.length > 3)
result: org.apache.spark.sql.Dataset[String] = [value: string]
scala> result.show

image

(4)执行Wordcount程序

scala> val result = linesDS.flatMap(.split(" ")).map((,1)).groupByKey(x=>x._1).count
result: org.apache.spark.sql.Dataset[(String, Long)] = [value: string, count(1): bigint]
scala> result.orderBy($"value").show

image

4.操作Dataset案例

数据:员工信息emp.json,部门信息dept.csv

(1)建立Dataset,查询薪水大于3000元的员工信息

scala> case class Emp(empno:Long, ename:String, job:String,
hiredate:String, mgr:String, sal:Long, comm:String, deptno:Long)
defined class Emp
scala> val empDF = spark.read.json("file:///root/input/emp.json")
empDF: org.apache.spark.sql.DataFrame = [comm: string, deptno: bigint ... 6 more fields]
scala> val empDS = empDF.as[Emp]
empDS: org.apache.spark.sql.Dataset[Emp] = [comm: string, deptno: bigint ... 6 more fields]
scala> empDS.filter(_.sal > 3000).show

image

(2)查询10号部门的员工信息

scala> empDS.filter(_.deptno == 10).show

image

(3)多表查询:查询每个员工的部门信息

创建部门表:

scala> case class Dept(deptno:Int, dname:String, loc:String)
defined class Dept
scala> val deptRDD = sc.textFile("file:///root/input/dept.csv").map(_.split(","))
deptRDD: org.apache.spark.rdd.RDD[Array[String]] = MapPartitionsRDD[29] at map at <console>:24
scala> val deptDS = deptRDD.map(x=>Dept(x(0).toInt,x(1),x(2))).toDS
deptDS: org.apache.spark.sql.Dataset[Dept] = [deptno: int, dname: string ... 1 more field]

创建员工表:

scala> case class Emp(empno:Long, ename:String, job:String,
hiredate:String, mgr:String, sal:Long, comm:String, deptno:Long)
defined class Emp
scala> val empRDD = sc.textFile("file:///root/input/emp.csv").map(_.split(","))
empRDD: org.apache.spark.rdd.RDD[Array[String]] = MapPartitionsRDD[33] at map at <console>:24
scala> val empDS = empRDD.map(x=>Emp(x(0).toInt,x(1),x(2),x(3),
x(4),x(5).toInt,x(6),x(7).toInt)).toDS
empDS: org.apache.spark.sql.Dataset[Emp] = [empno: bigint, ename: string ... 6 more fields]

执行多表查询:使用join实现等值连接

scala> val result = deptDS.join(empDS,"deptno")
result: org.apache.spark.sql.DataFrame = [deptno: int, dname: string ... 8 more fields]
scala> result.show

image

另一种写法:使用joinWith实现等值连接

scala> val result = deptDS.joinWith(empDS, deptDS("deptno")===empDS("deptno"))
result: org.apache.spark.sql.Dataset[(Dept, Emp)] = [_1: struct<deptno: int, dname: string ... 1 more field>, _2: struct<empno: bigint, ename: string ... 6 more fields>]
scala> result.show

image

注意:joinWith中的第二个参数是一个条件表达式,“等于”用“===”表示;joinWith和join的区别是,连接后新的Dataset的Schema(表结构)会不一样。

查看执行计划:

scala> result.explain

image
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,258评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,335评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,225评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,126评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,140评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,098评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,018评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,857评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,298评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,518评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,678评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,400评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,993评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,638评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,801评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,661评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,558评论 2 352

推荐阅读更多精彩内容