spark任务执行记录
背景:利用pyspark join表,随后写入hive;代码中包含三个写入操作
hiveContext.sql(sql_join).write.saveAsTable("stage_data.users_basic_tmp")。
查看任务被分为三个job

image.png
- 第1个任务比较简单,只有一个stage即完成了。

image.png
- 第二个任务比较大,共分为7个stage

image.png

image.png
进入每个stage可查看任务执行状况

image.png
也可以查看每个阶段的执行情况

image.png
最终执行完成的结果

image.png
完