spark任务执行记录
背景:利用pyspark join表,随后写入hive;代码中包含三个写入操作
hiveContext.sql(sql_join).write.saveAsTable("stage_data.users_basic_tmp")
。
查看任务被分为三个job
- 第1个任务比较简单,只有一个stage即完成了。
- 第二个任务比较大,共分为7个stage
进入每个stage可查看任务执行状况
也可以查看每个阶段的执行情况
最终执行完成的结果
完
spark任务执行记录
背景:利用pyspark join表,随后写入hive;代码中包含三个写入操作
hiveContext.sql(sql_join).write.saveAsTable("stage_data.users_basic_tmp")
。
进入每个stage可查看任务执行状况
也可以查看每个阶段的执行情况
最终执行完成的结果
完