一:API
saveAsTable 会根据表的schema匹配df的字段进行存储
insertInto,要求表的schema与df必须一致才可以
对于Hive分区表的写入,insertInto要待参数覆盖为True,这样每次会覆盖分区。注意不要使用saveAsTable!,会将全表覆盖,
正确语句,具体变化参考pyspark版本:
df.write.format("hive").insertInto("dev.dev_rep_rebate_bjcouple_partion_orc",True)
二:sql方式
将df创建为临时表,再使用spark.sql 里传hive语句insert select。。。。。。。。。