如何在pyspark jdbc overwrite中覆盖union表?

syqv5f0l  于 2021-07-13  发布在  Spark
关注(0)|答案(0)|浏览(179)

第一步。old_df=pyspark jdbc读取表并生成Dataframe
第二步。new\u df=请求api并生成Dataframe
第三步。旧的和新的有相同的模式(printschima是相同的)
第四步。union\u df=从旧的\u df union选择col1、col2、col2从新的\u df union选择col1、col2、col2
第五步。union\u df.jdbc.write(mode=“overwrite”).option(“truncate”,“true”),,,
我希望覆盖unino\u df的所有行。但表只被新的\u df覆盖
我该怎么做?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题