将sparkdataframe保存为SparkScala中的配置单元表:hdp3.x

hgc7kmma  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(225)

我想在配置单元分区表中保存Dataframe。目前我正在使用以下代码。

df.write.format("orc").mode("Append").save("external_table_path")

在保存数据时,有没有办法把它保存在分区表中?我不能在这里指定“.partitionby”选项。我尝试了saveastable和insertinto,但它在hdp中不起作用。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题