为什么spark2.4更新spark3.0 sparksql insert overwrite table no data

laawzig2  于 2021-05-17  发布在  Spark
关注(0)|答案(0)|浏览(372)
create external table test (a int) PARTITIONED BY(ptime string) STORED AS PARQUET LOCATION '/test/a';

alter table test add partition (ptime=20201111) location "20201111";

insert overwrite table test partition (ptime=20201111) select 1;

....

在spark2.4中,这个sql很好,但是在spark3.0中,/test/a/20201111中没有数据,只有/test/a/\u成功,为什么,我如何解决它谢谢

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题