无法使用spark connector将大型文档向上插入到SDB

lvmkulzt  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(188)

我正在尝试向cosmos数据库中插入一个文件,并且不断收到“太多请求”错误。
要升级的文件:大小为58MB,记录数为100k。
配置:
吞吐量:自动缩放,最大10000 rus/s
写入批量大小:使用默认值1000、5000尝试。。他们都没用。
我试着把Dataframe分成5个大小为20000的块,结果成功了。但是,每个区块仍然需要30分钟到1小时。
请帮帮我

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题