使用查询将TB大小的json或csv文件加载到mysql的最快方法?

wribegjk  于 2021-06-20  发布在  Mysql
关注(0)|答案(0)|浏览(150)

我有一个TB大小的json数据,几乎有2亿多行。我想通过并行化以最快的方式将这些数据加载到mysql中。具体说明:我尝试过通过将json转换为csv文件来加载数据本地填充。。但这也需要很多时间…有没有更好的选择??

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题