hadoop-按行数拆分文件

8i9zcol2  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(325)

我的hdfs上有一个320000000行的文件,我想把它分成4个文件,最多100000000行。如何按行数拆分文件?
我试着用11重新划分分区,但是分区太大了。我能用命令解决吗?或者通过另一种方式在scala spark?

pw136qt2

pw136qt21#

您可以读取文件,然后写入11个文件。

相关问题