我有一个大小为11gb的hdfs文件。我想把它分成多个1 gb的文件。我该怎么做?我的hadoop版本是2.7.3
brvekthn1#
如果你有Spark,试试下面-下面的示例将输入文件拆分为两个文件: spark-shell ```scala> sc.textFile("/xyz-path/input-file",2).saveAsTextFile("/xyz-path/output-file")
spark-shell
1条答案
按热度按时间brvekthn1#
如果你有Spark,试试下面-
下面的示例将输入文件拆分为两个文件:
spark-shell
```scala> sc.textFile("/xyz-path/input-file",2).saveAsTextFile("/xyz-path/output-file")