java—hdfs是否在一个数据节点中存储不可拆分的文件?

rekjcdws  于 2021-06-03  发布在  Hadoop
关注(0)|答案(1)|浏览(321)

对于不可拆分的文件,例如 GZIP 只有一个Map作业,因为 GZIP 文件不可拆分。是否有任何选项或优化,以存储在一个数据节点,这样我们至少可以节省网络带宽的所有块这样的文件?

qxsslcnc

qxsslcnc1#

将gzip文件的hdfs块大小增加到大于文件大小就可以了。有关设置每个文件的hdfs块大小的更多信息,请参见此答案

相关问题