在mapreduce中计算输入拆分

ep6jt1vc  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(451)

文件存储在大小为260 mb的hdfs中,而hdfs的默认块大小为64 mb。在对这个文件执行map reduce作业时,我发现它创建的输入分割数只有4个。它是怎么计算出来的。?剩下的4MB在哪里。?任何意见都将不胜感激。

sxissh06

sxissh061#

输入拆分并不总是块大小。输入拆分是数据的逻辑表示。您的输入拆分可能是63mb、67mb、65mb、65mb(或者可能是基于逻辑记录大小的其他大小)。。。请参阅下面链接中的示例。。。
hadoop输入拆分大小与块大小
另一个例子-见第3.3节。。。

相关问题