hadoop mapreduce可写范围有多长?

unhi4e5o  于 2021-05-30  发布在  Hadoop
关注(0)|答案(1)|浏览(385)

hadoopmapreduce是一个分析大数据的框架。所以,分析大数据的一个例子就是计数程序。所以我想问,hadoop的可写范围有多长(如果数据量达到十亿是否合适使用?)。如果我们想计数,我们就用javaint数据类型执行add或count操作,那么javaint数据类型range呢?这也适合分析大数据吗(如果数据持续到10亿)
谢谢。。。。

vpfxa7rd

vpfxa7rd1#

int数据类型是32位有符号2的补码整数。最小值为-2147483648,最大值为2147483647(含)。
intwritable也具有相同的范围容量,因为它只在内部使用int类型。
如果你想超越这个限制,那就使用longwritable。
您可以使用int,long类型作为局部变量,但如果您的计数在网络上移动,则必须使用*writable作为hadoop类型的练习:-)

相关问题