unit(petabyte/pebibyte等)混淆是bug吗?

06odsfpq  于 2021-05-27  发布在  Hadoop
关注(0)|答案(1)|浏览(313)

命令 hdfs dfsadmin -report 输出一些行作为

Configured Capacity: 28099161931345920 (24.96 PB)

其中第一个数字是字节数,括号是24.96pb,问题是:petabyte还是pebibyte?
   24.96 = 28099161931345920/250       以及    28.1 = 28099161931345920/1015
维基百科引用了许多来源的共识,如nist公约:pebibyte(250)的缩写pib和petabyte(1015)的缩写pb。
所以这很混乱,似乎是hadoop的hdfs报告中的一个bug。。。所以问题是
hadoop社区使用不同的约定,还是一个bug?

注意事项

与TB/tebibyte等相同的错误。
关于haddop还有其他约定。。。按命令 hdfs dfs -df -h 它使用字母“p”(而不是“pb”或“pib”)来表示相同的单位。
我们使用的是haddop版本2.7。可能是一个旧的bug,在新版本中修复了(如果是这样的话,请发表评论)。

t2a7ltrp

t2a7ltrp1#

原始字节是 2809... 字节,而数字不是 28.09 PiB ,则表示它不是10字节的幂。
我不认为是虫子。当你购买任何硬盘,它可能会说1 tb,但它实际上不是一个完整的兆兆字节,它是一个兆字节。

相关问题