hadoop集群中的数据存储

gudnpqoy  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(626)

这是一个来自hadoop书籍的问题,我认为答案是200,但这是不正确的。有人能解释吗?
假设hadoop集群中有50个节点,分配给hdfs存储的原始磁盘空间总计为200tb(每个节点4tb)。假设hadoop的默认配置,您可以存储多少数据?

yeotifhr

yeotifhr1#

hdfs具有默认值 replication level 设置为3,因此,除非在创建时明确指定,否则每个数据在hdfs中都有3个副本。
因此,在默认的hdfs配置下,您只能存储200/3tb的实际数据。

相关问题