hdfs复制因子

dced5bon  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(441)

我可以为单节点群集提供多个副本吗?我已经将hdfs-site.xml中的复制因子更新为2,并重新启动了所有节点,但仍然只有一个为新文件创建的块,请帮助我弄清楚这一点

j0pj023g

j0pj023g1#

不可以。对于单个节点群集,不能有多个复制因子。你凭什么认为这是可能的?
复制是保存数据的过程,以便在任何最坏的情况下都不会丢失数据。如果将其设置为2,则意味着您希望将数据复制到2个节点(计算机)上,这样,如果其中一个节点发生故障,您的数据仍将安全地保存在另一个节点上。
现在,hadoop提供的默认复制是3。这意味着在不同机架上的3个不同节点上将有3个数据复制(拷贝)(这是另一个概念,称为hadoop的机架感知)
因此,您将无法在单个节点群集上获取多个数据副本。我希望它能澄清你的疑问!

相关问题