我可以找到关于hadoop集群中某个节点退役过程的信息,但找不到退役节点中的数据发生了什么。我找到的唯一信息是tariq给出的答案,在decommissioning一个节点是否会从该节点删除数据?我的疑问是关于旧节点的重新分配。如果数据丢失,则与调试新节点相同。问题解决了。但是,如果数据没有丢失,当我们重新传输它时,此节点中存在的块将成为冗余的,因为这些块在停用过程中已经被复制。这导致块的副本不一致。hadoop框架如何处理这种情况?
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!