hadoop.tmp.dir的版本文件有什么用

0ve6wy6x  于 2021-05-31  发布在  Hadoop
关注(0)|答案(2)|浏览(301)

最近我格式化了namenode,在启动hadoop守护进程时,datanode失败并给出如下错误
2019-01-11 10:39:15449 warn org.apache.hadoop.hdfs.server.common.storage:添加存储目录[disk]文件失败:/app/hadoop/tmp/dfs/data/java.io.ioexception:incompatible clusterids in/app/hadoop/tmp/dfs/data:namenode clusterid=cid-76c39119-061a-4ecf-9de1-3a6610ca57dd;数据节点群集ID=cid-90359d7f-b1a5-431e-8035-bc4b9e2ea8b9
作为解决方案,我删除了tmp并再次创建了它的工作文件,还将namenode cid复制到它开始工作的版本文件中的datanode cid。
在查看我的备份时,我可以看到datanode和namenode的cid是不同的,这在更早的时候就开始工作了。
有人能提供一些细节,每个值代表什么,两个cid需要相同或不同吗?
存储ID=ds-7628c4d7-a508-406c-94fa-9b00f45b4f42
群集ID=cid-73f3a584-4a8a-4260-856c-5a2062b6ae61
时间=0
数据节点UID=40834363-2025-4e9a-bb1e-e489bf13cad9
storagetype=数据\节点
布局版本=-57
名称空间ID=1181871748
群集ID=cid-73f3a584-4a8a-4260-856c-5a2062b6ae61
时间=1547187830726
storagetype=name\u节点
区块池ID=bp-2120424576-127.0.1.1-1547187830726
布局版本=-63

uqzxnwby

uqzxnwby1#

datanode和namenode中的集群id必须相同,或者删除 <dfs.datanode.data.dir> /目录和 <dfs.namenode.name.dir> /目录并格式化名称节点,以使用集群id的新副本启动hdfs集群。有关更多详细信息,请参阅hadoop教程网站

n1bvdmb6

n1bvdmb62#

主版本文件中的值充当数据节点的身份验证。只有有效的数据节点才能加入群集。当datanode加入集群时,它只能通过版本文件中的值进行身份验证。希望这是你的疑问。

相关问题