aws emr-如何扩展hdfs容量

xhv8bpkk  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(332)

我们的集群有两个核心节点,dfs容量很小,需要增加。
我向核心节点示例添加了一个500gb的新卷,并将其装载到/mnt1,并更新了主节点和核心节点中的hdfs-site.xml。

<property>
    <name>dfs.datanode.dir</name>
    <value>/mnt/hdfs,/mnt/hdfs1</value>
  </property>

然后我重新启动了hadoop hdfs namenode和hadoop hdfs datanode服务。但是由于新的卷,datanode正在关闭。
2018-06-19 11:25:05484致命org.apache.hadoop.hdfs.server.datanode.datanode(datanode:[[磁盘]文件:/mnt/hdfs/,[磁盘]文件:/mnt/hdfs1]]心跳到ip-10-60-12-232.ap-south-1.compute.internal/10.60.12.232:8020:初始化块池(datanode uuid unassigned)服务到ip-10-60-12-232.ap-south-1.compute.internal/10.60.12.232:8020失败。
正在退出。org.apache.hadoop.util.diskchecker$diskerrorexception:失败的卷太多-当前有效卷:1,配置的卷:2,失败的卷:1,允许的卷失败:0
在搜索时,我看到有人建议格式化namenode,以便将块池id分配给两个卷。如何解决此问题?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题