我正在尝试设置一个apache hadoop 2.3.0集群,我有一个主节点和三个从节点,从节点列在$hadoop\u home/etc/hadoop/slaves文件中,我可以从从节点远程登录到端口9000上的主名称节点,但是当我在任何从节点上启动datanode时,我得到以下异常。
2014-08-03 08:04:27,952致命org.apache.hadoop.hdfs.server.datanode.datanode:块池的初始化失败块池bp-1086620743-xx.xy.23.162-1407064313305(datanode uuid null)服务到server1.mydomain.com/xx.xy.23.162:9000 org.apache.hadoop.ipc.remoteexception(org.apache.hadoop.hdfs.server.protocol.disallowedatanodeexception):datanode拒绝与namenode通信,因为无法解析主机名。
以下是my core-site.xml的内容。
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://server1.mydomain.com:9000</value>
</property>
</configuration>
另外,在我的hdfs-site.xml中,我没有为dfs.hosts或dfs.hosts.exclude属性设置任何值。
谢谢。
1条答案
按热度按时间w1jd8yoj1#
每个节点都需要完全限定的唯一主机名。
你的错误是
无法解析主机名
你能在你的每个从机上cat/etc/hosts文件并使它们有不同的主机名吗
之后再试一次