我在3台虚拟机上安装了hadoop3.1.1,在ubuntu上安装了vmware。当我运行hdfs namenode-format和start-all.sh时,jps在我的主节点和两个从节点上正常工作。
但是,使用hdfs dfsadmin-report命令,我只能看到一个活动数据节点(当我检查时得到相同的结果)master:50070 or 8088).
我试图禁用防火墙如下:ufw disable,但它没有解决问题。这三台机器可以通过ping和ssh相互连接(无passwd)。我还删除了hadoop tmp文件夹,其中包含datanode和namenode文件夹,但效果不好。日志文件中也没有显示任何问题。
你有没有解决办法让三个活动数据节点而不是一个?谢谢。
以下是我的配置文件:
yarn-site.xml文件
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8025</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8035</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8050</value>
</property>
</configuration>
hdfs-site.xml文件
<configuration>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop_tmp/hdfs/datanode</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop_tmp/hdfs/namenode</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>master:50070</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
core-site.xml文件
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000/</value>
</property>
<property>
<name>fs.default.FS</name>
<value>hdfs://master:9000/</value>
</property>
</configuration>
工人
master
slave1
slave2
1条答案
按热度按时间qacovj5a1#
我找到了解决办法。问题是防火墙。但“ufw”没用。我需要执行这些命令: