hadoop3.1.1只显示一个活动数据节点

x4shl7ld  于 2023-04-05  发布在  Hadoop
关注(0)|答案(1)|浏览(566)

我在3台虚拟机上安装了hadoop3.1.1,在ubuntu上安装了vmware。当我运行hdfs namenode-format和start-all.sh时,jps在我的主节点和两个从节点上正常工作。
但是,使用hdfs dfsadmin-report命令,我只能看到一个活动数据节点(当我检查时得到相同的结果)master:50070 or 8088).
我试图禁用防火墙如下:ufw disable,但它没有解决问题。这三台机器可以通过ping和ssh相互连接(无passwd)。我还删除了hadoop tmp文件夹,其中包含datanode和namenode文件夹,但效果不好。日志文件中也没有显示任何问题。
你有没有解决办法让三个活动数据节点而不是一个?谢谢。
以下是我的配置文件:
yarn-site.xml文件

<configuration>
<property>
  <name>yarn.resourcemanager.hostname</name>
  <value>master</value>
</property>
<property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>master:8025</value>
</property>
<property>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>master:8035</value>
</property>
<property>
    <name>yarn.resourcemanager.address</name>
    <value>master:8050</value>
</property>
</configuration>

hdfs-site.xml文件

<configuration>
<property>
    <name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop_tmp/hdfs/datanode</value>
    <final>true</final>
</property>
<property>
    <name>dfs.namenode.name.dir</name>
    <value>/usr/local/hadoop_tmp/hdfs/namenode</value>
    <final>true</final>
</property>
<property>
    <name>dfs.namenode.http-address</name>
    <value>master:50070</value>
</property>
<property>
    <name>dfs.replication</name>
<value>3</value> 
</property>
</configuration>

core-site.xml文件

<configuration>
<property>
    <name>fs.default.name</name>
    <value>hdfs://master:9000/</value>
</property>
<property>
    <name>fs.default.FS</name>
    <value>hdfs://master:9000/</value>
</property>
</configuration>

工人

master
   slave1
   slave2
qacovj5a

qacovj5a1#

我找到了解决办法。问题是防火墙。但“ufw”没用。我需要执行这些命令:

sudo iptables -L -v
sudo iptables -F
sudo iptables -X
sudo iptables -t nat -F
sudo iptables -t nat -X
sudo iptables -t mangle -F
sudo iptables -t mangle -X
sudo iptables -P INPUT ACCEPT
sudo iptables -P FORWARD ACCEPT
sudo iptables -P OUTPUT ACCEPT

相关问题