如何在另一个ubuntu中写入外部hdfs?

zsbz8rwp  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(335)

我有两台ubuntu机器。
假设a(10.10.1.1)和b(10.10.1.2)。
使用机器a,我想写入机器b的hdfs(a->b)

我已经试过了

我在a机上打字

hdfs dfs -mkdir hdfs://10.10.1.2:9000/user/zz

导致了错误 mkdir: Call From MYNAME/10.10.1.1 to 10.10.1.2:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused 在a机上,我已经打字了

hdfs dfs -mkdir hdfs://10.10.1.2:50010/user/zz

导致了错误 mkdir: End of File Exception between local host is: "MYNAME/10.10.1.1"; destination host is: "10.10.1.2":50010; : java.io.EOFException; For more details see: http://wiki.apache.org/hadoop/EOFException ###我的配置
机器b中的core-site.xml

<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://localhost:9000</value>
        </property>
        <property>
                 <name>hadoop.tmp.dir</name>
                 <value>/data</value>
         </property>
</configuration>

机器a中的core-site.xml

<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://10.10.1.2:9000</value>
        </property>
</configuration>

我真的在等你的答案。
提前谢谢!

yrdbyhpb

yrdbyhpb1#

我通过修改/etc/hosts文件解决了这个问题。
正如connectiondenied error所说,ubuntu因将主机名Map到127.0.0.1而臭名昭著。

相关问题