如何消除hadoop中的连接拒绝错误?

bf1o4zei  于 2021-06-03  发布在  Hadoop
关注(0)|答案(2)|浏览(350)

当我尝试运行hadoop命令时
vinit@ubuntu用法:~/hadoop-1.0.4$bin/hadoop-dfs-ls
我得到以下输出。
2017年4月13日06:26:37信息ipc.client:正在重试连接到服务器:localhost/127.0.0.1:9010。已尝试0次。2017年4月13日06:26:38信息ipc.client:正在重试连接到服务器:localhost/127.0.0.1:9010。已尝试1次。与fs的连接不正确。命令已中止。异常:调用localhost/127.0.0.1:9010连接失败异常:java.net.connectexception:连接被拒绝
我对hadoop甚至java都是新手,请帮帮我!

r55awzrz

r55awzrz1#

检查hdfs进程是否正在运行?运行“jps”命令检查正在运行的java进程。
您应该至少运行“namenode”和“datanode”进程。请检查一下,让我知道。
干杯

fykwrbwg

fykwrbwg2#

为了找出这个问题的答案,我花了两天一夜的时间。
在我的例子中(我确信这在大多数情况下都是问题所在)必须手动创建hadoop临时文件夹并将它们添加到hdfs-site.xml!

<property>

<name>dfs.data.dir</name>

<value>/home/stefan/Downloads/hadoop-2.7.1/tmp/dfs/name/data</value>

<final>true</final> 

</property> 

<property> 

<name>dfs.name.dir</name>

<value>/home/stefan/Downloads/hadoop-2.7.1/tmp/dfs/name</value> 

<final>true</final> 

</property>

我希望这能帮助你们不要像我一样经历地狱。
除此之外

chown user_name hadoop_folder hadoop_temp_folder
chmod 755 hadoop_folder hadoop_temp_folder

相关问题