我读了其他关于hadoop的hdfs配置问题的文章。但是,没有一个是有用的。所以,我发布了我的问题。我遵循了hadoopv1.2.1的教程。当我运行hadoop fs-ls命令时,出现了以下错误:
16/08/29 15:20:35 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
我的core-site.xml文件是:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/mnt/miczfs/hadoop/tmp/${user.name}</value>
</property>
</configuration>
另外,我的hdfs-site.xml文件如下:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/mnt/miczfs/hadoop/hdfs/${user.name}/namenode</value>
</property>
<property>
<name>dfs.secondary.http.address</name>
<value>localhost:0</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/mnt/miczfs/hadoop/hdfs/${user.name}/datanode</value>
</property>
<property>
<name>dfs.datanode.address</name>
<value>localhost:0</value>
</property>
<property>
<name>dfs.datanode.http.address</name>
<value>localhost:0</value>
</property>
<property>
<name>dfs.datanode.ipc.address</name>
<value>localhost:0</value>
</property>
</configuration>
而/etc/hosts是这样的:
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
172.31.1.1 micrasrelmond.local micrasrelmond #Generated-by-micctrl
172.31.1.1 mic0.local mic0 #Generated-by-micctrl
如果可能的话,请帮助我。谢谢
1条答案
按热度按时间ilmyapht1#
首先通过jps命令检查namenode是否正在运行。如果它正在运行,那么使用bin/hadoopnamenode-format命令格式化名称节点。
为了避免每次重新启动后格式化namenode,请将hdfs默认目录更改为其他位置。