在新的hadoop单节点安装之后,hadoop-root-datanode-localhost.localdomain.log中出现以下错误
2014-06-18 23:43:23,594 ERROR org.apache.hadoop.security.UserGroupInformation: PriviledgedActionException as:root cause:java.net.ConnectException: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused
2014-06-18 23:43:23,595 INFO org.apache.hadoop.mapred.JobTracker: Problem connecting to HDFS Namenode... re-trying java.net.ConnectException: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refusedat org.apache.hadoop.ipc.Client.wrapException(Client.java:1142)
有什么想法吗。?
jps没有给任何输出
core site.xml已更新
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/surya/hadoop-1.2.1/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:54310</value>
<description>The name of the default file system. A URI whose
scheme and authority determine the FileSystem implementation. The
uri's scheme determines the config property (fs.SCHEME.impl) naming
the FileSystem implementation class. The uri's authority is used to
determine the host, port, etc. for a filesystem.</description>
</property>
</configuration>
另外,在使用hadoop namenode的格式上-下面的格式得到了中止的错误
Re-format filesystem in /tmp/hadoop-root/dfs/name ? (Y or N) y
Format aborted in /tmp/hadoop-root/dfs/name
3条答案
按热度按时间yvfmudvl1#
1) 请在控制台中运行“jps”并显示它的输出
2) 请提供core-site.xml(我认为您可能有错误的fs.default.name)
unguejic2#
您需要以hdfs超级用户的身份运行hadoop namenode-format。可能是“hdfs”用户本身。
提示如下:
要考虑的另一件事是:您确实希望将hdfs根目录移动到/tmp以外的其他位置。在清理/tmp时,您可能会丢失hdfs内容(这种情况随时可能发生)
根据op评论更新。
回复:jobtracker无法联系namenode:请不要跳过步骤。
首先确保格式化namenode
然后启动namenode和datanodes
运行一些基本的hdfs命令,例如
hdfs dfs-输入
和
然后可以启动jobtracker和tasktracker
然后(而不是更早)您可以尝试运行一些mapreduce作业(使用hdfs)
q5lcpyga3#
关于这个错误:
您需要使用大写y,而不是小写y,以便它接受输入并实际执行格式化。