在配置hadoop 0.23.8时需要帮助吗

nwnhqdif  于 2021-06-04  发布在  Hadoop
关注(0)|答案(1)|浏览(237)

**结束。**此问题不符合堆栈溢出准则。它目前不接受答案。
**想改进这个问题吗?**更新问题,使其成为堆栈溢出的主题。

7年前关门了。
改进这个问题
我正在本地计算机上配置hadoop-0.23.8。我正在跑步,但有一个例外。你们知道我做错了什么吗
我使用以下系统变量

export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"

另外,我正在使用Java6,并设置了以下变量hadoop\u prefix、hadoop\u hdfs\u home和yarn\u home。你能帮我正确配置一下吗。

192.168.1.13: namenode running as process 10522. Stop it first.
hduser@192.168.1.13: starting datanode, logging to /usr/local/hadoop-0.23.8/logs/hadoop-
hduser-datanode-MacBook-Air.local.out
hduser@192.168.1.13: 2013-06-19 00:30:30.556 java[11171:1603] Unable to load realm info from SCDynamicStore
hduser@192.168.1.13: 2013-06-19 00:30:30.558 java[11171:1603] Unable to load realm info from SCDynamicStore
Starting secondary namenodes []
hduser@192.168.1.13: starting secondarynamenode, logging to /usr/local/hadoop-0.23.8/logs/hadoop-hduser-secondarynamenode-MacBook-Air.local.out
hduser@192.168.1.13: Exception in thread "main" java.lang.IllegalArgumentException: Target address cannot be null.
hduser@192.168.1.13:    at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:179)
hduser@192.168.1.13:    at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:154)
hduser@192.168.1.13:    at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:143)
hduser@192.168.1.13:    at org.apache.hadoop.hdfs.DFSUtil.getNameServiceId(DFSUtil.java:771)
hduser@192.168.1.13:    at org.apache.hadoop.hdfs.DFSUtil.getSecondaryNameServiceId(DFSUtil.java:738)
hduser@192.168.1.13:    at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.<init>(SecondaryNameNode.java:186)
hduser@192.168.1.13:    at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:691)
fcg9iug3

fcg9iug31#

所以在我的一个配置文件中有一个小的输入错误,很抱歉,但是我找到了一些配置hadoop0.23.8的重要信息。在etc/hadoop文件夹中创建一个名为hadoop-env.sh的文件,我们在其中放置java\u home,hadoop\u opts。等

相关问题