我知道,这是一个著名的问题,在互联网上,有大量的网站显示如何解决这个问题,也有地狱很多的质量保证等。但他们都没有帮助我,我现在很沮丧。所以,我会尽我所能提供每一个细节,如果我忽略了什么,我感谢你的帮助。
**OS**: Ubuntu 16.04 32 bit
**Hadoop version**: Hadoop 3.0.0-alpha3
**bashrc**:
export HADOOP_HOME=/usr/local/hadoopec/hadoop
export HADOOP_CONF_DIR=/usr/local/hadoopec/hadoop/etc/hadoop
export HADOOP_MAPRED_HOME=/usr/local/hadoopec/hadoop
export HADOOP_COMMON_HOME=/usr/local/hadoopec/hadoop
export HADOOP_HDFS_HOME=/usr/local/hadoopec/hadoop
export PATH=$PATH:/usr/local/hadoopec/hadoop/bin
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-i386
export LD_LIBRARY_PATH=/usr/local/hadoopec/hadoop/lib/native/:$LD_LIBRARY_PATH
# export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
**core-site.xml**:
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/hadoopec/hadoop/tmp</value>
<description>Temporary Directory.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
<description>Use HDFS as file storage engine</description>
</property>
**hdfs-env.sh**
export HADOOP_OPTS="$HADOOP_OPTS -Djava.library.path=$HADOOP_HOME/lib/native"
export HADOOP_OPTS="$HADOOP_OPTS -XX:-PrintWarnings -Djava.net.preferIPv4Stack=true"
export LD_LIBRARY_PATH=/usr/local/hadoopec/hadoop/lib/native/:$LD_LIBRARY_PATH
**hdfs-site.xml**
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.permission</name>
<value>false</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoopec/hadoop/tmp/hdfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoopec/hadoop/tmp/hdfs/data</value>
</property>
如果有人需要更多的信息,尽管问我。
1条答案
按热度按时间cgyqldqp1#
我通过下载hadoop2.8.0并像以前的hadoop2.8.0一样进行所有精确的配置来解决这个问题,尽管我不知道到底是什么导致了错误或警告?
localhost:50070
他给了我unable to connect
错误。如果有人能指出原因,我会很感激的。