尽管这个问题将是另一个问题的复制品,但我仍然愿意问它——因为stackoverflow和askubuntu上的其他类似问题(和答案)都没有帮助过我。我是一个完全的新手,并试图从一个tutorialspoint教程学习Hive。
我遵循了jdk1.7和hadoop的安装指南,在这个链接中给出了:hive-installation to the helm,并陷入了第二步:验证hadoop dfs。
跑步时 start-dfs.sh
在主目录中格式化namenode之后,我将得到以下输出:
neil@neil-VirtualBox:~$ start-dfs.sh
15/08/04 19:42:01 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [localhost]
neil@localhost's password:
localhost: mkdir: cannot create directory `/usr/local/hadoop/logs': Permission denied
localhost: chown: cannot access `/usr/local/hadoop/logs': No such file or directory
localhost: starting namenode, logging to /usr/local/hadoop/logs/hadoop-neil-namenode-neil-VirtualBox.out
localhost: /usr/local/hadoop/sbin/hadoop-daemon.sh: line 159: /usr/local/hadoop/logs/hadoop-neil-namenode-neil-VirtualBox.out: No such file or directory
localhost: head: cannot open `/usr/local/hadoop/logs/hadoop-neil-namenode-neil-VirtualBox.out' for reading: No such file or directory
localhost: /usr/local/hadoop/sbin/hadoop-daemon.sh: line 177: /usr/local/hadoop/logs/hadoop-neil-namenode-neil-VirtualBox.out: No such file or directory
localhost: /usr/local/hadoop/sbin/hadoop-daemon.sh: line 178: /usr/local/hadoop/logs/hadoop-neil-namenode-neil-VirtualBox.out: No such file or directory
我已经尝试了每一个解决方案张贴在这里和这里没有任何进展。
另外,当我运行“hadoop version”命令时,它会给出以下输出:
Hadoop 2.7.0
Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r d4c8d4d4d203c934e8074b31289a28724c0842cf
Compiled by jenkins on 2015-04-10T18:40Z
Compiled with protoc 2.5.0
From source with checksum a9e90912c37a35c3195d23951fd18f
This command was run using /usr/local/hadoop/share/hadoop/common/hadoop-common-2.7.0.jar
这很奇怪,因为在安装hadoop2.4.0之前,我已经完全卸载了hadoop2.7.0,如教程链接所示。我还运行Java1.7.0\u79。
我已经在这上面呆了两天了,从那以后我就一直在网上爬行。请给我一个解决方案,或链接,我可以用它来了解我的出路。由于我是安装hadoop的新手,任何形式的帮助都非常感谢。我也会根据你的反馈更新问题。
谢谢,
苏拉德普
1条答案
按热度按时间3htmauhk1#
为了你的
start-dfs.sh
如果有问题,请尝试以下操作:第一步:检查文件夹
/usr/local/hadoop/logs
存在。如果存在,请转至步骤3。如果没有,请执行步骤2。步骤2:手动创建文件夹。
第三步:更改权限和所有权。
注意:将hadoopusername更改为hadoop用户,将hadoopgroupname更改为hadoop组。在我的例子中,我的用户名和组名分别是hduser和hadoop。所以我的命令是:sudo chown-rhduser:hadoop ...
现在,使用
start-dfs.sh
.为了你的
hadoop -version
问题,请尝试删除与2.7.0相关的lib文件或删除中与2.7.0相关的路径项/home/hadoopuser/.bashrc
.