权限被拒绝:验证hadoop dfs

w6mmgewl  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(816)

尽管这个问题将是另一个问题的复制品,但我仍然愿意问它——因为stackoverflow和askubuntu上的其他类似问题(和答案)都没有帮助过我。我是一个完全的新手,并试图从一个tutorialspoint教程学习Hive。
我遵循了jdk1.7和hadoop的安装指南,在这个链接中给出了:hive-installation to the helm,并陷入了第二步:验证hadoop dfs。
跑步时 start-dfs.sh 在主目录中格式化namenode之后,我将得到以下输出:

neil@neil-VirtualBox:~$ start-dfs.sh
15/08/04 19:42:01 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [localhost]
neil@localhost's password: 
localhost: mkdir: cannot create directory `/usr/local/hadoop/logs': Permission denied
localhost: chown: cannot access `/usr/local/hadoop/logs': No such file or directory
localhost: starting namenode, logging to /usr/local/hadoop/logs/hadoop-neil-namenode-neil-VirtualBox.out
localhost: /usr/local/hadoop/sbin/hadoop-daemon.sh: line 159: /usr/local/hadoop/logs/hadoop-neil-namenode-neil-VirtualBox.out: No such file or directory
localhost: head: cannot open `/usr/local/hadoop/logs/hadoop-neil-namenode-neil-VirtualBox.out' for reading: No such file or directory
localhost: /usr/local/hadoop/sbin/hadoop-daemon.sh: line 177: /usr/local/hadoop/logs/hadoop-neil-namenode-neil-VirtualBox.out: No such file or directory
localhost: /usr/local/hadoop/sbin/hadoop-daemon.sh: line 178: /usr/local/hadoop/logs/hadoop-neil-namenode-neil-VirtualBox.out: No such file or directory

我已经尝试了每一个解决方案张贴在这里和这里没有任何进展。
另外,当我运行“hadoop version”命令时,它会给出以下输出:

Hadoop 2.7.0
Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r d4c8d4d4d203c934e8074b31289a28724c0842cf
Compiled by jenkins on 2015-04-10T18:40Z
Compiled with protoc 2.5.0
From source with checksum a9e90912c37a35c3195d23951fd18f
This command was run using /usr/local/hadoop/share/hadoop/common/hadoop-common-2.7.0.jar

这很奇怪,因为在安装hadoop2.4.0之前,我已经完全卸载了hadoop2.7.0,如教程链接所示。我还运行Java1.7.0\u79。
我已经在这上面呆了两天了,从那以后我就一直在网上爬行。请给我一个解决方案,或链接,我可以用它来了解我的出路。由于我是安装hadoop的新手,任何形式的帮助都非常感谢。我也会根据你的反馈更新问题。
谢谢,
苏拉德普

3htmauhk

3htmauhk1#

为了你的 start-dfs.sh 如果有问题,请尝试以下操作:
第一步:检查文件夹 /usr/local/hadoop/logs 存在。如果存在,请转至步骤3。如果没有,请执行步骤2。

ls -l /usr/local/hadoop/logs

步骤2:手动创建文件夹。

sudo mkdir /usr/local/hadoop/logs

第三步:更改权限和所有权。

sudo chmod -R 777 /usr/local/hadoop/logs
sudo chown -R hadoopusername:hadoopgroupname /usr/local/hadoop/logs

注意:将hadoopusername更改为hadoop用户,将hadoopgroupname更改为hadoop组。在我的例子中,我的用户名和组名分别是hduser和hadoop。所以我的命令是:sudo chown-rhduser:hadoop ...
现在,使用 start-dfs.sh .
为了你的 hadoop -version 问题,请尝试删除与2.7.0相关的lib文件或删除中与2.7.0相关的路径项 /home/hadoopuser/.bashrc .

相关问题