webhdfs错误:create操作无法使用消息“invalid operation create”

g2ieeal7  于 2021-05-31  发布在  Hadoop
关注(0)|答案(0)|浏览(454)

我试图用webhdfs在本地服务器上安装hadoop。
hadoop版本是2.10.0。
我遵循下面链接中的说明。
https://www.guru99.com/how-to-install-hadoop.html
“start dfs.sh”运行良好,“hadoop fs-mkdir/user”也运行良好。
为了测试webhdfs,我执行下面的curl命令。

curl -i "http://hycom:50070/webhdfs/v1/?op=LISTSTATUS"

这个命令行得通(hycom是本地服务器的主机名)
但创造不起作用。为了测试create,我运行了下面的命令。

curl -X put -i -t test.txt 'http://192.168.219.100:50070/webhdfs/v1/user/hdadmin/test.txt?permission=0644&op=CREATE'

结果如下:;

HTTP/1.1 307 TEMPORARY_REDIRECT
Cache-Control: no-cache
Expires: Mon, 29 Jun 2020 15:07:40 GMT
Date: Mon, 29 Jun 2020 15:07:40 GMT
Pragma: no-cache
Expires: Mon, 29 Jun 2020 15:07:40 GMT
Date: Mon, 29 Jun 2020 15:07:40 GMT
Pragma: no-cache
X-FRAME-OPTIONS: SAMEORIGIN
Location: http://hycom:50075/webhdfs/v1/user/hdadmin/test.txt?op=CREATE&namenoderpcaddress=192.168.219.100:10000&createflag=&createparent=true&overwrite=false&permission=644
Content-Type: application/octet-stream
Content-Length: 0

所以我发送了另一个put请求,就像文件一样(https://hadoop.apache.org/docs/r1.0.4/webhdfs.html#create)
命令

curl -X put -i -t test.txt 'http://hycom:50075/webhdfs/v1/user/hdadmin/test.txt?op=CREATE&namenoderpcaddress=192.168.219.100:10000&createflag=&createparent=true&overwrite=false&permission=644'

但结果是错误的。

HTTP/1.1 400 Bad Request
Content-Type: application/json; charset=utf-8
Content-Length: 150
Connection: close

{"RemoteException":{"exception":"IllegalArgumentException","javaClassName":"java.lang.IllegalArgumentException","message":"Invalid operation CREATE"}}

我不明白为什么会发生这种错误。
请帮我纠正这个错误。
谢谢您。
下面是我的core-site.xml和hdfs-site.xml。 core-site.xml<configuration> <property> <name>hadoop.tmp.dir</name> <value>/tmp/hadoop</value> <description>Parent directory for other temporary directories.</description> </property> <property> <name>fs.defaultFS </name> <value>hdfs://192.168.219.100:10000</value> <description>The name of the default file system. </description> </property> <property> <name>hadoop.proxyuser.hue.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hue.groups</name> <value>*</value> </property> </configuration>hdfs-site.xml ```


dfs.replication
1
Default block replication.


dfs.datanode.data.dir
/home/hdadmin/hdfs


dfs.webhdfs.enabled
true

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题