将本地文件复制到hadoop,但未能成功

csbfibhn  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(382)

我尝试将一个本地文件从硬盘直接复制到hadoop目录,结果如下。它们都不起作用。有人能帮我正确的语法吗?

$ hadoop fs -copyFromLocal C:\\\temp\\\sample_file.txt /user/user_name/sample_file.txt

**copyFromLocal: unexpected URISyntaxException**

$ hadoop fs -copyFromLocal C://temp//sample_file.txt /user/user_name    /sample_file.txt

**copyFromLocal: `//sample_file.txt': No such file or directory**

$ hadoop fs -copyFromLocal C:\temp\sample_file.txt /user/user_name/sample_file.txt

**-copyFromLocal: Can not create a Path from a null string Usage: hadoop fs [generic options] -copyFromLocal [-f] [-p] ...**

$ hadoop fs -copyFromLocal C:/temp/sample_file.txt /user/user_name/sample_file.txt

**copyFromLocal: `/temp/sample_file.txt': No such file or directory**
gjmwrych

gjmwrych1#

我在执行fs-copyfromlocal/localpath/localfile/hdfspath/hdfsfile时遇到的一个问题是目标/hdfspath不存在。
我通常首先创建整个目标hdfspath:fs-mkdir/hdfspath,然后发出-copyfromlocal命令。
除此之外,看看这个bug:https://issues.apache.org/jira/browse/hadoop-10030 这似乎可以解释你的第一个错误。也许你的hadoop/hdfs版本没有这个补丁。
也是根据这个博客(http://www.hindoogle.com/blog/2009/12/cygwin-vs-hadoop-dfs-copy/)您的第一个语法似乎适用于它们: $ bin/hadoop dfs -copyFromLocal C:\\cygwin\\home\\Rajat\\java\\mrh\\input input

相关问题