我尝试将一个本地文件从硬盘直接复制到hadoop目录,结果如下。它们都不起作用。有人能帮我正确的语法吗?
$ hadoop fs -copyFromLocal C:\\\temp\\\sample_file.txt /user/user_name/sample_file.txt
**copyFromLocal: unexpected URISyntaxException**
$ hadoop fs -copyFromLocal C://temp//sample_file.txt /user/user_name /sample_file.txt
**copyFromLocal: `//sample_file.txt': No such file or directory**
$ hadoop fs -copyFromLocal C:\temp\sample_file.txt /user/user_name/sample_file.txt
**-copyFromLocal: Can not create a Path from a null string Usage: hadoop fs [generic options] -copyFromLocal [-f] [-p] ...**
$ hadoop fs -copyFromLocal C:/temp/sample_file.txt /user/user_name/sample_file.txt
**copyFromLocal: `/temp/sample_file.txt': No such file or directory**
1条答案
按热度按时间gjmwrych1#
我在执行fs-copyfromlocal/localpath/localfile/hdfspath/hdfsfile时遇到的一个问题是目标/hdfspath不存在。
我通常首先创建整个目标hdfspath:fs-mkdir/hdfspath,然后发出-copyfromlocal命令。
除此之外,看看这个bug:https://issues.apache.org/jira/browse/hadoop-10030 这似乎可以解释你的第一个错误。也许你的hadoop/hdfs版本没有这个补丁。
也是根据这个博客(http://www.hindoogle.com/blog/2009/12/cygwin-vs-hadoop-dfs-copy/)您的第一个语法似乎适用于它们:
$ bin/hadoop dfs -copyFromLocal C:\\cygwin\\home\\Rajat\\java\\mrh\\input input