hadoop将本地文件复制到hdfs?

nlejzf6q  于 2021-05-30  发布在  Hadoop
关注(0)|答案(1)|浏览(485)

我正试图将一个名为“afile”的本地文件复制到hdfs。所以我运行了以下命令:
'hadoop fs-copyfromlocal/home/neo/afile-in'或'hadoop fs-put/home/neo/afile-in'
但是,它说:“file/home/neo/afile不存在”
然后我把文件'afile'放到hadoop下的目录中。现在copyfromlocal成功了。但是,文件'in'是空的,因为我运行'hadoopfs-ls',它显示
'-rw-r--r--'1近地天体超群0 2015-04-06 17:45/user/neo/in
我还尝试了“hadoop fs-cat-in”,没有任何结果。
有人能帮忙吗?
谢谢!

b4qexyjb

b4qexyjb1#

在本地文件系统中创建一个名为 test.txt/home/neo/ 将内容添加到 test.txt : echo "sample text for wordcount" > /home/neo/test.txt 使用以下方法在hdfs中创建新目录: hadoop fs -mkdir /user/neo/in/ 将文件从本地目录复制到hdfs: hadoop fs -copyFromLocal /home/neo/test.txt /user/neo/in/test.txt

相关问题