将文件复制到hdfs hadoop中

cfh9epnr  于 2021-06-01  发布在  Hadoop
关注(0)|答案(2)|浏览(488)

我目前正在为我在大学的一次讲座做一个项目。任务是从https://www.gutenberg.org/ 并将其复制到hdfs中。我试过用 put <localSrc> <dest> 但根本没用。这是我的代码目前在终端中的样子:

[cloudera@quickstart ~]$ put <pg16328.txt> <documents>

bash:意外标记“<”附近出现语法错误
感谢您的帮助。提前谢谢。
更新30.05.2017:我使用了以下链接https://www.cloudera.com/downloads/quickstart_vms/5-10.html 安装 Hadoop 完全没有配置任何东西。我做的唯一一件事就是免除了辅导 Getting started .

sr4lhrrt

sr4lhrrt1#

应该是:

hdfs fs -copyFromLocal pg16328.txt /HDFS/path

我不熟悉 put 命令,但你试过没有命令吗 <> 什么?

azpvetkf

azpvetkf2#

如果已成功提取和配置 Hadoop ,那么
你应该进去 hadoop-home 目录(提取和配置的位置 hadoop )
然后应用以下命令

bin/hadoop dfs -put <local file location> <hdfs file location>

或者

bin/hdfs dfs -put <local file location> <hdfs file location>

你也可以这样做 -copyFromLocal 命令也是。只要替换一下 -put-copyFromLocal 在上述命令中。
例如:
假设你有 pg16328.txt 在桌面目录中,则上面的命令

bin/hadoop dfs -put /home/cloudera/Desktop/pg16328.txt /user/hadoop/

哪里 /user/hadoop 是中的目录 hdfs 如果 /user/hadoop 目录不存在,则可以通过

bin/hadoop dfs -mkdir -f /user/hadoop

您可以使用 webUI ( namenodeIP:50070 )或者使用命令行作为

bin/hadoop dfs -ls /user/hadoop/

相关问题