从haddop集群(远程windows机器)上传文件到hdfs,就像上传一样

xlpyo6sf  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(330)

我正在试图找到一个解决方案,将一个文件从本地windows机器或本地linux机器复制到云上的hdfs。
我知道一个解决办法,
远程->群集节点(使用scp)
node->hdfs(使用hdfs命令)
但对于我的用例,它不起作用,我需要找到一个解决方案,直接将文件从本地上传到hdfs,就像hue上传一样。
我也试着听从命令
hdfs dfs-copyfromlocal文件:://<'local-host'>:<'local-path'>hdfs://<'hdfs-path'>
但这是由于以下错误造成的:
copyfromlocal:`<'local-path'>':没有这样的文件或目录
任何建议都将不胜感激。
-谢谢
维卡什

avkwfej4

avkwfej41#

首先在hdfs中创建dir,然后,

hadoop fs -put /path/in/linux /hdfs/path

hadoop fs -copyFromLocal /path/in/linux /hdfs/path

相关问题