pig grunt shell中的copyfromlocal错误

sauutmhj  于 2021-05-29  发布在  Hadoop
关注(0)|答案(6)|浏览(341)

我在hdfs中为一个名为cert\u的项目创建了director,它试图将名为load data.csv的csv文件从本地复制到hdfs。

$ hadoop fs -CopyFromLocal c:\Load Data.csv /home/edureka/aprl_25th_morng/cert_project/Load Data.csv

我犯了个错误。我在终端和咕噜>(咕噜壳)都试过了
我需要帮助。

tzdcorbm

tzdcorbm1#

如果您希望从pig grunt shell运行该命令,则应编写如下内容:

sh hadoop fs -copyFromLocal $SOURCE_FILE_LOCAL $TARGET_HDFS_DIRECTORY

确保源文件位于运行gruntshell的linux服务器的本地文件系统上,并且对hdfs上试图复制本地文件的目录具有写访问权。

rjjhvcjd

rjjhvcjd2#

使用hadoop fs-copyfromlocal c:\load data.csv/home/edureka/aprl\u 25th\u morng/cert\u project/load data.csv
copyfromlocal中的c不能是大写。

plicqrtu

plicqrtu3#

你也可以试试 hadoop fs -put $localFile $hadoopFile 确保已预先创建父目录
创建目录

hadoop fs -mkdir -p $hadoopFolder
f8rj6qna

f8rj6qna4#

命令是copyfromlocal。您正在使用copyfromlocal。

wwodge7n

wwodge7n5#

使用-copyfromlocal,您正在使用capitac..有关更多信息,请查看此链接以获取更多copyfromlocal

20jt8wwn

20jt8wwn6#

因为文件名中有空格,所以它自己。请尝试重命名文件名中没有空格的文件,或尝试以下操作之一:

hadoop fs -CopyFromLocal 'c:\Load%20Data.csv' '/home/edureka/aprl_25th_morng/cert_project/Load Data.csv'

hadoop fs -CopyFromLocal 'c:\Load%20Data.csv'  '/home/edureka/aprl_25th_morng/cert_project/'`

在unix文件系统中(不是在hdfs中),空间表示为%20。因此,如果需要从hdfs中删除/复制文件,您将需要引用并且不使用%20

hadoop fs -rm '/home/edureka/aprl_25th_morng/cert_project/Load Data.csv'

相关问题