我在hdfs中为一个名为cert\u的项目创建了director,它试图将名为load data.csv的csv文件从本地复制到hdfs。
$ hadoop fs -CopyFromLocal c:\Load Data.csv /home/edureka/aprl_25th_morng/cert_project/Load Data.csv
我犯了个错误。我在终端和咕噜>(咕噜壳)都试过了我需要帮助。
tzdcorbm1#
如果您希望从pig grunt shell运行该命令,则应编写如下内容:
sh hadoop fs -copyFromLocal $SOURCE_FILE_LOCAL $TARGET_HDFS_DIRECTORY
确保源文件位于运行gruntshell的linux服务器的本地文件系统上,并且对hdfs上试图复制本地文件的目录具有写访问权。
rjjhvcjd2#
使用hadoop fs-copyfromlocal c:\load data.csv/home/edureka/aprl\u 25th\u morng/cert\u project/load data.csvcopyfromlocal中的c不能是大写。
plicqrtu3#
你也可以试试 hadoop fs -put $localFile $hadoopFile 确保已预先创建父目录创建目录
hadoop fs -put $localFile $hadoopFile
hadoop fs -mkdir -p $hadoopFolder
f8rj6qna4#
命令是copyfromlocal。您正在使用copyfromlocal。
wwodge7n5#
使用-copyfromlocal,您正在使用capitac..有关更多信息,请查看此链接以获取更多copyfromlocal
20jt8wwn6#
因为文件名中有空格,所以它自己。请尝试重命名文件名中没有空格的文件,或尝试以下操作之一:
hadoop fs -CopyFromLocal 'c:\Load%20Data.csv' '/home/edureka/aprl_25th_morng/cert_project/Load Data.csv'
或
hadoop fs -CopyFromLocal 'c:\Load%20Data.csv' '/home/edureka/aprl_25th_morng/cert_project/'`
在unix文件系统中(不是在hdfs中),空间表示为%20。因此,如果需要从hdfs中删除/复制文件,您将需要引用并且不使用%20
hadoop fs -rm '/home/edureka/aprl_25th_morng/cert_project/Load Data.csv'
6条答案
按热度按时间tzdcorbm1#
如果您希望从pig grunt shell运行该命令,则应编写如下内容:
确保源文件位于运行gruntshell的linux服务器的本地文件系统上,并且对hdfs上试图复制本地文件的目录具有写访问权。
rjjhvcjd2#
使用hadoop fs-copyfromlocal c:\load data.csv/home/edureka/aprl\u 25th\u morng/cert\u project/load data.csv
copyfromlocal中的c不能是大写。
plicqrtu3#
你也可以试试
hadoop fs -put $localFile $hadoopFile
确保已预先创建父目录创建目录
f8rj6qna4#
命令是copyfromlocal。您正在使用copyfromlocal。
wwodge7n5#
使用-copyfromlocal,您正在使用capitac..有关更多信息,请查看此链接以获取更多copyfromlocal
20jt8wwn6#
因为文件名中有空格,所以它自己。请尝试重命名文件名中没有空格的文件,或尝试以下操作之一:
或
在unix文件系统中(不是在hdfs中),空间表示为%20。因此,如果需要从hdfs中删除/复制文件,您将需要引用并且不使用%20