如何以不区分大小写的方式将文件复制到hdfs

dz6r00yl  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(456)

我必须复制某些csv文件到hdfs格式 ABCDWXYZ.csv 即。 PERSONDETAILS.csv 我必须把它复制到一个名为 AbcdWxyz 即个人信息。
现在的问题是我没有确切的hdfs目录名,我得到它从csv文件后,修剪它和火放

Hadoop fs -put $localRootDir/$Dir/*.csv $HDFSRootDir/$Dir

但是它抛出了一个错误,因为在hdfs中没有这样一个全大写的目录。
现在如何将文件复制到hdfs?有没有办法让hadoopput命令不区分大小写,可以使用regex,也可以本机使用。或者有没有一种方法可以将字符串转换为所需大小写

q35jwt9p

q35jwt9p1#

你应该可以使用

hadoop fs -find / -iname $Dir -print

获取hdfs中存在的拼写正确的路径名。然后将其反馈到copy命令中。

相关问题