使用scala spark删除具有给定扩展名的所有文件

3npbholx  于 2021-07-14  发布在  Spark
关注(0)|答案(1)|浏览(632)

当我尝试使用spark将Dataframe写入csv文件时,会生成一些csv.crc文件。因此,我想删除所有扩展名为.csv.crc的文件

val fs = FileSystem.get(existingSparkSession.sparkContext.hadoopConfiguration)
    val srcPath=new Path("./src/main/resources/myDirectory/*.csv.crc")
    println(fs.exists(srcPath))
    println(fs.isFile(srcPath))
    if(fs.exists(srcPath) && fs.isFile(srcPath)) {
      fs.delete(srcPath,true)
    }

两条prinln行的值都为false。因此它甚至没有进入if状态。如何使用scala和spark删除所有.csv.crc文件

piwo6bdm

piwo6bdm1#

您可以使用下面的选项来避免在写入时使用crc文件(注意:您正在消除校验和)。 fs.setVerifyChecksum(false) .
否则你可以在阅读时避免使用下面的crc文件, config.("dfs.client.read.shortcircuit.skip.checksum", "true") .

相关问题