fs = spark._jvm.org.apache.hadoop.fs.FileSystem.get(spark._jsc.hadoopConfiguration())
if not fs.exists(sc._jvm.org.apache.hadoop.fs.Path("path")): #returns true or false
fs.mkdirs(spark._jvm.org.apache.hadoop.fs.Path("path"), FsPermission(777: Short) permission)
2条答案
按热度按时间pgccezyw1#
您可以定义一个bash变量(如果需要,也可以根据当前日期进行计算),然后反复使用它
x4shl7ld2#
您可以在pyspark中使用
exists()
和mkdirs(
的组合方法来完成此操作,如下所示