pyspark 使用sparkDataset写入S3时出现错误:未找到类,

pwuypxnk  于 2022-11-01  发布在  Spark
关注(0)|答案(1)|浏览(106)

使用sparkDataset写入S3时出现此错误:

java.lang.RuntimeException:java.lang.RuntimeException:java.lang.ClassNotFoundException:未找到类。

vh0rcniy

vh0rcniy1#

您需要将匹配的spark-hadoop-cloud jar从您的spark发布版本中获取到spark类路径中,这是类所在的位置

相关问题