使用spark在oracle和snowflake之间进行数据迁移

wydwbb8l  于 2021-07-12  发布在  Spark
关注(0)|答案(0)|浏览(394)

我们在运行pyspark脚本时遇到以下错误,该脚本包含从oracle到snowflake的数据迁移。无法调试问题。请检查并提供您的反馈。
error py4j.protocol.py4jjavaerror:调用o92.load时出错:java.lang.noclassdeffounderror:scala/product$类
spark config spark.jars.packages=net。snowflake:snowflake-jdbc:3.12.15,净值。snowflake:spark-snowflake_2.11:2.8.3-2.4
以下jar出现在c:\software\spark-3.0.0-bin-hadoop2.7\spark-3.0.0-bin-hadoop2.7\spark-3.0.0-bin-hadoop2.7\jars中
snowflake-jdbc-3.12.15.jar spark-snowflake\ u 2.11-2.8.3-spark\ u 2.4.jar snowflake-insect-sdk-0.9.9.jar
文件“c:/users/pycharmprojects/spark/oracle\ to\ u snowflake.py”,第56行,in.option(“dbtable”,“employees”)
文件“c:\software\spark-3.0.0-bin-hadoop2.7\spark-3.0.0-bin-hadoop2.7\spark-3.0.0-bin-hadoop2.7\python\pyspark\sql\readwriter.py”,第184行,在load return self.\u df(self.\jreader.load())文件“c:\users\anaconda3\lib\site packages\py4j\java\u gateway.py”,第1305行,在call answer,self.gateway\u client,self.target\u id,self.name)文件“c:\software\spark-3.0.0-bin-hadoop2.7\spark-3.0.0-bin-hadoop2.7\spark-3.0.0-bin-hadoop2.7\python\pyspark\sql\utils.py”,第131行,deco return f(*a,**kw)文件“c:\users\michael\anaconda3\lib\site packages\py4j\protocol.py”,第328行,get\return\u value格式(target\id,“.”,name),值)py4j.protocol.py4jjavaerror:调用o92.load时出错:java.lang.noclassdeffounderror:scala/product$类
你好,迈克尔

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题