classnotfoundexception:com.databricks.spark.csv.defaultsource

bf1o4zei  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(365)

我正在尝试使用spark scala从hive导出数据。但我有以下错误。

Caused by: java.lang.ClassNotFoundException:com.databricks.spark.csv.DefaultSource

我的scala脚本如下所示。

import org.apache.spark.sql.hive.HiveContext
val sqlContext = new HiveContext(sc)
val df = sqlContext.sql("SELECT * FROM sparksdata")
df.write.format("com.databricks.spark.csv").save("/root/Desktop/home.csv")

我也尝试过这个命令,但仍然没有解决请帮助我。

spark-shell --packages com.databricks:spark-csv_2.10:1.5.0
ruarlubt

ruarlubt1#

如果您希望以运行脚本的方式运行该脚本,则需要使用 --jars 本地jar或 --packages 在运行命令时用于远程repo。
所以运行脚本应该是这样的:

spark-shell -i /path/to/script/scala --packages com.databricks:spark-csv_2.10:1.5.0

如果您还想在作业完成后停止spark shell,则需要添加:

System.exit(0)

在你剧本的结尾。
ps:您不需要使用spark 2+获取此依赖项。

相关问题