librarydependencies spark in build.sbt错误(intellij)

nqwrtyyt  于 2021-05-26  发布在  Spark
关注(0)|答案(1)|浏览(417)

我想用spark学习scala。我正在遵循一个教程,但在尝试导入spark的库依赖项时出现了一个错误:

libraryDependencies += "org.apache.spark" %% "spark-core" % "2.4.3"

我得到以下错误:

我有3件unkwons文物。

有什么问题吗?
我的代码很简单,只是一个你好的世界。

fiei3ece

fiei3ece1#

也许你需要增加 build.sbt :

resolvers += "spark-core" at "https://mvnrepository.com/artifact/org.apache.spark/spark-core"

请注意,此库仅支持scala 2.11和scala 2.12。

相关问题