我想用spark学习scala。我正在遵循一个教程,但在尝试导入spark的库依赖项时出现了一个错误:
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.4.3"
我得到以下错误:
我有3件unkwons文物。
有什么问题吗?
我的代码很简单,只是一个你好的世界。
我想用spark学习scala。我正在遵循一个教程,但在尝试导入spark的库依赖项时出现了一个错误:
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.4.3"
我得到以下错误:
我有3件unkwons文物。
有什么问题吗?
我的代码很简单,只是一个你好的世界。
1条答案
按热度按时间fiei3ece1#
也许你需要增加
build.sbt
:请注意,此库仅支持scala 2.11和scala 2.12。