我在hdp中使用spark1.5.2,hadoop的版本是2.7.1.2.3.4.7-4。当我像这样尝试在maven pom文件中添加jar时
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.5.2</version>
</dependency>
我不知道在哪里可以找到Spark核心版本。有2.11和2.10。感谢您的帮助。
1条答案
按热度按时间yh2wf1be1#
您提到的版本表示您要将哪个版本的scala用于spark核心。
您需要检查集群上的scala版本,以确定它是2.10版还是2.11版。