我怎么知道spark core版本?

ycl3bljg  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(1133)

我在hdp中使用spark1.5.2,hadoop的版本是2.7.1.2.3.4.7-4。当我像这样尝试在maven pom文件中添加jar时

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.10</artifactId>
    <version>1.5.2</version>
</dependency>

我不知道在哪里可以找到Spark核心版本。有2.11和2.10。感谢您的帮助。

yh2wf1be

yh2wf1be1#

您提到的版本表示您要将哪个版本的scala用于spark核心。
您需要检查集群上的scala版本,以确定它是2.10版还是2.11版。

相关问题