从一个Scala程序同时提交两个spark作业

yrwegjxp  于 12个月前  发布在  Scala
关注(0)|答案(1)|浏览(194)

我有一个Scala程序,我有两个独立的spark作业,我想提交给两个不同的远程spark集群,但我希望它们并行执行。
因此,我尝试创建两个线程,每个线程都提交作业,但遇到此错误org.apache.spark.SparkException: Only one SparkContext should be running in this JVM (see SPARK-2243).
有没有方法可以实现我正在寻找的东西?

qni6mghb

qni6mghb1#

据我所知,你有两个独立的Spark集群,但你不能从一个Scala应用程序连接到它们。
为此,请创建两个Spark会话并将其连接到两个不同的集群。要运行作业,您可以使用scala Future并发提交作业

相关问题