spark submit在kubernetes上,即使spark作业完成,执行器pods仍在运行因此,新工作的资源不是免费的

wnavrhmk  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(454)

我们正在提交Spark作业到kubernetes集群使用集群模式和一些更多的内存配置。我的工作是在大约5分钟内完成,但我的执行豆荚仍然运行30-40分钟后。由于这个原因,新的作业被挂起,因为资源仍然绑定到正在运行的pod上。
下面是spark submit命令: /spark-2.4.4-bin-hadoop2.7/bin/spark-submit --deploy-mode cluster --class com.Spark.MyMainClass --driver-memory 3g --driver-cores 1 --executor-memory 12g --executor-cores 3 --master k8s://https://masterhost:6443 --conf spark.kubernetes.namespace=default --conf spark.app.name=myapp1 --conf spark.executor.instances=3 --conf spark.kubernetes.driver.pod.name=myappdriver1 --conf spark.kubernetes.container.image=imagePath --conf spark.kubernetes.authenticate.driver.serviceAccountName=spark --conf spark.kubernetes.driver.container.image=imagePath --conf spark.kubernetes.executor.container.image=imagePath local:///opt/spark/jars/MyApp.jar

b4qexyjb

b4qexyjb1#

你需要加上

sparkSession.stop()

在代码末尾

相关问题