我们正在提交Spark作业到kubernetes集群使用集群模式和一些更多的内存配置。我的工作是在大约5分钟内完成,但我的执行豆荚仍然运行30-40分钟后。由于这个原因,新的作业被挂起,因为资源仍然绑定到正在运行的pod上。
下面是spark submit命令: /spark-2.4.4-bin-hadoop2.7/bin/spark-submit --deploy-mode cluster --class com.Spark.MyMainClass --driver-memory 3g --driver-cores 1 --executor-memory 12g --executor-cores 3 --master k8s://https://masterhost:6443 --conf spark.kubernetes.namespace=default --conf spark.app.name=myapp1 --conf spark.executor.instances=3 --conf spark.kubernetes.driver.pod.name=myappdriver1 --conf spark.kubernetes.container.image=imagePath --conf spark.kubernetes.authenticate.driver.serviceAccountName=spark --conf spark.kubernetes.driver.container.image=imagePath --conf spark.kubernetes.executor.container.image=imagePath local:///opt/spark/jars/MyApp.jar
1条答案
按热度按时间b4qexyjb1#
你需要加上
在代码末尾