yarn报告spark作业成功,但spark ui显示阶段/任务仍在运行

t3psigkw  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(320)

我继承了一些表现出古怪行为的有Spark的工作。作业在yarn中似乎已成功完成,但当我查看spark ui时,我看到一些任务仍在运行,并将继续运行数小时。
日志显示 spark.sql.broadcastTimeout 已超过,但这似乎不会终止作业。由于历史原因,作业以客户机模式提交,并且运行驱动程序的边缘节点显示cpu和内存使用率很高。
以前有人见过这种行为吗?为什么这些“僵尸”任务在 spark.sql.broadcastTimeout 是否超出?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题