我继承了一些表现出古怪行为的有Spark的工作。作业在yarn中似乎已成功完成,但当我查看spark ui时,我看到一些任务仍在运行,并将继续运行数小时。
日志显示 spark.sql.broadcastTimeout
已超过,但这似乎不会终止作业。由于历史原因,作业以客户机模式提交,并且运行驱动程序的边缘节点显示cpu和内存使用率很高。
以前有人见过这种行为吗?为什么这些“僵尸”任务在 spark.sql.broadcastTimeout
是否超出?
我继承了一些表现出古怪行为的有Spark的工作。作业在yarn中似乎已成功完成,但当我查看spark ui时,我看到一些任务仍在运行,并将继续运行数小时。
日志显示 spark.sql.broadcastTimeout
已超过,但这似乎不会终止作业。由于历史原因,作业以客户机模式提交,并且运行驱动程序的边缘节点显示cpu和内存使用率很高。
以前有人见过这种行为吗?为什么这些“僵尸”任务在 spark.sql.broadcastTimeout
是否超出?
暂无答案!
目前还没有任何答案,快来回答吧!