终止aws中的spark步骤

kxeu7u2r  于 2021-05-29  发布在  Hadoop
关注(0)|答案(2)|浏览(306)

我想在emr spark cluster上设置一系列spark步骤,如果花费的时间太长,则终止当前步骤。但是,当我ssh到主节点并运行hadoop jobs-list时,主节点似乎认为没有正在运行的作业。我不想终止集群,因为这样做会迫使我为正在运行的集群购买一个全新的小时。有谁能帮我在不终止整个集群的情况下终止emr中的spark步骤吗?

yfwxisqw

yfwxisqw1#

这很简单:

yarn application -kill [application id]

您可以使用列出正在运行的应用程序

yarn application -list
q43xntqr

q43xntqr2#

您可以从资源管理器(在“群集状态”下右上角的链接中)终止应用程序。在资源管理器中,单击要终止的应用程序,在应用程序页面中有一个小的“终止”标签(左上角),您可以单击终止该应用程序。
显然,您也可以ssh,但我认为这种方式对某些用户来说更快更容易。

相关问题