我怎样才能杀死卡住的工作而不杀死 Spark 中的应用程序?

Posted

技术标签:

【中文标题】我怎样才能杀死卡住的工作而不杀死 Spark 中的应用程序?【英文标题】:How can I just kill the stuck job but not kill the application in Spark? 【发布时间】:2021-05-13 03:38:03 【问题描述】:

如上,我只是想杀掉阶段1244,而不是杀掉应用程序。 如果我单击kill 按钮,是否会杀死整个应用程序? 我该怎么做才能杀死我想要杀死的应用程序中的工作?

【问题讨论】:

【参考方案1】:

您突出显示的终止按钮将终止当前作业。然而:

如果这是一个交互式 Spark 会话(即运行 Jupyter notebook 或 spark-shellpyspark),那么应用程序将仍然存在。 如果这是一个非交互式 Spark 会话(即spark-submit),那么应用程序将与作业一起被终止,因为应用程序状态被视为失败。

【讨论】:

请帮帮我:***.com/questions/68078584/…,非常感谢!

以上是关于我怎样才能杀死卡住的工作而不杀死 Spark 中的应用程序?的主要内容,如果未能解决你的问题,请参考以下文章

Iphone,我怎样才能避免看门狗杀死我的应用程序需要很长时间才能启动?

我怎样才能杀死正在使用端口 8080 的任何进程,以便我可以流浪?

优雅地杀死在 Linux 上运行的 .NET Core 守护进程

使用 OpenGL 绘图而不杀死 CPU 并且不并行化

敏捷开发杀死了项目经理?

我想在杀死进程后保持活动后台服务