非阻塞 subprocess.call

Posted

技术标签:

【中文标题】非阻塞 subprocess.call【英文标题】:Non blocking subprocess.call 【发布时间】:2013-04-10 21:55:24 【问题描述】:

我正在尝试进行非阻塞子进程调用以从我的 main.py 程序运行 slave.py 脚本。我需要将 args 从 main.py 传递给 slave.py 一次,当它(slave.py)第一次通过 subprocess.call 启动时,这个 slave.py 运行一段时间然后退出。

main.py
for insert, (list) in enumerate(list, start =1):

    sys.args = [list]
    subprocess.call(["python", "slave.py", sys.args], shell = True)


loop through program and do more stuff..

还有我的奴隶脚本

slave.py
print sys.args
while True:
    do stuff with args in loop till finished
    time.sleep(30)

目前,slave.py 阻止 main.py 运行其其余任务,我只是希望 slave.py 独立于 main.py,一旦我将 args 传递给它。这两个脚本不再需要通信。

我在网上找到了一些关于 的帖子,但其中大多数都集中在需要与 slave.py 进行通信的某个点上,而我目前不需要。有谁知道如何以简单的方式实现这个......?

【问题讨论】:

【参考方案1】:

您应该使用subprocess.Popen 而不是subprocess.call

类似:

subprocess.Popen(["python", "slave.py"] + sys.argv[1:])

来自docs on subprocess.call

运行 args 描述的命令。 等待命令完成,然后返回 returncode 属性。

(如果你要使用shell = True,也不要使用列表来传递参数)。


这是一个演示非阻塞 suprocess 调用的 MCVE1 示例:

import subprocess
import time

p = subprocess.Popen(['sleep', '5'])

while p.poll() is None:
    print('Still sleeping')
    time.sleep(1)

print('Not sleeping any longer.  Exited with returncode %d' % p.returncode)

另一种依赖于对 python 语言的最新更改以允许基于协同例程的并行性的替代方法是:

# python3.5 required but could be modified to work with python3.4.
import asyncio

async def do_subprocess():
    print('Subprocess sleeping')
    proc = await asyncio.create_subprocess_exec('sleep', '5')
    returncode = await proc.wait()
    print('Subprocess done sleeping.  Return code = %d' % returncode)

async def sleep_report(number):
    for i in range(number + 1):
        print('Slept for %d seconds' % i)
        await asyncio.sleep(1)

loop = asyncio.get_event_loop()

tasks = [
    asyncio.ensure_future(do_subprocess()),
    asyncio.ensure_future(sleep_report(5)),
]

loop.run_until_complete(asyncio.gather(*tasks))
loop.close()

1在 OS-X 上使用 python2.7 和 python3.6 测试

【讨论】:

谢谢,这似乎可行,但是当我在 slave.py 中包含一个 While 循环时,它似乎被卡住并且在循环中没有执行任何操作(即使使用 timer.sleep() 函数..? @mgilson:您能否分享一个有关如何使用它的一般示例?我的意思是当以非阻塞方式使用它时,控制流应该是什么样子。我很感激。 @ViFI -- 当然,我添加了一个以非阻塞方式使用 Popen 的示例。 有没有办法像p1 & p2 & 那样异步启动多个进程,然后使用asyncio 等待所有进程?我希望这不需要多处理模块。 当然,您只需要一个do_p1 函数和一个do_p2 函数,然后将它们都添加到tasks 列表中。【参考方案2】:

这里的彻底性分为三个级别。

正如 mgilson 所说,如果您只是将 subprocess.call 替换为 subprocess.Popen,保持其他所有内容相同,那么 main.py 将不会等待 slave.py 完成后再继续。这本身可能就足够了。如果您关心 zombie processes 闲逛,您应该保存从 subprocess.Popen 返回的对象,然后在稍后调用它的 wait 方法。 (当 main.py 退出时僵尸会自动消失,所以如果 main.py 运行很长时间和/或可能会创建许多子进程,这只是一个严重的问题。)最后,如果你不想要僵尸但是您也不想决定在哪里进行等待(如果两个进程随后都运行了很长时间且不可预测的时间,这可能是合适的),请使用python-daemon 库使从站与主站分离 - 在这种情况下你可以继续在master中使用subprocess.call

【讨论】:

【参考方案3】:

对于 Python 3.8.x

import shlex
import subprocess

cmd = "<full filepath plus arguments of child process>"
cmds = shlex.split(cmd)
p = subprocess.Popen(cmds, start_new_session=True)

这将允许父进程退出,而子进程继续运行。不确定僵尸。

在 macOS 10.15.5 上的 Python 3.8.1 上测试

【讨论】:

以上是关于非阻塞 subprocess.call的主要内容,如果未能解决你的问题,请参考以下文章

verilog 阻塞和非阻塞啥区别啊?

非阻塞socket总结

同步阻塞同步非阻塞异步阻塞异步非阻塞--简明介绍

并行,并发,串行,同步,异步,阻塞,非阻塞,同步阻塞,同步非阻塞,异步阻塞,异步非阻塞

verilog中为啥非阻塞赋值要用绝对时延

同步异步、阻塞非阻塞、Netty