《asyncio 系列》4. 如何并发运行多个任务(asyncio.gatherasyncio.as_completedasyncio.wait)
Posted 来自东方地灵殿的小提琴手
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了《asyncio 系列》4. 如何并发运行多个任务(asyncio.gatherasyncio.as_completedasyncio.wait)相关的知识,希望对你有一定的参考价值。
楔子
在上一篇文章中,我们了解了套接字的内部工作原理,并构建了一个基本的回显服务器。现在我们将学到的知识应用到并发的、非阻塞的 Web 请求中,基于 asyncio 可以并发发送大量的 Web 请求,缩短应用程序的运行时间。当我们必须向一组 REST API 发出多个请求时,这很有用,比如在微服务架构中,或当我们有网络爬虫任务时。另外这种方法还允许在我们等待可能很长的 Web 请求完成时运行其他代码,从而构建更具响应性的应用程序。
本篇文章我们将学习一个名为 aiohttp 的异步库来实现这一点,该库使用非阻塞套接字发出 Web 请求并为这些请求返回协程,然后可以等待结果。具体来说,我们将学习如何获取数百个 URL 的列表,并同时运行所有这些请求。在此过程中,我们将检查 asyncio 提供的用于一次性运行协程的各种 API 方法,从而选择等待一切完成后再继续,或者尽快处理结果。此外我们还将了解如何为这些请求设置超时,无论是在单个请求还是在一组请求中。然后还将了解如何根据其他请求的执行情况来取消一组正在执行的请求,这些 API 方法不仅对发出 Web 请求很有帮助,而且在我们需要同时运行一组协程或任务时也很有帮助。
aiohttp
之前我们提到新手在第一次使用 asyncio 时面临的一个挑战是尝试使用现有的代码,并在其上添加 async 和 await,从而获得性能提升。但大多数情况下,这不起作用,特别是在处理 Web 请求时,因为大多数现有库都处于阻塞状态。
一个流行的用于发出 Web 请求的库是 requests 库,但这个库在 asyncio 上表现不佳,因为它使用阻塞套接字。这意味着如果我们发出请求,它将阻塞运行的线程,并且由于 asyncio 是单线程的,所以在请求完成之前,整个事件循环将停止运行。
为了解决这个问题并获得并发性,我们需要使用一个套接字层的非阻塞库,aiohttp(用于 asyncio 和 Python 的异步 HTTP 客户端/服务端)就是这样一个使用非阻塞套接字解决此问题的库。
aiohttp 是一个开源库,它是一个功能齐全的 Web 客户端和 Web 服务端,这意味着它可发出 Web 请求,也可使用它创建异步 Web 服务器。该库的文档地址为 https://docs.aiohttp.org/ 。在本篇文章中,我们将关注 aiohttp 的客户端,但我们还将在后续章节中了解如何使用它构建 Web 服务器。
那么如何开始使用 aiohttp 呢?首先要学习的是如何发送 HTTP 请求。为此我们需要掌握一些关于异步上下文管理器的新语法,使用这种语法将允许我们获取和关闭 HTTP 会话。作为 asyncio 开发人员,你将经常使用此语法来异步获取资源,比如数据库连接。
异步上下文管理器
在任何编程语言中,处理打开然后关闭的资源(如文件)是很常见的,在处理这些资源时,我们需要留意可能引发的任何异常。这是因为如果打开一个资源并抛出异常,我们可能永远不会执行清理相关的代码,从而处于资源泄漏的状态。使用 finally 块在 Python 中处理这个问题很简单,举个例子:
file = open("example.txt")
try:
data = file.read()
finally:
file.close()
即使在 file.read 期间出现异常,文件句柄最后也会关闭,但缺点是我们必须将所有内容都包裹在 try/finally 中,还要记住调用相关方法以正确关闭资源。这对文件来说并不难,因为我们只需要记住关闭它们,但我们仍然想得到重用性更高的东西。而 Python 提供了一个语言特性来处理这个问题,称为上下文管理器。使用它,我们可将关闭逻辑与 try/finally 块一起进行抽象:
with open("example.txt") as file:
data = file.read()
这种管理文件的方式要更加简洁,如果 with 块中抛出异常,文件将自动关闭。这适用于同步资源,但是如果我们想异步使用具有这种语法的资源该怎么办呢?这种情况下,上下文管理器语法将不起作用,因为它仅适用于同步 Python 代码,而不适用于协程和任务。于是 Python 引入一种新的语言特性来支持这个功能,称为异步上下文管理器,它的语法与同步上下文管理器几乎相同,但不同之处在于它使用的是 async with 而不是 with。
我们知道如果想自定义同步上下文管理器,只需要实现 __enter__ 和 __exit__ 两个魔法方法即可,那么如果想实现异步上下文管理器,则需要实现 __aenter__ 和 __aexit__。
import asyncio
class Conn:
async def __aenter__(self):
print("创建连接")
return self
async def __aexit__(self, exc_type, exc_val, exc_tb):
print("释放连接")
async def main():
async with Conn() as conn:
print("基于连接做一些事情")
asyncio.run(main())
"""
创建连接
基于连接做一些事情
释放连接
"""
比较简单,通常情况下,我们很少会手动编写异步上下文管理器,但了解它们的工作原理以及与普通上下文管理器的不同之处会很有帮助。现在已经介绍了上下文管理器及其工作原理,让我们将它们与 aiohttp 一起使用,看看如何发出异步 Web 请求。
使用 aiohttp 发出 Web 请求
首先需要安装 aiohttp 库,直接 pip install 即可。
aiohttp 和一般的 Web 请求都使用会话的概念,会话可以视为打开的一个浏览器,在浏览器窗口中,你可以打开任意数量的网页。使用会话,你将保持许多连接,然后可对它们进行回收,这便是所谓的连接池。连接池是一个重要概念,它有助于我们提高基于 aiohttp 的应用程序的性能。由于创建连接是资源密集型操作,因此创建可重用的连接池能够降低资源分配成本。此外会话还将在内部保存我们收到的任何 cookie,但如有必要,也可以关闭此功能。
通常,我们希望利用连接池,因此大多数基于 aiohttp 的应用程序在整个应用程序内都只使用一个会话,然后将此会话对象传递给需要的函数。而会话对象有很多方法,用于发出任意数量的 Web 请求,比如 GET、PUT 和 POST 等等,我们可使用 async with 语法和 aiohttp.ClientSession 以异步上下文管理器的方式来创建会话。
import asyncio
import aiohttp
from aiohttp import ClientSession
# 我们之前编写的一个装饰器,用于计算协程的执行时间
from utils import async_timed
async def fetch_status(session: ClientSession, url: str):
async with session.get(url) as response:
return response.status
@async_timed
async def main():
async with aiohttp.ClientSession() as session:
url = "http://hadoop.apache.org"
status = await fetch_status(session, url)
print(f"status is status")
asyncio.run(main())
"""
协程 main 开始执行
status is 200
协程 main 用 0.23856710000000003 秒执行完毕
"""
在代码中首先使用 aiohttp.ClientSession() 在 async with 块中创建了一个客户端会话,一旦有了会话,就可以自由地发出任何所需的网络请求。这种情况下,我们定义一个函数 fetch_status,它将接收一个会话和一个 URL,并返回给定 URL 的状态码。这个函数中有另一个 async with 块,并使用会话对 URL 运行 GET HTTP 请求。
注意,默认情况下,ClientSession 将创建最多100个连接,为可以发出的并发请求数提供隐式上限。要更改此限制,可创建一个 aiohttp.TCPConnector 实例,指定最大连接数,并将其传递给 ClientSession。
connector = aiohttp.TCPConnector(limit=200)
async with aiohttp.ClientSession(connector=connector) as session:
pass
由于我们后面要重用 fetch_status 函数,所以我们也将它放在 utils.py 里面,后续用的时候直接导入即可。
注:如果你在 Windows 上使用 aiohttp 报错了,出现 RuntimeError: Event loop is closed 的错误,即使应用程序运行良好也是如此。那么可以手动创建事件循环,而不是使用 asyncio.run。或者在 asyncio.run 之前,将事件循环策略改为 Windows 选择器事件循环策略,方式如下:
asyncio.set_event_loop_policy(asyncio.WindowsSelectorEventLoopPolicy())
不过对于我当前的 Python3.8 来说,在 Windows 上使用 asyncio.run 是能够正常运行的。
使用 aiohttp 设置超时
之前看到了如何使用 asyncio.wait_for 为可等待对象指定超时,而这种方式这也适用于 aiohttp 请求,但是设置超时的更简洁方法是使用 aiohttp 提供的开箱即用
的功能。
默认情况下,aiohttp 的超时时间为 5 分钟,这意味着任何单个操作都不应超过此时间。但说实话 5 分钟太长了,许多应用程序开发人员可能希望将其设置得较低。因此我们可在会话级别指定超时,这将为每个操作应用该超时,或者也可在请求级别设置超时,这将提供更精细的超时控制。
async def fetch_status(session: ClientSession, url: str):
timeout = aiohttp.ClientTimeout(1)
async with session.get(url, timeout=timeout) as response:
return response.status
@async_timed
async def main():
timeout = aiohttp.ClientTimeout(3)
async with aiohttp.ClientSession(timeout=timeout) as session:
url = "http://hadoop.apache.org"
status = await fetch_status(session, url)
print(f"status is status")
asyncio.run(main())
我们在会话级别设置了一个超时,那么它会作用在所有的请求上。当然,如果在具体发请求时,又重新设置了,那么以新设置的为准。
这些示例展示了 aiohttp 的基础知识,但使用 asyncio 运行单个请求所带来的性能提升并不明显。当同时运行多个 Web 请求时,我们将真正看到它在性能方面带来的好处。
并发运行任务及重新访问
前面我们学习了如何创建多个任务来并发运行程序,通过使用 asyncio.create_task,然后等待任务,如下所示:
import asyncio
from utils import async_timed
@async_timed
async def main():
task1 = asyncio.create_task(asyncio.sleep(3))
task2 = asyncio.create_task(asyncio.sleep(3))
task3 = asyncio.create_task(asyncio.sleep(3))
await task1
await task2
await task3
asyncio.run(main())
"""
协程 main 开始执行
协程 main 用 3.0111923000000003 秒执行完毕
"""
这种代码编写方式只适用于简单情况,如果要同时发出数百、数千甚至更多 Web 请求的情况下,这种编写方式将变得冗长且混乱。
import asyncio
from utils import async_timed
@async_timed
async def main():
for second in (3, 3, 3):
await asyncio.create_task(asyncio.sleep(second))
asyncio.run(main())
"""
协程 main 开始执行
协程 main 用 9.014008800000001 秒执行完毕
"""
但是问题来了,此时居然花了 9 秒钟,出现这一情况的原因就是,我们一创建任务就使用 await。而 await 在任务运行完毕之前又处于阻塞,这就导致三个任务是串行的。我们应该这么做:
import asyncio
from utils import async_timed
@async_timed
async def main():
tasks = []
for second in (3, 3, 3):
# 丢到事件循环里面即可,不要刚丢进去就 await
task = asyncio.create_task(asyncio.sleep(second))
tasks.append(task)
# 等到所有任务都扔到事件循环里面之后,再进行 await
# 这样几个任务就是并发运行的,遇见 IO 时可以切换到其它任务
# 之前的做法之所以不会切换,是因为同一时间,事件循环里面只有一个任务
# 等到第一个运行完之后,再扔第二个,第二个运行完再扔第三个
# 所以它们是串行的,因此要 9 秒。
# 正确的做法应该是先把任务都扔到事件循环,然后再 await,这样就会并发运行
for task in tasks:
await task
# 先等第一个任务运行完毕,再等第二个任务运行完毕,最后等第三个任务运行完毕
# 由于三个任务是并发执行的,所以第一次循环 await task 肯定需要三秒
# 但第二次循环和第三次循环 await task 会瞬间结束,因为它们都 sleep 了 3 秒
# 如果把 second in (3, 3, 3),改成 second in (3, 4, 7)
# 那么第一次循环 await task 需要 3 秒,第二次就只需要 1 秒,第三次需要 3 秒
# 总耗时为 7 秒,因为任务是并发运行的
asyncio.run(main())
"""
协程 main 开始执行
协程 main 用 3.0130679000000002 秒执行完毕
"""
但这些代码仍然不够简洁,我们能不能一次性等待多个任务呢?显然是可以的,asyncio 提供了许多便利函数,如果要运行多个任务,建议使用它们。
通过 asyncio.gather 执行并发请求
一个被广泛用于可等待并发的 asyncio API 函数是 asyncio.gather,这个函数接收一系列等待对象,允许我们在一行代码中同时运行它们。如果传入的 awaitable 对象是协程,gather 会自动将其包装成任务,以确保它们可以同时运行。这意味着不必像之前那样,用 asyncio.create_task 单独包装所有内容,因为会自动包装(但还是建议手动包装一下)。
asyncio.gather 同样返回一个 awaitable 对象,在 await 表达式中使用它时,它将暂停,直到传递给它的所有 awaitable 对象都完成为止。一旦传入的所有任务都完成,asyncio.gather 将返回这些任务的结果所组成的列表。
import asyncio
import aiohttp
from utils import async_timed, fetch_status
@async_timed
async def main():
async with aiohttp.ClientSession() as session:
requests = [fetch_status(session, "http://www.baidu.com") for _ in range(100)]
# 并发运行 100 个任务,并等待这些任务全部完成
# 相比写 for 循环再单独 await,这种方式就简便多了
status_codes = await asyncio.gather(*requests)
print(len(status_codes))
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
协程 main 开始执行
100
协程 main 用 0.4120007 秒执行完毕
"""
完成 100 个请求只需要 0.4 秒钟,由于网络问题,测试的结果可能不准确,但异步肯定比同步要快。
另外传给 gather 的每个 awaitable 对象可能不是按确定性顺序完成的,例如将协程 a 和 b 按顺序传递给 gather,但 b 可能会在 a 之前完成。不过 gather 的一个很好的特性是,不管 awaitable 对象何时完成,都保证结果按传递它们的顺序返回。
import asyncio
from utils import async_timed
@async_timed
async def main():
# asyncio.sleep 可以接收一个 result 参数
# 可以作为 await 表达式的值
tasks = [asyncio.sleep(second, result=f"我睡了 second 秒")
for second in (5, 3, 4)]
print(await asyncio.gather(*tasks))
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
协程 main 开始执行
[\'我睡了 5 秒\', \'我睡了 3 秒\', \'我睡了 4 秒\']
协程 main 用 5.0051343 秒执行完毕
"""
然后 gather 还可以实现分组,什么意思呢?
import asyncio
from pprint import pprint
from utils import async_timed
@async_timed
async def main():
gather1 = asyncio.gather(*[asyncio.sleep(second, result=f"我睡了 second 秒")
for second in (5, 3, 4)])
gather2 = asyncio.gather(*[asyncio.sleep(second, result=f"我睡了 second 秒")
for second in (3, 3, 3)])
results = await asyncio.gather(gather1, gather2, asyncio.sleep(6, "我睡了 6 秒"))
pprint(results)
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
协程 main 开始执行
[[\'我睡了 5 秒\', \'我睡了 3 秒\', \'我睡了 4 秒\'],
[\'我睡了 3 秒\', \'我睡了 3 秒\', \'我睡了 3 秒\'],
\'我睡了 6 秒\']
协程 main 用 6.0184796 秒执行完毕
"""
asyncio.gather 里面也可以继续接收 asyncio.gather 返回的对象,从而实现分组功能,还是比较强大的。
如果 gather 里面啥都不传的话,那么会返回一个空列表。
但在上面这个例子中,我们假设所有请求都不会失败或抛出异常,这是理想情况。但如果请求失败了呢?
处理 gather 中的异常
我们来看一下,当 gather 里面的任务出现异常时会发生什么?
import asyncio
from pprint import pprint
async def normal_running():
await asyncio.sleep(3)
return "正常运行"
async def raise_error():
raise ValueError("出错啦")
async def main():
results = await asyncio.gather(normal_running(), raise_error())
pprint(results)
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
Traceback (most recent call last):
......
raise ValueError("出错啦")
ValueError: 出错啦
"""
默认情况下,如果有任务(协程)抛出异常,那么 gather 调用在等待它时也将抛出该异常,换句话说,某个任务出现的异常会向上传播。
import asyncio
async def normal_running():
await asyncio.sleep(3)
return "正常运行"
async def raise_error():
raise ValueError("出错啦")
async def main():
try:
await asyncio.gather(normal_running(), raise_error())
except Exception:
pass
for task in asyncio.all_tasks():
# task 相当于对协程做了一个封装,那么通过 get_coro 方法也可以拿到对应的协程
print(task.get_coro().__name__, task.cancelled())
results = await asyncio.gather(*[task for task in asyncio.all_tasks()
if task.get_coro().__name__ != "main"])
print(results)
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
main False
normal_running False
[\'正常运行\']
"""
在 await asyncio.gather 的时候,raise_error() 协程抛异常了,那么异常会向上传播,main() 里面 await 处产生 ValueError。我们捕获之后查看剩余未完成的任务,显然只剩下 normal_running() 和 main(),因为任务执行出现异常也代表它完成了。并且这些未完成的任务并没有被取消,它们仍在后台运行。
import asyncio
import time
from utils import async_timed
async def normal_running():
await asyncio.sleep(5)
return "正常运行"
async def raise_error():
await asyncio.sleep(3)
raise ValueError("出错啦")
@async_timed
async def main():
try:
await asyncio.gather(normal_running(), raise_error())
except Exception:
pass
# raise_error() 会在 3 秒后抛异常,然后向上抛,被这里捕获
# 而 normal_running() 不会受到影响,它仍然在后台运行,显然接下来它只需要再过 2 秒就能运行完毕
time.sleep(2) # 注意:此处会阻塞整个线程
# asyncio.sleep 是不耗费 CPU 的,因此即使 time.sleep 将整个线程阻塞了,也不影响
# 因为执行 time.sleep 的时候,normal_running() 里面的 await asyncio.sleep(5) 已经开始执行了
results = await asyncio.gather(*[task for task in asyncio.all_tasks()
if task.get_coro().__name__ != "main"])
print(results)
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
协程 main 开始执行
[\'正常运行\']
协程 main 用 5.014851299999999 秒执行完毕
"""
这里耗时是 5 秒,说明一个任务抛异常不会影响其它任务,因为 time.sleep(2) 执行完毕之后,normal_running() 里面 asyncio.sleep(5) 也已经执行完毕了,说明异常捕获之后,剩余的任务没有受到影响。并且这里我们使用了 time.sleep,在工作中千万不要这么做,因为它会阻塞整个线程,导致主线程无法再做其他事情了。而这里之所以用 time.sleep,主要是想说明一个任务出错,那么将异常捕获之后,其它任务不会受到影响。
那么问题来了,如果发生异常,我不希望它将异常向上抛该怎么办呢?可能有人觉得这还不简单,直接来一个异常捕获不就行了?这是一个解决办法,但 asyncio.gather 提供了一个参数,可以更优雅的实现这一点。
import asyncio
async def normal_running():
await asyncio.sleep(3)
return "正常运行"
async def raise_error():
raise ValueError("出错啦")
async def main():
results = await asyncio.gather(normal_running(), raise_error(),
return_exceptions=True)
print(results)
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
[\'正常运行\', ValueError(\'出错啦\')]
"""
在介绍 future 的时候我们说了,不管正常执行结束还是出错,都代表任务已完成,会将结果和异常都收集起来,只不过其中肯定有一个为 None。然后根据不同的情况,选择是否将异常抛出来(所以在 asyncio 里面,异常也是一个普通的属性,会保存在任务对象里面)。对于 asyncio.gather 也是同理,它里面有一个 return_exceptions 参数,默认为 False,当任务出现异常时,会抛给 await 所在的位置。如果该参数设置为 True,那么出现异常时,会直接把异常本身返回(此时任务也算是结束了)。
所以在 asyncio 里面,异常变成了一个可控的属性。因为执行是以任务为单位的,当出现异常时,也会作为任务的一个普通的属性。我们可以选择将它抛出来,也可以选择隐式处理掉。
至于我们要判断哪些任务是正常执行,哪些任务是抛了异常,便可以通过返回值来判断。如果 isinstance(res, Exception) 为 True,那么证明任务出现了异常,否则正常执行。虽然这有点笨拙,但也能凑合用,因为 API 并不完美。
当然以上这些都不能算是缺点,gather 真正的缺点有两个:
- 如果我希望所有任务都要执行成功,要是有一个任务失败,其它任务自动取消,该怎么实现呢?比如发送 Web 请求,如果一个请求失败,其他所有请求也会失败(要取消请求以释放资源)。显然要做到这一点不容易,因为协程被包装在后台的任务中。
- 其次,必须等待所有协程执行完成,才能处理结果。如果想要在结果完成后立即处理它们,这就存在问题。例如有一个请求需要 100 毫秒,而另一个请求需要 20 秒,那么在处理 100 毫秒完成的那个请求之前,我们将等待 20 秒。
而 asyncio 也提供了用于解决这两个问题的 API。
在请求完成时立即处理
虽然 asyncio.gather 适用于许多情况,但它的缺点是会等到所有可等待对象完成之后,才允许对结果进行访问。如果想在某个结果生成之后就对其进行处理,这是一个问题;如果有一些可以快速完成的等待对象,和一些可能需要很长时间完成的等待对象,这也可能是一个问题。因为 gather 需要等待所有对象执行完毕,这就导致应用程序可能变得无法响应。
想象一个用户发出 100 个请求,其中两个很慢,但其余的都很快完成。如果一旦有请求完成,可以向用户输出一些信息,就会提升用户的使用体验。
为处理这种情况,asyncio 公开了一个名为 as_completed 的 API 函数,这个函数接收一个可等待对象(awaitable)组成的列表,并返回一个 future 迭代器。然后可以迭代这个 future,等待它们中的每一个对象都完成,并且哪个先完成,哪个就被迭代。这意味着将能在结果可用时立即就处理它们,但很明显此时就没有所谓的顺序了,因为无法保证哪些请求先完成。
import asyncio
from utils import async_timed
async def delay(seconds):
await asyncio.sleep(seconds)
return f"我睡了 seconds 秒"
@async_timed
async def main():
# asyncio 提供的用于等待一组 awaitable 对象 API 都很智能
# 如果检测到你传递的是协程,那么会自动包装成任务
# 不过还是建议手动包装一下
tasks = [asyncio.create_task(delay(seconds))
for seconds in (3, 5, 2, 4, 6, 1)]
for finished_task in asyncio.as_completed(tasks):
print(await finished_task)
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
协程 main 开始执行
我睡了 1 秒
我睡了 2 秒
我睡了 3 秒
我睡了 4 秒
我睡了 5 秒
我睡了 6 秒
协程 main 用 6.0100407 秒执行完毕
"""
注意:asyncio.as_completed 返回的是 future 组成的列表,我们直接 await 即可,会自动将值取出来。问题来了,如果出现异常了怎么办?
import asyncio
from utils import async_timed
async def delay(seconds):
await asyncio.sleep(seconds)
if seconds == 3:
raise ValueError("出现异常了(seconds is 3)")
return f"我睡了 seconds 秒"
@async_timed
async def main():
# asyncio 提供的用于等待一组 awaitable 对象 API 都很智能
# 如果检测到你传递的是协程,那么会自动包装成任务
# 不过还是建议手动包装一下
tasks = [asyncio.create_task(delay(seconds))
for seconds in (3, 5, 2, 4, 6, 1)]
for finished_task in asyncio.as_completed(tasks):
print(await finished_task)
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
协程 main 开始执行
我睡了 1 秒
我睡了 2 秒
协程 main 用 3.0129839 秒执行完毕
Traceback (most recent call last):
......
raise ValueError("出现异常了(seconds is 3)")
ValueError: 出现异常了(seconds is 3)
"""
如果出现异常了,那么很简单, 直接 try except 即可。
import asyncio
from utils import async_timed
async def delay(seconds):
await asyncio.sleep(seconds)
if seconds == 3:
raise ValueError("出现异常了(seconds is 3)")
return f"我睡了 seconds 秒"
@async_timed
async def main():
tasks = [asyncio.create_task(delay(seconds))
for seconds in (3, 5, 2, 4, 6, 1)]
for finished_task in asyncio.as_completed(tasks):
try:
print(await finished_task)
except Exception as e:
print(e)
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
协程 main 开始执行
我睡了 1 秒
我睡了 2 秒
出现异常了(seconds is 3)
我睡了 4 秒
我睡了 5 秒
我睡了 6 秒
协程 main 用 5.9977564 秒执行完毕
"""
然后任何基于 Web 的请求都存在花费很长时间的风险,服务器可能处于过重的资源负载下,或者网络连接可能很差。之前我们看到了如何为特定请求添加超时,但如果想为一组请求设置超时怎么办?as_completed 函数通过提供一个可选的 timeout 参数来处理这种情况,它允许以秒为单位指定超时时间。如果花费的时间超过设定的时间,那么迭代器中的每个可等待对象都会在等待时抛出 TimeoutException。
import asyncio
from utils import async_timed
async def delay(seconds):
await asyncio.sleep(seconds)
return f"我睡了 seconds 秒"
@async_timed
async def main():
tasks = [asyncio.create_task(delay(seconds))
for seconds in (1, 5, 6)]
for finished_task in asyncio.as_completed(tasks, timeout=3):
try:
print(await finished_task)
except asyncio.TimeoutError:
print("超时啦")
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
协程 main 开始执行
我睡了 1 秒
超时啦
超时啦
协程 main 用 3.0023678 秒执行完毕
"""
as_completed 非常适合用于尽快获得结果,但也有缺点。第一个缺点是当得到结果时,没有任何方法可快速了解我们正在等待哪个协程或任务,因为运行顺序是完全不确定的。如果不关心顺序,这可能没问题,但如果需要以某种方式将结果与请求相关联,我们将面临挑战。
第二个缺点是超时,虽然会正确地抛出异常并继续运行程序,但创建的所有任务仍将在后台运行。如果想取消它们,很难确定哪些任务仍在运行,这是我们面临的另一个挑战。
import asyncio
from utils import async_timed
async def delay(seconds):
await asyncio.sleep(seconds)
return f"我睡了 seconds 秒"
@async_timed
async def main():
tasks = [asyncio.create_task(delay(seconds))
for seconds in (1, 5, 6)]
for finished_task in asyncio.as_completed(tasks, timeout=3):
try:
print(await finished_task)
except asyncio.TimeoutError:
print("超时啦")
# tasks[1] 还需要 2 秒运行完毕,tasks[2] 还需要 3 秒运行完毕
print(tasks[1].done(), tasks[2].done())
await asyncio.sleep(2)
# 此时只剩下 tasks[2],还需要 1 秒运行完毕
print(tasks[1].done(), tasks[2].done())
await asyncio.sleep(1)
# tasks[2] 也运行完毕
print(tasks[1].done(), tasks[2].done())
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
协程 main 开始执行
我睡了 1 秒
超时啦
超时啦
False False
True False
True True
协程 main 用 6.0380878 秒执行完毕
"""
根据输出结果可以发现,虽然因为抵达超时时间, await 会导致 TimeoutError,但未完成的任务不会受到影响,它们仍然在后台执行。
但这对于我们来说,有时却不是一件好事,因为我们希望如果抵达超时时间,那么未完成的任务就别在执行了,这时候如何快速找到那些未完成的任务呢?为处理这种情况,asyncio 提供了另一个 API 函数:wait。
使用 wait 进行细粒度控制
gather 和 as_completed 的缺点之一是,当我们看到异常时,没有简单的方法可以取消已经在运行的任务。这在很多情况下可能没问题,但是想象一个场景:同时发送大批量 Web 请求(参数格式是相同的),但如果某个请求的参数格式错误(说明所有请求的参数格式都错了),那么剩余的请求还有必要执行吗?显然是没有必要的,而且还会消耗更多资源。另外 as_completed 的另一个缺点是,由于迭代顺序是不确定的,因此很难准确跟踪已完成的任务。
于是 asyncio 提供了 wait 函数,注意它和 wait_for 的区别,wait_for 针对的是单个任务,而 wait 则针对一组任务(不限数量)。
注:wait 函数接收的是一组 awaitable 对象,但未来的版本改为仅接受任务对象。因此对于 gather、as_completed、wait 等函数,虽然它们会自动包装成任务,但我们更建议先手动包装成任务,然后再传过去。
并且 wait 和 as_completed 接收的都是任务列表,而 gather 则要求将列表打散,以多个位置参数的方式传递,因此这些 API 的参数格式不要搞混了。
然后是 wait 函数的返回值,它会返回两个集合:一个由已完成的任务(执行结束或出现异常)组成的集合,另一个由未完成的任务组成的集合。而 wait 函数的参数,它除了可以接收一个任务列表之外,还可以接收一个 timeout(超时时间)和一个 return_when(用于控制返回条件)。光说很容易乱,我们来实际演示一下。
等待所有任务完成
如果未指定 retun_when,则此选项使用默认值,并且它的行为与 asyncio.gather 最接近,但也存在一些差异。
import asyncio
async def delay(seconds):
await asyncio.sleep(seconds)
return f"我睡了 seconds 秒"
async def main():
tasks = [asyncio.create_task(delay(seconds)) for seconds in (3, 2, 4)]
# 和 gather 一样,默认会等待所有任务都完成
done, pending = await asyncio.wait(tasks)
print(f"已完成的任务数: len(done)")
print(f"未完成的任务数: len(pending)")
for done_task in done:
print(await done_task)
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
已完成的任务数: 3
未完成的任务数: 0
我睡了 2 秒
我睡了 4 秒
我睡了 3 秒
"""
await asynio.wait 时,会返回两个集合,分别保存已完成的任务和仍然运行的任务。并且由于返回的是集合,所以是无序的。默认情况下,asyncio.wait 会等到所有任务都完成后才返回,所以待处理集合的长度为 0。然后还是异常,如果某个任务执行时出现异常了该怎么办呢?
import asyncio
async def delay(seconds):
await asyncio.sleep(seconds)
if seconds == 3:
raise ValueError("我出错了(second is 3)")
return f"我睡了 seconds 秒"
async def main():
tasks = [asyncio.create_task(delay(seconds)) for seconds in range(1, 6)]
done, pending = await asyncio.wait(tasks)
print(f"已完成的任务数: len(done)")
print(f"未完成的任务数: len(pending)")
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
已完成的任务数: 5
未完成的任务数: 0
Task exception was never retrieved
future: <Task finished ... coro=<delay() done, defined at .../main.py:3> exception=ValueError(\'我出错了(second is 3)\')>
......
raise ValueError("我出错了(second is 3)")
ValueError: 我出错了(second is 3)
"""
对于 asyncio.gather 而言,如果某个任务出现异常,那么异常会向上抛给 await 所在的位置。如果不希望它抛,那么可以将 gather 里面的 return_exceptions 参数指定为 True,这样当出现异常时,会将异常返回。而 asyncio.wait 也是如此,如果任务出现异常了,那么会直接视为已完成,异常同样不会向上抛。
但是从程序开发的角度来讲,返回值可以不要,但异常不能不处理。所以当任务执行出错时,虽然异常不会向上抛,但 asyncio 会将它打印出来,于是就有了:Task exception was never retrieved。意思就是该任务出现异常了,但你没有处理它。
所以我们的程序应该这么改:
import asyncio
async def delay(seconds):
await asyncio.sleep(seconds)
if seconds == 3:
raise ValueError("我出错了(second is 3)")
return f"我睡了 seconds 秒"
async def main():
tasks = [asyncio.create_task(delay(seconds)) for seconds in range(1, 6)]
# done 里面保存的都是已完成的任务
done, pending = await asyncio.wait(tasks)
print(f"已完成的任务数: len(done)")
print(f"未完成的任务数: len(pending)")
# future 对象有两个属性:_result 和 _exception
# _result 负责保存正常执行的返回值,调用 result() 会返回 _result 属性
# _exception 负责保存执行出错产生的异常,调用 exception() 会返回 _exception 属性
# 如果程序正常执行,那么调用 exception() 会返回 None,因为程序没有出现异常
# 但如果程序出现异常了,那么调用 exception() 就会返回异常,而调用 result() 会将异常抛出来
# 所以我们直接遍历 done 即可
for done_task in done:
# 这里不能使用 await done_task,因为当任务完成时,它就等价于 done_task.result()
# 而任务出现异常时,调用 result() 是会将异常抛出来的,所以我们需要先检测异常是否为空
exc = done_task.exception()
if exc:
print(exc)
else:
print(done_task.result())
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
已完成的任务数: 5
未完成的任务数: 0
我出错了(second is 3)
我睡了 4 秒
我睡了 1 秒
我睡了 5 秒
我睡了 2 秒
"""
这里调用 result 和 exception 有一个前提,就是任务必须处于已完成状态,否则会抛异常:InvalidStateError: Result is not ready.。但对于我们当前是没有问题的,因为 done 里面的都是已完成的任务。
这里能再次看到和 gather 的区别,gather 会帮你把返回值都取出来,放在一个列表中,并且顺序就是任务添加的顺序。而 wait 返回的是集合,集合里面是任务,我们需要手动拿到返回值。
某个出现异常时取消其它任务
从目前来讲,wait 的作用和 gather 没有太大的区别,都是等到任务全部结束再解除等待(出现异常也视作任务完成,并且其它任务不受影响)。那如果我希望当有任务出现异常时,立即取消其它任务该怎么做呢?显然这就依赖 wait 函数里面的 return_when,它有三个可选值:
- asyncio.ALL_COMPLETED:等待所有任务完成后返回;
- asyncio.FIRST_COMPLETED:有一个任务完成就返回;
- asyncio.FIRST_EXCEPTION:当有任务出现异常时返回;
显然为完成这个需求,我们应该将 return_when 指定为 asyncio.FIRST_EXCEPTION。
import asyncio
async def delay(seconds):
await asyncio.sleep(seconds)
if seconds == 3:
raise ValueError("我出错了(second is 3)")
return f"我睡了 seconds 秒"
async def main():
tasks = [asyncio.create_task(delay(seconds), name=f"睡了 seconds 秒的任务")
for seconds in range(1, 6)]
done, pending = await asyncio.wait(tasks, return_when=asyncio.FIRST_EXCEPTION)
print(f"已完成的任务数: len(done)")
print(f"未完成的任务数: len(pending)")
print("都有哪些任务完成了?")
for t in done:
print(" " + t.get_name())
print("还有哪些任务没完成?")
for t in pending:
print(" " + t.get_name())
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
已完成的任务数: 3
未完成的任务数: 2
都有哪些任务完成了?
睡了 2 秒的任务
睡了 3 秒的任务
睡了 1 秒的任务
还有哪些任务没完成?
睡了 4 秒的任务
睡了 5 秒的任务
"""
当 delay(3) 失败时,显然 delay(1)、delay(2) 已完成,而 delay(4) 和 delay(5) 未完成。此时集合 done 里面的就是已完成的任务,pending 里面则是未完成的任务,如果我们希望将剩余未完成的任务取消掉,那么直接遍历 pending 集合即可。
import asyncio
async def delay(seconds):
await asyncio.sleep(seconds)
if seconds == 3:
raise ValueError("我出错了(second is 3)")
print(f"我睡了 seconds 秒")
async def main():
tasks = [asyncio.create_task(delay(seconds))
for seconds in range(1, 6)]
done, pending = await asyncio.wait(tasks, return_when=asyncio.FIRST_EXCEPTION)
print(f"已完成的任务数: len(done)")
print(f"未完成的任务数: len(pending)")
# 此时未完成的任务仍然在后台运行,这时候我们可以将它们取消掉
for t in pending:
t.cancel()
# 阻塞 3 秒
await asyncio.sleep(3)
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
我睡了 1 秒
我睡了 2 秒
已完成的任务数: 3
未完成的任务数: 2
"""
在 await asyncio.sleep(3) 的时候,剩余两个任务并没有输出,所以任务确实被取消了。
注:出现异常的任务会被挂在已完成集合里面,并且如果没有任务执行出错,那么效果等价于 ALL_COMPLETED。
当任务完成时处理结果
ALL_COMPLETED 和 FIRST_EXCEPTION 都有一个缺点,在任务成功且不抛出异常的情况下,必须等待所有任务完成。对于之前的用例,这可能是可以接受的,但如果想要在某个协程成功完成后立即处理结果,那么现在的情况将不能满足我们的需求。
当想要在结果完成后立即对其做出响应的情况下,可使用 as_completed,但 as_completed 的问题是没有简单的方法可以查看哪些任务还在运行,哪些任务已经完成。因为遍历迭代器一次只得到一个任务,而哪个任务会先遍历出来我们是不知道的,所以 as_completed 无法完成我们的需求。
好在 wait 函数的 return_when 参数可以接收 FIRST_COMPLETED 选项,表示只要有一个任务完成就立即返回,而返回的可以是执行出错的任务,也可以是成功运行的任务(任务失败也表示已完成)。然后,我们可以取消其他正在运行的任务,或者让某些任务继续运行,具体取决于用例。
import asyncio
async def delay(seconds):
await asyncio.sleep(seconds)
if seconds == 3:
raise ValueError("我出错了(second is 3)")
print(f"我睡了 seconds 秒")
async def main():
tasks = [asyncio.create_task(delay(seconds))
for seconds in range(1, 6)]
done, pending = await asyncio.wait(tasks, return_when=asyncio.FIRST_COMPLETED)
print(f"已完成的任务数: len(done)")
print(f"未完成的任务数: len(pending)")
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
我睡了 1 秒
已完成的任务数: 1
未完成的任务数: 4
"""
当然 return_when 参数为 FIRST_COMPLETED 时,那么只要有一个任务完成就会立即返回,然后我们处理完成的任务即可。至于剩余的任务,它们仍在后台运行,我们可以继续对其使用 wait 函数。
import asyncio
async def delay(seconds):
await asyncio.sleep(seconds)
if seconds == 3:
raise ValueError("我出错了(second is 3)")
return f"我睡了 seconds 秒"
async def main():
tasks = [asyncio.create_task(delay(seconds))
for seconds in range(1, 6)]
while True:
done, pending = await asyncio.wait(tasks, return_when=asyncio.FIRST_COMPLETED)
for t in done:
exc = t.exception()
print(exc) if exc else print(t.result())
if pending: # 还有未完成的任务,那么继续使用 wait
tasks = pending
else:
break
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
我睡了 1 秒
我睡了 2 秒
我出错了(second is 3)
我睡了 4 秒
我睡了 5 秒
"""
整个行为和 as_completed 是一致的,但这种做法有一个好处,就是我们每一步都可以准确地知晓哪些任务已经完成,哪些任务仍然运行,并且也可以做到精确取消指定任务。
处理超时
除了允许对如何等待协程完成进行更细粒度的控制外,wait 还允许设置超时,以指定我们希望等待完成的时间。要启用此功能,可将 timeout 参数设置为所需的最大秒数,如果超过了这个超时时间,wait 将立即返回 done 和 pending 任务集。不过与目前所看到的 wait_for 和 as_completed 相比,超时在 wait 中的行为方式存在一些差异。
1)协程不会被取消。
当使用 wait_for 时,如果任务超时,则引发 TimeouError,并且任务也会自动取消。但使用 wait 的情况并非如此,它的行为更接近我们在 as_completed 中看到的情况。如果想因为超时而取消协程,必须显式地遍历任务并取消它们。
2)不会引发超时错误。
如果发生超时,则 wait 返回所有已完成的任务,以及在发生超时的时候仍处于运行状态的所有任务。
import asyncio
async def delay(seconds):
await asyncio.sleep(seconds)
return f"我睡了 seconds 秒"
async def main():
tasks = [asyncio.create_task(delay(seconds))
for seconds in range(1, 6)]
done, pending = await asyncio.wait(tasks, timeout=3.1)
print(f"已完成的任务数: len(done)")
print(f"未完成的任务数: len(pending)")
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
已完成的任务数: 3
未完成的任务数: 2
"""
wait 调用将在 3 秒后返回 done 和 pending 集合,在 done 集合中,会有三个已完成的任务。而耗时 4 秒和 5 秒的任务,由于仍在运行,因此它们将出现在 pending 集合中。我们可以继续等待它们完成并提取返回值,也可以将它们取消掉。
需要注意:和之前一样,pending 集合中的任务不会被取消,并且继续运行,尽管会超时。对于要终止待处理任务的情况,我们需要显式地遍历 pending 集合并在每个任务上调用 cancel。
为什么要将协程包装成任务之后再传给 wait 函数
我们说协程在传给 wait 的时候会自动包装成任务,那为什么我们还要手动包装呢?
import asyncio
async def delay(seconds):
await asyncio.sleep(seconds)
return f"我睡了 seconds 秒"
async def main():
tasks = [asyncio.create_task(delay(seconds))
for seconds in range(1, 6)]
done, pending = await asyncio.wait(tasks, timeout=3.1)
print(all(map(lambda t: t in tasks, done)))
print(all(map(lambda t: t in tasks, pending)))
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
"""
True
True
"""
如果 wait 函数接收的就是任务,那么 wait 函数就不会再包装了,所以 done 和 pending 里面的任务和 tasks 里面的任务是相同的。基于这个条件,我们后续可以做一些比较之类的。
比如有很多 Web 请求任务,但如果当未完成的任务是 task1、task2、task3,那么就取消掉,于是可以这么做。
for t in pending:
if t in (task1, task2, task3):
t.cancel()
如果返回的 done 和 pending 里的任务,是在 wait 函数中自动创建的,那么我们就无法进行任何比较来查看 pending 集合中的特定任务。
小结
在本文中,我们学习了以下内容:
1)使用和创建我们自己的异步上下文管理器,这是允许异步获取资源,然后释放的特殊类的实例,即使发生异常也是如此。通过它们,可以对资源进行善后清理,比如在处理 HTTP 会话和数据库连接时很有帮助。
2)使用 aiohttp 库来发出异步 Web 请求,aiohttp 是一个使用非阻塞套接字的 Web 客户端和服务端。使用 Web 客户端,可通过不阻塞事件循环的方式同时执多个 Web 请求。
3)asyncio.gather 函数允许同时运行多个任务,并等待它们完成。一旦传递给它的所有任务全部完成,这个函数就会返回。由于 gather 会拿到里面每个任务的返回值,所以它要求每个任务都是成功的,如果有任务执行出错(没有返回值),那么获取返回值的时候就会将异常抛出来,然后向上传递给 await asyncio.gather。为此,可以将 return_exceptions 设置为True,这将返回成功完成的可等待对象的结果,以及收到的异常(异常会作为一个普通的属性返回,和返回值是等价的)。
4)可使用 as_completed 函数在可等待对象列表完成时处理它们的结果,它会返回一个可以循环遍历的 future 迭代器。一旦某个协程或任务完成,就能访问结果并处理它。
5)如果希望同时运行多个任务,并且还希望能了解哪些任务已经完成,哪些任务在运行,则可以使用 wait。这个函数还允许在返回结果时进行更多控制,返回时,我们会得到一组已经完成的任务和一组仍在运行的任务。然后可以取消任何想要取消的任务,或执行其他任何需要执行的任务。并且 wait 里面的任务出现异常,也不会影响其它任务,异常会作为任务的一个属性,只是在我们没有处理的时候会给出警告。至于具体的处理方式,我们直接通过 exception 方法判断是否发生了异常即可,没有异常返回 result(),有异常返回 exception()。
如果觉得文章对您有所帮助,可以请囊中羞涩的作者喝杯柠檬水,万分感谢,愿每一个来到这里的人都生活愉快,幸福美满。
微信赞赏
支付宝赞赏
如何使用 python 的 asyncio 模块正确创建和运行并发任务?
【中文标题】如何使用 python 的 asyncio 模块正确创建和运行并发任务?【英文标题】:How to properly create and run concurrent tasks using python's asyncio module? 【发布时间】:2015-05-29 22:23:15 【问题描述】:我正在尝试使用 Python 3 相对较新的 asyncio
模块正确理解和实现两个同时运行的 Task
对象。
简而言之,asyncio 似乎旨在通过事件循环处理异步进程和并发Task
执行。它提倡使用await
(应用于异步函数)作为等待和使用结果的无回调方式,而不会阻塞事件循环。 (期货和回调仍然是一个可行的选择。)
它还提供了asyncio.Task()
类,这是Future
的专门子类,旨在包装协程。最好使用asyncio.ensure_future()
方法调用。 asyncio 任务的预期用途是允许独立运行的任务与同一事件循环中的其他任务“同时”运行。我的理解是Tasks
连接到事件循环,然后在await
语句之间自动继续驱动协程。
我喜欢能够使用并发任务而不需要使用Executor
类之一的想法,但我没有找到关于实现的详细说明。
这就是我目前的做法:
import asyncio
print('running async test')
async def say_boo():
i = 0
while True:
await asyncio.sleep(0)
print('...boo 0'.format(i))
i += 1
async def say_baa():
i = 0
while True:
await asyncio.sleep(0)
print('...baa 0'.format(i))
i += 1
# wrap in Task object
# -> automatically attaches to event loop and executes
boo = asyncio.ensure_future(say_boo())
baa = asyncio.ensure_future(say_baa())
loop = asyncio.get_event_loop()
loop.run_forever()
在尝试同时运行两个循环任务的情况下,我注意到除非任务具有内部await
表达式,否则它将卡在while
循环中,从而有效地阻止其他任务运行(很多就像普通的while
循环一样)。但是,一旦任务必须(a)等待,它们似乎可以同时运行而没有问题。
因此,await
语句似乎为事件循环提供了一个在任务之间来回切换的立足点,从而产生并发的效果。
带有内部await
的示例输出:
running async test
...boo 0
...baa 0
...boo 1
...baa 1
...boo 2
...baa 2
示例输出没有内部await
:
...boo 0
...boo 1
...boo 2
...boo 3
...boo 4
问题
此实现是否通过asyncio
中并发循环任务的“正确”示例?
唯一可行的方法是让Task
提供一个阻塞点(await
表达式)以便事件循环处理多个任务,这是否正确?
【问题讨论】:
是的,任务从yield from
自动执行到下一个yield from
。
【参考方案1】:
是的,在事件循环中运行的任何协程都会阻止其他协程和任务运行,除非它
-
使用
yield from
或await
(如果使用Python 3.5+)调用另一个协程。
返回。
这是因为asyncio
是单线程的;事件循环运行的唯一方法是没有其他协程主动执行。使用yield from
/await
会暂时挂起协程,让事件循环有机会工作。
您的示例代码很好,但在许多情况下,您可能不希望在事件循环内运行不执行异步 I/O 的长时间运行代码。在这些情况下,使用asyncio.loop.run_in_executor
在后台线程或进程中运行代码通常更有意义。如果您的任务受 CPU 限制,ProcessPoolExecutor
将是更好的选择,如果您需要执行一些对 asyncio
不友好的 I/O,则使用 ThreadPoolExecutor
。
例如,您的两个循环完全受 CPU 限制并且不共享任何状态,因此使用 ProcessPoolExecutor
跨 CPU 并行运行每个循环将获得最佳性能:
import asyncio
from concurrent.futures import ProcessPoolExecutor
print('running async test')
def say_boo():
i = 0
while True:
print('...boo 0'.format(i))
i += 1
def say_baa():
i = 0
while True:
print('...baa 0'.format(i))
i += 1
if __name__ == "__main__":
executor = ProcessPoolExecutor(2)
loop = asyncio.get_event_loop()
boo = loop.run_in_executor(executor, say_boo)
baa = loop.run_in_executor(executor, say_baa)
loop.run_forever()
【讨论】:
谢谢。很好的时机,因为我只是想知道这个主题:使用执行者。 尝试上面的代码并发现 boo 任务正在阻止 baa 运行,除非我将 asyncio.sleep(0) 的产量添加到每个 while True 循环中? @shongololo 抱歉,已修复。应该使用asyncio.async
,而不是直接使用asyncio.Task
构造函数。我们不希望 say_boo
和 say_baa
成为协程,它们应该只是在事件循环之外运行的普通函数,因此您不应向它们添加 yield from
调用或将它们包装在 asyncio.Task
中.
看起来 asyncio.async 是 ensure_future 的别名,现已弃用
我复制了代码并使用 Python 3.9 运行它。它抛出一个错误 - RuntimeError: no running event loop;但继续执行。此外,如上所述,boo 正在阻止进一步的代码执行。我想我明白了 - 创建任务,它将在当前循环中产生,但在“外部”执行器上执行 - 瞧,在后台工作。但它不起作用。第一个任务正在立即运行并阻止其余任务,因为它在同一个循环中。我删除了 asyncio.create_task() 并且它似乎工作正常 - 两个函数都开始在 loop.run_forever() 行上运行。【参考方案2】:
您不一定需要yield from x
来控制事件循环。
在您的示例中,我认为正确的方法是使用yield None
或等效的简单yield
,而不是yield from asyncio.sleep(0.001)
:
import asyncio
@asyncio.coroutine
def say_boo():
i = 0
while True:
yield None
print("...boo 0".format(i))
i += 1
@asyncio.coroutine
def say_baa():
i = 0
while True:
yield
print("...baa 0".format(i))
i += 1
boo_task = asyncio.async(say_boo())
baa_task = asyncio.async(say_baa())
loop = asyncio.get_event_loop()
loop.run_forever()
协程只是普通的旧 Python 生成器。
在内部,asyncio
事件循环记录了这些生成器,并在一个永无止境的循环中对它们中的每一个调用gen.send()
。每当您yield
时,对gen.send()
的调用就会完成,并且循环可以继续进行。 (我正在简化它;看看https://hg.python.org/cpython/file/3.4/Lib/asyncio/tasks.py#l265 的实际代码)
也就是说,如果您需要在不共享数据的情况下进行 CPU 密集型计算,我仍然会选择 run_in_executor
。
【讨论】:
适用于 Python 3.4,但似乎不适用于 Python 3.5。 3.5有类似的方法吗? (None
似乎比在任何地方使用asyncio.sleep()
更优雅......)
从 Python 3.5 开始,正确的方法是使用asyncio.sleep(0)
。 See this discussion.以上是关于《asyncio 系列》4. 如何并发运行多个任务(asyncio.gatherasyncio.as_completedasyncio.wait)的主要内容,如果未能解决你的问题,请参考以下文章
python 并发专题(十三):asyncio 协程中的多任务