为啥在 python 中对 asyncio 服务器的多个请求的时间会增加?

Posted

技术标签:

【中文标题】为啥在 python 中对 asyncio 服务器的多个请求的时间会增加?【英文标题】:why is time rising for more than one request to asyncio server in python?为什么在 python 中对 asyncio 服务器的多个请求的时间会增加? 【发布时间】:2018-07-04 12:51:19 【问题描述】:

我用套接字编写了一个 pythonic 服务器。它应该同时(并行)接收请求并并行响应它们。 当我向它发送多个请求时,回复的时间比我预期的要长。

服务器:

import datetime
import asyncio, timeit
import json, traceback
from asyncio import get_event_loop

requestslist = []
loop = asyncio.get_event_loop()

async def handleData(reader, writer):
    message = ''
    clientip = ''
    data = bytearray()
    print("Async HandleData", datetime.datetime.utcnow())


    try:
        start = timeit.default_timer()
        data = await reader.readuntil(separator=b'\r\n\r\n')
        msg = data.decode(encoding='utf-8')
        len_csharp_message = int(msg[msg.find('content-length:') + 15:msg.find(';dmnid'):])
        data = await reader.read(len_csharp_message)
        message = data.decode(encoding='utf-8')

        clientip = reader._transport._extra['peername'][0]
        clientport = reader._transport._extra['peername'][1]
        print('\nData Received from:', clientip, ':', clientport)
        if (clientip, message) in requestslist:
            reader._transport._sock.close()

        else:
            requestslist.append((clientip, message))

            # adapter_result = parallel_members(message_dict, service, dmnid)
            adapter_result = '''["name": "data": "data", "type": "str"]'''
            body = json.dumps(adapter_result, ensure_ascii=False)
            print(body)

            contentlen = len(bytes(str(body), 'utf-8'))
            header = bytes('Content-Length:'.format(contentlen), 'utf-8')
            result = header + bytes('\r\n\r\n', 'utf-8') + body + bytes('', 'utf-8')
            stop = timeit.default_timer()
            print('total_time:', stop - start)
            writer.write(result)
            writer.close()
        writer.close()
        # del writer
    except Exception as ex:
        writer.close()
        print(traceback.format_exc())
    finally:
        try:
            requestslist.remove((clientip, message))
        except:
            pass


def main(*args):
    print("ready")
    loop = get_event_loop()
    coro = asyncio.start_server(handleData, 'localhost', 4040, loop=loop, limit=204800000)
    srv = loop.run_until_complete(coro)
    loop.run_forever()


if __name__ == '__main__':
    main()

当我发送单个请求时,需要 0.016 秒。 但是对于更多的请求,这次增加。

cpu 信息:intel xeon x5650

客户:

import multiprocessing, subprocess
import time
from joblib import Parallel, delayed


def worker(file):
    subprocess.Popen(file, shell=False)


def call_parallel (index):
    print('begin ' , index)
    p = multiprocessing.Process(target=worker(index))
    p.start()
    print('end ' , index)

path = r'python "/test-Client.py"'     # ## client address
files = [path, path, path, path, path, path, path, path, path, path, path, path]
Parallel(n_jobs=-1, backend="threading")(delayed(call_parallel)(i) for index,i  in  enumerate(files))

对于这个同步发送 12 个请求的客户端,每个请求的总时间为 0.15 秒。

我希望任何数量的请求,时间都是固定的。

【问题讨论】:

【参考方案1】:

什么是请求

单个请求(粗略地说)包括以下步骤:

    将数据写入网络 浪费时间等待答复 从网络读取答案

№1/№3 由您的 CPU 处理得非常快。第 2 步 - 从您的 PC 到某个服务器(例如在另一个城市)并通过电线返回的字节旅程:通常需要更多时间。

异步请求的工作原理

就处理而言,异步请求并不是真正的“并行”:它仍然是您的单个 CPU 内核,一次可以处理一件事。但是运行多个异步请求允许您使用某个请求的第 2 步来执行其他请求的第 1 步/第 3 步,而不仅仅是浪费大量时间。这就是为什么多个异步请求通常会比相同数量的同步请求更早完成的原因。

在没有网络延迟的情况下运行异步代码

但是当您在本地运行时,第 2 步不会花费太多时间:您的 PC 和服务器是同一个东西,字节不会进入网络旅程。在第 2 步中没有时间可以用来启动新请求。一次只有一个 CPU 内核可以处理一件事。

您应该针对响应延迟的服务器测试请求,以查看您期望的结果。

【讨论】:

我在服务器写入结果之前将 3 秒设置为延迟。每个请求收到响应 3 秒 + 之前的请求时间。例如:第一次请求时间:0.0012 秒。第二次请求时间:3.010 秒。第三次请求时间:6.027 秒。 ... 第 9 次请求时间:24.11 秒。

以上是关于为啥在 python 中对 asyncio 服务器的多个请求的时间会增加?的主要内容,如果未能解决你的问题,请参考以下文章

为啥线程中的 python asyncio 进程在 Linux 上似乎不稳定?

我啥时候应该在常规线程上使用 asyncio,为啥?它是不是提供性能提升?

为啥大多数 asyncio 示例都使用 loop.run_until_complete()?

为啥我们需要 asyncio 同步原语,何时使用这些原语?

为啥我可以在 Python for 循环中对迭代器和序列使用相同的名称?

为啥在 python 控制台中对 SparkSession.builder..getOrCreate() 的调用被视为命令行 spark-submit?