python非阻塞写入csv文件

Posted

技术标签:

【中文标题】python非阻塞写入csv文件【英文标题】:python non blocking write csv file 【发布时间】:2018-04-27 16:23:25 【问题描述】:

我正在编写一些 python 代码来进行一些计算并将结果写入文件。这是我当前的代码:

for name, group in data.groupby('Date'):
    df = lot_of_numpy_calculations(group)

    with open('result.csv', 'a') as f:
        df.to_csv(f, header=False, index=False)

计算和写入有时都需要。我读了一些关于 python 中的异步的文章,但我不知道如何实现它。有没有一种简单的方法来优化这个循环,使它不会等到写入完成并开始下一次迭代?

【问题讨论】:

【参考方案1】:

由于 numpy 和 pandas io 都不支持 asyncio,因此对于线程而言,这可能是比 asyncio 更好的用例。 (此外,基于 asyncio 的解决方案无论如何都会在幕后使用线程。)

例如,此代码生成一个编写器线程,您使用队列向其提交工作:

import threading, queue

to_write = queue.Queue()

def writer():
    # Call to_write.get() until it returns None
    for df in iter(to_write.get, None):
        with open('result.csv', 'a') as f:
            df.to_csv(f, header=False, index=False)
threading.Thread(target=writer).start()

for name, group in data.groupby('Date'):
    df = lot_of_numpy_calculations(group)
    to_write.put(df)
# enqueue None to instruct the writer thread to exit
to_write.put(None)

请注意,如果写入结果始终比计算慢,则队列将不断累积数据帧,这最终可能会消耗大量内存。在这种情况下,请务必通过将 maxsize 参数传递给 constructor 来为队列提供最大大小。

另外,请考虑为每次写入重新打开文件会减慢写入速度。如果写入的数据量很小,或许可以通过提前打开文件来获得更好的性能。

【讨论】:

这真的很有帮助。谢谢。 @JOHN 我还会考虑使用ThreadPoolExecutor 或ProcessPoolExecutor(以便并行运行numpy 计算)。【参考方案2】:

由于大多数操作系统don't support异步文件I/O,现在常见的跨平台方法是使用线程。

例如,aiofiles 模块封装了线程池来为 asyncio 提供文件 I/O API。

【讨论】:

以上是关于python非阻塞写入csv文件的主要内容,如果未能解决你的问题,请参考以下文章

阻塞与非阻塞 I/O 缓冲?

Posix PIPE 上的非阻塞读取和阻塞写入

实现有界缓冲区(读取器和写入器之间的非阻塞,读取器之间的阻塞,写入器之间的阻塞)

如何从 Python 日志记录模块获得非阻塞/实时行为? (输出到 PyQt QTextBrowser)

如何使用非阻塞套接字正确处理发送/写入?

如何以非阻塞方式压缩文件