使用AWS步骤函数处理大量数据?

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用AWS步骤函数处理大量数据?相关的知识,希望对你有一定的参考价值。

我们希望使用AWS步骤功能处理CSV文件中的大量数据,但我们不确定这是否是最佳选择。

我们的用例如下: - 我们上传了一个包含大量行(如50K)的CSV,每行我们处理一个小的traitements(每个traitement由lambda函数处理)。目前,我们认为最好的选择是将我们的CSV中的每一行插入DynamoDB中,并为每一行启动我们的lambda函数。

你觉得这怎么样 ?

答案

使用Lambda处理大型文件有多种模式。

  • 一种方法是使用Lambda函数来拆分大文件并将部件委托给worker Lambda函数。
  • 如果零件的处理步骤足够复杂,您可以触发多个步骤功能工作流程。

在您提出的方法中,如果每个项目处理足够大,则逐项处理是有意义的,但通常以批处理的方式处理更有效。

以上是关于使用AWS步骤函数处理大量数据?的主要内容,如果未能解决你的问题,请参考以下文章

AWS SQS FIFO或AWS DynamoDB用于处理大量消息

如何使用 Python 内置函数成功处理大量 .txt 文件?

使用 AWS 处理 .csv 数据的最佳方式

AWS 数据分析服务

使用 KMS 进行 AWS RDS 加密会影响性能吗?

如何使用 Python Ray 在不耗尽内存的情况下并行处理大量数据?