如何并行化具有多个参数的简单 python def [重复]

Posted

技术标签:

【中文标题】如何并行化具有多个参数的简单 python def [重复]【英文标题】:how do I parallelize a simple python def with multiple argument [duplicate] 【发布时间】:2013-05-01 18:15:42 【问题描述】:

我想并行化一个 python 脚本。我已经创建了一个定义:

def dummy(list1,list2):
  do usefull calculations ...

list1 和 list2 包含我应该阅读的文件名列表,然后用它们进行计算。文件是独立的。 list1 和 2 包含相同数量的参数。

让我们假设我有 2 个 CPU(我想强加要使用的 CPU 数量)。我希望第一个 cpu 使用仅包含 list1 和 list2 的前半部分的列表调用定义,同时第二个 cpu 应该使用 list1 和 list2 的后半部分调用相同的 def dummy。

类似:

import multiprocessing
nb_cpus = 2
pool = multiprocessing.Pool(processes=nb_cpus)
for ii in nb_cpus:
  list_half1 = list1[0:max/nb_cpus]
  list_half2 = list2[0:max/nb_cpus]
  result[ii] = pool.map(dummy,list_half1,list_half2)

问题是 pool.map 只有在 def 有 1 个参数并且我不能循环 cpus 时才能工作。

感谢您对这个问题的任何帮助!

PS:我不可能将两个参数合并为一个,因为在实际情况下,我传递了更多参数。

【问题讨论】:

【参考方案1】:

首先,您不需要自己拆分列表,multiprocessing.Pool 会为您完成。

要将多个参数作为单个参数传递给您的函数,您只需将列表压缩在一起,如下所示:

import multiprocessing

def myFunction(arguments):
    item1, item2 = arguments
    ...

nb_cpus = 2
pool = multiprocessing.Pool(processes=nb_cpus)
results = pool.map(myFunction, zip(list1, list2))

【讨论】:

或者使用pool.starmap调用myFunction(*item) 感谢您的回复。问题是我的一些论点不能在 cpus 中拆分,而是传递给每个 cpus。我该怎么做? 我通过定义一个全局变量来解决这个问题。感谢您的帮助。

以上是关于如何并行化具有多个参数的简单 python def [重复]的主要内容,如果未能解决你的问题,请参考以下文章

如何并行化一个简单的 Python 循环?

如何在 python 的类中使用光线并行性?

如何在 Python 3.7 中快速并行化函数?

CUDA:并行化具有嵌套循环的函数调用的多个嵌套for循环

python面向对象--类

使用 Joblib 将类对象实例作为输入参数的并行化函数