并行执行比顺序执行慢,即使代码“很重”
Posted
技术标签:
【中文标题】并行执行比顺序执行慢,即使代码“很重”【英文标题】:Parallel execution is slower than sequential, even though the code is "heavy" 【发布时间】:2020-01-22 19:20:32 【问题描述】:有很多问题会问“为什么我的并行循环比顺序循环慢”,答案是“循环内所需的工作量很少;尝试进行更多迭代”,例如 this one。
我有一个循环,每次迭代大约需要 0.5 分钟。我认为这个循环足够“重”,以至于与线程相关的任何开销都是微不足道的。事实证明,并行执行速度较慢。我的代码在 C 中,我正在使用 OpenMP 进行并行化。我的代码结构如下:
int main()
malloc and calculate group G1 of arrays;
#pragma omp parallel
printf("avaible threads: %i\n", omp_get_num_threads());
malloc group G2 of arrays;
#pragma omp for
for (int i = 0; i < N; i++)
calculate G2 arrays' elements through numerical integration;
do some linear algebra with G1 and G2 to assemble the system Ax=b;
solve Ax = b;
return 0;
一些说明:
G1 组数组不会在循环内修改,它们用作辅助变量 迭代的执行顺序无关紧要 G1 组需要大约 0.6 GiB 的内存 G2 组每个线程需要大约 0.8 GiB 的内存 所有线性代数都是使用英特尔 MKL 完成的(带有顺序线程层,请参阅其 link advisor)对于 N=6,串行执行需要 3 分钟,而并行(3 个线程)需要 4 分钟。对于 N=30,串行为 15 分钟,并行(3 个线程)为 17 分钟。
我正在尝试对为什么会发生这种情况提出一个假设。也许它与 CPU 缓存和我的数组的大小有关?
这是我正在使用的计算机的一些信息:
Linux 4.15.0-74-generic #84-Ubuntu
Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Byte Order: Little Endian
CPU(s): 4
On-line CPU(s) list: 0-3
Thread(s) per core: 1
Core(s) per socket: 4
Socket(s): 1
NUMA node(s): 1
Vendor ID: GenuineIntel
CPU family: 6
Model: 58
Model name: Intel(R) Core(TM) i7-3770 CPU @ 3.40GHz
Stepping: 9
CPU MHz: 3392.363
CPU max MHz: 3400,0000
CPU min MHz: 1600,0000
L1d cache: 32K
L1i cache: 32K
L2 cache: 256K
L3 cache: 8192K
NUMA node0 CPU(s): 0-3
一个实际的例子
下面的代码演示了我在做什么。我试图让它尽可能简单和小。它取决于 Netlib 的 LAPACK 和 OpenBLAS(使用 USE_OPENMP=1 构建)。我的实际程序有数千行。
编译:
gcc -O2 -m64 -fopenmp test.c -lopenblas -llapack -lpthread -lm
运行:
export OMP_NUM_THREADS=3
./a.out 30
// test.c
#include <complex.h>
#include <stdio.h>
#include <stdlib.h>
#include <math.h>
#include <time.h>
#include <omp.h>
// LAPACK routines
extern void
zgesv_ (int *n, int *nrhs, _Complex double *a, int *lda, int* ipiv,
_Complex double *b, int *ldb, int* info);
extern void
zgemv_ (char *trans, int *m, int *n, _Complex double *alpha, _Complex double *a,
int *lda, _Complex double *x, int *incx, _Complex double *beta,
_Complex double *y, int *incy);
int
main (int argc, char **argv)
srand(300);
if (argc != 2)
printf("must have 1 argument: number of iterations!\n");
exit(1);
const int nf = atoi(argv[1]);
printf("loop will have %i iterations\n", nf);
clock_t begin, end;
double time_spent;
begin = clock();
int ne = 2296;
int ne2 = ne * ne;
_Complex double* restrict pot = malloc(ne2 * sizeof(_Complex double));
for (int i = 0; i < ne; i++)
for (int k = i; k < ne; k++)
pot[i * ne + k] = (double) rand() / RAND_MAX;
pot[i * ne + k] *= I;
pot[i * ne + k] += (double) rand() / RAND_MAX;
pot[k * ne + i] = pot[i * ne + k];
char trans = 'N';
_Complex double one = 1.0;
_Complex double zero = 0.0;
#pragma omp parallel
int n = ne;
int ipiv[n]; //pivot indices
int info;
int nrhs = 1;
#pragma omp single
printf("avaible threads: %i\n", omp_get_num_threads());
_Complex double* restrict zl = malloc(ne2 * sizeof(_Complex double));
_Complex double* restrict ie = malloc(ne2 * sizeof(_Complex double));
_Complex double gpr;
#pragma omp for
for (int i = 0; i < nf; i++)
printf("i = %i from thread %d\n", i, omp_get_thread_num());
for (int m = 0; m < ne; m++)
for (int k = m; k < ne; k++)
gpr = cexp(k - m);
zl[m * ne + k] = gpr * pot[m * ne + k];
zl[k * ne + m] = zl[m * ne + k];
ie[0] = 1.0;
for (int m = 1; m < ne; m++)
ie[m] = 0.0;
zgesv_(&n, &nrhs, zl, &n, ipiv, ie, &n, &info);
// Check for the exact singularity
if (info > 0)
printf("The diagonal element of the triangular factor of ZL,\n");
printf("U(%i,%i) is zero, so that ZL is singular;\n", info, info);
printf("the solution could not be computed.\n");
zgemv_(&trans, &ne, &ne, &one, zl, &ne, ie, &nrhs, &zero, ie, &nrhs);
for (int p = 0; p < ne2; p++)
gpr = 0.0;
for (int m = 0; m < ne; m++)
gpr += ie[m] * cexp(-m * 5.4) / 4.1;
free(zl);
free(ie);
free(pot);
end = clock();
time_spent = (double) (end - begin) / CLOCKS_PER_SEC;
printf("Success. Elapsed time: %.2f minutes\n", time_spent / 60.0);
return 0;
【问题讨论】:
你能发布真正的代码,精简到一个行为不端的小内部循环吗?我的第一直觉是你正在破坏 L3 缓存,但我们需要更多。 @gct 我添加了一个示例代码。这不是我的实际代码... 在我的机器(Threadripper 1920x)上运行您的示例代码,具有 1 个核心和 8 个核心,我看到 40 秒的运行时间和 9.3 秒的运行时间,我没有看到perf
有任何明显的缓存问题。
你能用omp_get_wtime()
代替clock()
再试一次你的实际代码吗?
int ipiv[n];
不在 omp 部分中,该数组用于求解矩阵。如果所有求解器都使用相同的数组,它可能会减慢执行速度并改变结果。你能确保并行和顺序运行产生相同的结果吗?
【参考方案1】:
我有个教授说
如果实验结果与理论结果不一致,你必须问的一个问题是你是如何测量的?
正如@Gilles 在 cmets 中指出的那样:使用 omp_get_wtime()
而不是 clock()
。这是因为clock()
返回所有线程的累积 CPU 时间,而omp_get_wtime()
返回挂钟时间(请参阅OpenMP Forums)。
【讨论】:
以上是关于并行执行比顺序执行慢,即使代码“很重”的主要内容,如果未能解决你的问题,请参考以下文章