cuda 内核通过增加网格大小给出不正确的结果
Posted
技术标签:
【中文标题】cuda 内核通过增加网格大小给出不正确的结果【英文标题】:cuda kernel gives incorrect results by grid size increase 【发布时间】:2021-12-18 18:26:54 【问题描述】:我正在测试一个简单的 CUDA 计时算法,我遇到了一个案例,当我增加内核的网格大小时,它会给出不正确的结果:
#include <unistd.h>
#include <stdio.h>
#include <assert.h>
/* we need these includes for CUDA's random number stuff */
#include <curand.h>
#include <curand_kernel.h>
#define MAX 10
#ifdef GRID
#define REPEAT GRID
#else
#define REPEAT 65535
#endif
#ifdef VECSIZE
#define SIZE VECSIZE
#else
#define SIZE 1024
#endif
__global__ void random(int *result)
curandState_t state;
curand_init(100, 0, threadIdx.x, &state);
result[threadIdx.x] = curand(&state) % MAX;
//printf("th %d random %d\n", threadIdx.x, *result);
__global__ void myadd(const int *in, int *sum)
sum[blockIdx.x] = 0;
//printf("thread %d value %d\n",threadIdx.x, in[threadIdx.x]);
atomicAdd_block(&sum[blockIdx.x], in[threadIdx.x]);
//atomicAdd(sum, in[threadIdx.x]);
int main()
int check = 0;
/* allocate an int on the GPU */
int *x = new int[SIZE];
int *sum = new int[REPEAT];
int *d_x, *d_sum;
cudaMalloc(&d_x, sizeof(int) * SIZE);
cudaMalloc(&d_sum, sizeof(int) * REPEAT);
/* invoke the GPU to initialize all of the random states */
random<<<1, SIZE>>>(d_x);
myadd<<<REPEAT, SIZE>>>(d_x, d_sum);
cudaDeviceSynchronize();
/* copy the random number back */
cudaMemcpy(x, d_x, sizeof(int) * SIZE, cudaMemcpyDeviceToHost);
cudaMemcpy(sum, d_sum, sizeof(int)* REPEAT, cudaMemcpyDeviceToHost);
for (int i = 0; i < SIZE; ++i)
check += x[i];
//printf("Random[%d] = %d\n", i, x[i]);
cudaError_t err = cudaGetLastError(); // Get error code
if (err != cudaSuccess)
printf("CUDA Error: %s\n", cudaGetErrorString(err));
exit(-1);
for (int i = 0; i < REPEAT; ++i)
printf("i %d check %d sum[i] %d\n", i, check, sum[i]);
assert(check == sum[i]);
/* free the memory we allocated */
cudaFree(d_x);
cudaFree(d_sum);
delete[] x;
delete[] sum;
return 0;
我的卡是 V100,计算能力为 7.0。如您所见,我可以使用nvcc test.cu -arch=sm_70 -O3 -g -G -DGRID=1024 -DVECSIZE=512
编译具有不同网格和矢量大小的上述代码,对于小矢量和网格大小,一切看起来都不错,但是当我将网格大小增加到最大值(65535)时,有时计算的总和值不正确。例如:
.
.
.
i 511 check 2331 sum[i] 2331
i 512 check 2331 sum[i] 2331
i 513 check 2331 sum[i] 2188
a.out: test.cu:87: int main(): Assertion `check == sum[i]' failed.
【问题讨论】:
这不是 C。请不要发送垃圾标签。 CUDA 有不同的 API,比如 python 和 C,而这个 CUDA 代码使用的是 C API @user2348209 但是这段代码是 C++。没有CUDA C++ API吗? 【参考方案1】:内核myadd
中存在竞争条件。总和只能设置为 0 一次。并且在其他一些线程为其添加了值后,不应将其设置为 0。
__global__ void myadd(const int *in, int *sum)
if(threadIdx.x == 0)
sum[blockIdx.x] = 0;
__syncthreads(); // all threads wait until sum is initialized with 0
atomicAdd_block(&sum[blockIdx.x], in[threadIdx.x]);
如果您想正确地为代码计时,您应该删除 -G
编译器标志。
【讨论】:
谢谢你,你是对的。我需要这个初始化吗?没有初始化的共享内存数组会发生什么? CUDA 是否足够聪明,可以将其初始化为零? no CUDA 不会将共享内存初始化为零。并且您在这里使用的内存类型不是共享内存,而是全局内存。 CUDA 也不会将全局内存初始化为零。 谢谢,我知道这里不是共享内存,我只是问一般能不能替换一下。以上是关于cuda 内核通过增加网格大小给出不正确的结果的主要内容,如果未能解决你的问题,请参考以下文章