operative_groups::this_grid() 导致任何 CUDA API 调用返回“未知错误”
Posted
技术标签:
【中文标题】operative_groups::this_grid() 导致任何 CUDA API 调用返回“未知错误”【英文标题】:cooperative_groups::this_grid() causes any CUDA API call to return 'unknown error' 【发布时间】:2019-04-28 18:31:41 【问题描述】:按照CUDA samples 中的相同步骤启动内核并使用cooperative_groups::this_grid().sync()
跨网格同步会导致任何CUDA API 调用失败。使用时
cooperative_groups::this_thread_block().sync()
工作正常并给出正确的结果。
我使用以下代码和CMakeLists.txt
(cmake 版本 3.11.1)在 TITAN V GPU(驱动程序版本 410.73)和 Ubuntu 16.04.5 LTS 上使用 CUDA 10 对其进行测试。该代码也可以在github 上找到,以便于重现错误。
代码读取一个数组,然后将其反转(从[0 1 2 ... 9]
到[9 8 7 ... 0]
)。为了做到这一点,每个线程从数组中读取单个元素,同步,然后将其元素写入正确的目的地。可以轻松修改代码以确保this_thread_block().sync()
工作正常。只需将arr_size
更改为小于1024 并改用cg::thread_block barrier = cg::this_thread_block();
。
test_cg.cu
#include <cuda_runtime_api.h>
#include <stdio.h>
#include <stdint.h>
#include <cstdint>
#include <numeric>
#include <cuda.h>
#include <cooperative_groups.h>
namespace cg = cooperative_groups;
//********************** CUDA_ERROR
inline void HandleError(cudaError_t err, const char *file, int line)
//Error handling micro, wrap it around function whenever possible
if (err != cudaSuccess)
printf("\n%s in %s at line %d\n", cudaGetErrorString(err), file, line);
#ifdef _WIN32
system("pause");
#else
exit(EXIT_FAILURE);
#endif
#define CUDA_ERROR( err ) (HandleError( err, __FILE__, __LINE__ ))
//******************************************************************************
//********************** cg kernel
__global__ void testing_cg_grid_sync(const uint32_t num_elements,
uint32_t *d_arr)
uint32_t tid = threadIdx.x + blockDim.x*blockIdx.x;
if (tid < num_elements)
uint32_t my_element = d_arr[tid];
//to sync across the whole grid
cg::grid_group barrier = cg::this_grid();
//to sync within a single block
//cg::thread_block barrier = cg::this_thread_block();
//wait for all reads
barrier.sync();
uint32_t tar_id = num_elements - tid - 1;
d_arr[tar_id] = my_element;
//******************************************************************************
//********************** execute
void execute_test(const int sm_count)
//host array
const uint32_t arr_size = 1 << 20; //1M
uint32_t* h_arr = (uint32_t*)malloc(arr_size * sizeof(uint32_t));
//fill with sequential numbers
std::iota(h_arr, h_arr + arr_size, 0);
//device array
uint32_t* d_arr;
CUDA_ERROR(cudaMalloc((void**)&d_arr, arr_size*sizeof(uint32_t)));
CUDA_ERROR(cudaMemcpy(d_arr, h_arr, arr_size*sizeof(uint32_t),
cudaMemcpyHostToDevice));
//launch config
const int threads = 512;
//following the same steps done in conjugateGradientMultiBlockCG.cu
//cuda sample to launch kernel that sync across grid
//https://github.com/NVIDIA/cuda-samples/blob/master/Samples/conjugateGradientMultiBlockCG/conjugateGradientMultiBlockCG.cu#L436
int num_blocks_per_sm = 0;
CUDA_ERROR(cudaOccupancyMaxActiveBlocksPerMultiprocessor(&num_blocks_per_sm,
(void*)testing_cg_grid_sync, threads, 0));
dim3 grid_dim(sm_count * num_blocks_per_sm, 1, 1), block_dim(threads, 1, 1);
if(arr_size > grid_dim.x*block_dim.x)
printf("\n The grid size (numBlocks*numThreads) is less than array size.\n");
exit(EXIT_FAILURE);
printf("\n Launching %d blocks, each containing %d threads", grid_dim.x,
block_dim.x);
//argument passed to the kernel
void *kernel_args[] =
(void *)&arr_size,
(void *)&d_arr, ;
//finally launch the kernel
cudaLaunchCooperativeKernel((void*)testing_cg_grid_sync,
grid_dim, block_dim, kernel_args);
//make sure everything went okay
CUDA_ERROR(cudaGetLastError());
CUDA_ERROR(cudaDeviceSynchronize());
//get results on the host
CUDA_ERROR(cudaMemcpy(h_arr, d_arr, arr_size*sizeof(uint32_t),
cudaMemcpyDeviceToHost));
//validate
for (uint32_t i = 0; i < arr_size; i++)
if (h_arr[i] != arr_size - i - 1)
printf("\n Result mismatch in h_arr[%u] = %u\n", i, h_arr[i]);
exit(EXIT_FAILURE);
//******************************************************************************
int main(int argc, char**argv)
//set to Titan V
uint32_t device_id = 0;
cudaSetDevice(device_id);
//get sm count
cudaDeviceProp devProp;
CUDA_ERROR(cudaGetDeviceProperties(&devProp, device_id));
int sm_count = devProp.multiProcessorCount;
//execute
execute_test(sm_count);
printf("\n Mission accomplished \n");
return 0;
CMakeLists.txt
cmake_minimum_required(VERSION 3.8 FATAL_ERROR)
set(PROJECT_NAME "test_cg")
project($PROJECT_NAME LANGUAGES CXX CUDA)
#default build type is Release
if (CMAKE_BUILD_TYPE STREQUAL "")
set(CMAKE_BUILD_TYPE Release)
endif ()
SET(CUDA_SEPARABLE_COMPILATION ON)
########## Libraries/flags Starts Here ######################
find_package(CUDA REQUIRED)
include_directories("$CUDA_INCLUDE_DIRS")
set(CUDA_NVCC_FLAGS $CUDA_NVCC_FLAGS; -lineinfo; -std=c++11; -expt-extended-lambda; -O3; -use_fast_math; -rdc=true;)
set(CUDA_NVCC_FLAGS $CUDA_NVCC_FLAGS;-gencode=arch=compute_70,code=sm_70) #for TITAN V
set(CMAKE_C_FLAGS "$CMAKE_C_FLAGS")
set(CMAKE_CXX_FLAGS "$CMAKE_CXX_FLAGS -m64 -Wall -std=c++11")
########## Libraries/flags Ends Here ######################
########## inc/libs/exe/features Starts Here ######################
set(CMAKE_INCLUDE_CURRENT_DIR ON)
CUDA_ADD_EXECUTABLE($PROJECT_NAME test_cg.cu)
target_compile_features($PROJECT_NAME PUBLIC cxx_std_11)
set_target_properties($PROJECT_NAME PROPERTIES POSITION_INDEPENDENT_CODE ON)
set_target_properties($PROJECT_NAME PROPERTIES CUDA_SEPARABLE_COMPILATION ON)
target_link_libraries($PROJECT_NAME $CUDA_LIBRARIES $CUDA_cudadevrt_LIBRARY)
########## inc/libs/exe/features Ends Here ######################
运行此代码给出:
unknown error in /home/ahdhn/test_cg/test_cg.cu at line 67
这是使用cudaMalloc
的第一行。我通过从设备中查询__CUDA_ARCH__
来确保为正确的架构编译了代码,结果为 700。如果您发现我在代码或CMakeLists.txt
文件中做错了什么,请告诉我。
【问题讨论】:
cudaMalloc 调用应该是触发上下文初始化的调用。如果这失败了,您可能在 CUDA 运行时中发现了一个错误。 可能您的 CUDA 安装已损坏。也许您的 cmake 设置没有创建正确的编译设置。无论如何,此代码不可能工作,因为您正在尝试使用1<<20
的数组大小,并且当前没有任何具有如此大的瞬时线程容量的CUDA GPU。 Volta 的瞬时容量为2048*80
。我建议从命令行编译以从等式中删除 CMake。当我在功能性 volta 设置上执行此操作时,我收到错误“网格大小 (numBlocks*numThreads) 小于数组大小。”
感谢 cmets 的帮助。在外部帮助下,我能够使用 CMake 运行代码,数组大小为 1<<20
。诀窍是在第二个set(CUDA_NVCC_FLAGS.....
之后添加string(APPEND CMAKE_CUDA_FLAGS " -gencode arch=compute_70,code=sm_70 --cudart shared")
。原因是我的/usr/local/cuda-10.0/lib64/
下只有libcudadevrt.a
,因此我必须向 CUDA 发出信号以链接共享/动态运行时库,因为默认情况下是链接到静态的。
对于1<<20
的数组大小,您的代码无法正常工作。占用 API 调用无法返回大于 4 的 num_blocks_per_sm
值。每个 SM 有 4 个块,最大网格大小为 2048*80 on volta。这小于1<<20
@RobertCrovella 同意。我必须减小数组大小才能使代码正常工作并产生一些有意义的结果。
【参考方案1】:
借助外部帮助,使代码正常工作的解决方案是在第二个 set(CUDA_NVCC_FLAGS.....
之后添加 string(APPEND CMAKE_CUDA_FLAGS " -gencode arch=compute_70,code=sm_70 --cudart shared")
。原因是我的/usr/local/cuda-10.0/lib64/
下只有libcudadevrt.a
,所以我必须向 CUDA 发出信号以链接共享/动态运行时库,因为默认情况下是链接到静态的。string(APPEND CMAKE_CUDA_FLAGS " -gencode arch=compute_70,code=sm_70")
在第二个之后set(CUDA_NVCC_FLAGS.....
。原因是sm_70
标志没有正确传递给链接器。
此外,仅使用CUDA_NVCC_FLAGS
只会将sm_70
信息传递给编译器而不是链接器。而只使用CMAKE_NVCC_FLAGS
会报error: namespace "cooperative_groups" has no member "grid_group"
错误。
【讨论】:
libcudadevrt.a
没有动态版本,--cudart shared
标志不影响与设备运行时 libcudadevrt 的链接。这会影响到普通运行时 libcudart 的链接。以上是关于operative_groups::this_grid() 导致任何 CUDA API 调用返回“未知错误”的主要内容,如果未能解决你的问题,请参考以下文章