将主机函数作为函数指针传递给 __global__ 或 __device__ 函数中的 CUDA
Posted
技术标签:
【中文标题】将主机函数作为函数指针传递给 __global__ 或 __device__ 函数中的 CUDA【英文标题】:Passing Host Function as a function pointer in __global__ OR __device__ function in CUDA 【发布时间】:2015-09-12 12:05:45 【问题描述】:我目前正在开发 CPU 功能的 GPU 版本 (例如函数 Calc(int a, int b, double* c, souble* d, CalcInvFunction GetInv )),其中宿主函数作为函数指针传递(例如,在上面的示例中 GetInv 是 CalcInvFunction 类型的宿主函数)。我的问题是,如果我必须将 Calc() 函数完全放在 GPU 中,我必须将 GetInv 函数作为函数指针参数传递给设备函数/内核函数,这可能吗?
【问题讨论】:
【参考方案1】:是的,对于Calc
的GPU 实现,您应该将GetInv
作为__device__
函数指针传递。
有可能,这里有一些工作示例:
Ex. 1
Ex. 2
Ex. 3
上述大多数示例都演示了将设备函数指针一直返回到主机代码。对于您的特定情况,这可能不是必需的。但是从上面应该可以很明显地看出如何获取__device__
函数指针(在设备代码中)并在内核中使用它。
【讨论】:
Yet another worked example of function pointer usage in device code Here 是另一个例子。 和another example 使用模板。 another 模板示例【参考方案2】:最后,我已经能够将主机函数作为函数指针传递给 cuda 内核函数(__global__ 函数)。感谢 Robert Crovella 和 njuffa 的回答。我已经能够将类成员函数(cpu 函数)作为函数指针传递给 cuda 内核。但是,主要问题是,我只能传递静态类成员函数。我无法传递未声明为静态的函数。 例如:
/**/
__host__ __device__
static int
CellfunPtr(
void*ptr, int a
);
/**/
上述函数之所以起作用,是因为该成员函数被声明为静态成员函数。如果我不将此成员函数声明为静态成员,
/**/
__host__ __device__
int
CellfunPtr(
void*ptr, int a
);
/**/
那就不行了
完整的代码有四个文件。
-
第一个文件
/*start of fundef.h file*/
typedef int (*pFunc_t)(void* ptr, int N);
/*end of fundef.h file*/
-
第二个文件
/*start of solver.h file*/
class CalcVars
int eqnCount;
int numCell;
int numTri;
int numTet;
public:
double* cellVel;
double* cellPre;
/** Constructor */
CalcVars(
const int eqnCount_,
const int numCell_,
const int numTri_,
const int numTet_
);
/** Destructor */
~CalcVars(void);
public:
void
CalcAdv();
__host__ __device__
static int
CellfunPtr(
void*ptr, int a
);
;
/*end of solver.h file*/
-
第三档
/*start of solver.cu file*/
#include "solver.h"
__device__ pFunc_t pF1_d = CalcVars::CellfunPtr;
pFunc_t pF1_h ;
__global__ void kernel(int*a, pFunc_t func, void* thisPtr_)
int tid = threadIdx.x;
a[tid] = (*func)(thisPtr_, a[tid]);
;
/* Constructor */
CalcVars::CalcVars(
const int eqnCount_,
const int numCell_,
const int numTri_,
const int numTet_
)
this->eqnCount = eqnCount_;
this->numCell = numCell_;
this->numTri = numTri_;
this->cellVel = (double*) calloc((size_t) eqnCount, sizeof(double));
this->cellPre = (double*) calloc((size_t) eqnCount, sizeof(double));
/* Destructor */
CalcVars::~CalcVars(void)
free(this->cellVel);
free(this->cellPre);
void
CalcVars::CalcAdv(
)
/*int b1 = 0;
b1 = CellfunPtr(this, 1);*/
int Num = 50;
int *a1, *a1_dev;
a1 = (int *)malloc(Num*sizeof(int));
cudaMalloc((void**)&a1_dev, Num*sizeof(int));
for(int i = 0; i <Num; i++)
a1[i] = i;
cudaMemcpy(a1_dev, a1, Num*sizeof(int), cudaMemcpyHostToDevice);
//copy addresses of device functions to host
cudaMemcpyFromSymbol(&pF1_h, pF1_d, sizeof(pFunc_t));
kernel<<<1,42>>>(a1_dev, pF1_h, this);
cudaDeviceSynchronize();
cudaMemcpy(a1, a1_dev, Num*sizeof(int), cudaMemcpyDeviceToHost);
;
int
CalcVars::CellfunPtr(
void* ptr, int a
)
//CalcVars* ClsPtr = (CalcVars*)ptr;
printf("Printing from CPU function\n");
//int eqn_size = ClsPtr->eqnCount;
//printf("The number is %d",eqn_size);
return a-1;
;
/*end of solver.cu file*/
-
第四档
/*start of main.cpp file*/
#include "solver.h"
int main()
int n_Eqn, n_cell, n_tri, n_tetra;
n_Eqn = 100;
n_cell = 200;
n_tri = 300;
n_tetra = 400;
CalcVars* calcvars;
calcvars = new CalcVars(n_Eqn, n_cell, n_tri, n_tetra );
calcvars->CalcAdv();
system("pause");
/*end of main.cpp file*/
【讨论】:
以上是关于将主机函数作为函数指针传递给 __global__ 或 __device__ 函数中的 CUDA的主要内容,如果未能解决你的问题,请参考以下文章
使用 ctypes 将 cupy 指针传递给 CUDA 内核
Python & Ctypes:将结构作为指针传递给函数以获取数据
将 int16_t 变量转换为 uint8_t 以传递给函数