例如,我分配以下指针:
在 kernel_test 中,使用以下语法加载数据:
float *data_1, *data_2, *data_3, *data_4;
//Use malloc to allocate memory and fill out some data to these pointers
......
//Filling complete
float *data_d1,*data_d2,*data_d3,*data_d4;
cudaMalloc((void **)&data_d1,size1);
cudaMalloc((void **)&data_d2,size2);
cudaMalloc((void **)&data_d3,size3);
cudaMalloc((void **)&data_d4,size4);
cudaMemcpy(data_d1,data_1,size1,cudaMemcpyHostToDevice);
cudaMemcpy(data_d2,data_2,size2,cudaMemcpyHostToDevice);
cudaMemcpy(data_d3,data_3,size3,cudaMemcpyHostToDevice);
cudaMemcpy(data_d4,data_4,size4,cudaMemcpyHostToDevice);
在此之后,我应该已经获得了4个设备指针,其中包含与主机指针完全相同的数据。现在我想将这些指针存储到指针数组中,如下所示,
float *ptrs[4];
ptrs[0] = data_d1;
ptrs[1] = data_d2;
ptrs[2] = data_d3;
ptrs[3] = data_d4;
现在我想把这个指针数组传递给CUDA内核。但是,我知道由于ptrs[4]实际上位于主机内存中,我需要在设备上分配一个新的指针。所以我这样做了:
float **ptrs_d;
size_t size = 4 * sizeof(float*);
cudaMalloc((void ***)&ptrs_d,size);
cudaMemcpy(ptrs_d,ptrs,size,cudaMemcpyHostToDevice);
然后调用内核:
kernel_test<<<dimGrid,dimBlock>>>(ptrs_d, ...);
//Declaration should be
//__global__ void kernel_test(float **ptrs_d, ...);
在 kernel_test 中,使用以下语法加载数据:
if (threadIdx.x < length_of_data_1d)
{
float element0 = (ptrs[0])[threadIdx.x];
}
编译没有问题,但在调试时,出现了访问冲突的错误。
也许我的代码中有很多错误。但是我只想知道为什么不能以这种方式传递设备指针,如果在CUDA中允许将设备指针数组传递给内核函数,正确的访问方式是什么。
那么我该如何解决这个问题?欢迎提供任何建议。提前感谢。
cuda-memcheck
运行代码也可能有助于查明问题所在。 - Robert Crovella