在CUDA C++中,可以直接定义一个在运行时指定大小的共享内存。那么我该如何使用Numba/NumbaPro CUDA来实现这个呢?
到目前为止,我的尝试都只导致了错误并显示以下信息:
到目前为止,我的尝试都只导致了错误并显示以下信息:
Argument 'shape' must be a constant
编辑:仅澄清一下,我想要的是在CUDA C++中与以下内容等效的代码(示例取自此处):
__global__ void dynamicReverse(int *d, int n)
{
extern __shared__ int s[];
// some work in the kernel with the shared memory
}
int main(void)
{
const int n = 64;
int a[n];
// run dynamic shared memory version
dynamicReverse<<<1,n,n*sizeof(int)>>>(a, n);
}