我正在尝试通过CUDA代码将现有项目的部分移植到GPU。我了解到cmake有选项(find_cuda...)来处理.cu文件,但我仍在努力弄清楚如何在现有项目的背景下使用这个生态系统。
我的问题是:假设我有一个带有cmake配置文件(CMakeLists)的现有C++项目。目前的最佳实践是怎样优雅地(如果可能的话)包含CUDA内核?CMakeLists是否可以构建为只在GPU存在时编译.cu文件?
我的当前想法是创建一个单独的文件夹,其中只存在与CUDA相关的代码,然后将其编译为静态库。这是正确的方法吗?
我的问题是:假设我有一个带有cmake配置文件(CMakeLists)的现有C++项目。目前的最佳实践是怎样优雅地(如果可能的话)包含CUDA内核?CMakeLists是否可以构建为只在GPU存在时编译.cu文件?
我的当前想法是创建一个单独的文件夹,其中只存在与CUDA相关的代码,然后将其编译为静态库。这是正确的方法吗?