假设我有一台安装了
我想为这个网络开发一个MPI应用程序。PC将通过MPI获取任务,并使用其GPU执行这些任务。我计划在我的笔记本电脑上开发CUDA部分,将其编译为静态库,然后使用
然而,我无法找到任何证据表明这种部署是可能的。相反,大多数所谓的分离编译示例需要在最后一步安装CUDA(将CUDA感知静态库与MPI感知主程序链接)。
那么,是否有可能编译一个使用CUDA且没有任何依赖项(如已安装的驱动程序和CUDA库)的程序或库呢?
nvcc
和CUDA工具包的笔记本电脑,以及一个由16台Nvidia GPU和MPI组成的网络。这些PC并不知道CUDA,它们只有普通的Nvidia驱动程序和支持软件。我想为这个网络开发一个MPI应用程序。PC将通过MPI获取任务,并使用其GPU执行这些任务。我计划在我的笔记本电脑上开发CUDA部分,将其编译为静态库,然后使用
mpicxx
编译器链接此静态库到PC上。然而,我无法找到任何证据表明这种部署是可能的。相反,大多数所谓的分离编译示例需要在最后一步安装CUDA(将CUDA感知静态库与MPI感知主程序链接)。
$ g++ main.cpp -L. -lgpu -o main -L/usr/local/cuda/lib64 -lcudart
那么,是否有可能编译一个使用CUDA且没有任何依赖项(如已安装的驱动程序和CUDA库)的程序或库呢?