56得票27回答
NVIDIA-SMI因无法与NVIDIA驱动程序通信而失败。

我正在运行一个带有Ubuntu 14.04 LTS的AWS EC2 g2.2xlarge实例。 在训练TensorFlow模型时,我想观察GPU利用率。 尝试运行“nvidia-smi”时出现错误。 ubuntu@ip-10-0-1-213:/etc/alternatives$ cd /us...

55得票7回答
Python GPU编程

我目前正在用Python开展一个项目,并希望在一些计算中利用GPU。 乍一看似乎有很多工具可用;但再仔细一看,感觉好像缺少了些什么。 Copperhead 看起来很棒,但尚未发布。似乎只能编写低级 CUDA 或 openCL 内核;没有 thrust,也没有 cudpp。如果我想要排序什么...

55得票2回答
在一个GPU上运行多个CUDA应用程序

CUDA文档并没有明确说明一个GPU可以共享多少个CUDA进程。例如,如果我使用同一个用户在装有一个GPU卡的系统上启动多个CUDA程序,会产生什么影响?执行的正确性是否能得到保证?在这种情况下,GPU如何安排任务?

55得票3回答
如何方便地获取PyTorch模块的设备类型?

我需要在不同类型的PyTorch模型上叠加一些自己的层,并使用不同的设备。 例如,A是一个cuda模型,B是一个cpu模型(但在获取设备类型之前我并不知道)。然后分别得到新模型C和D,其中class NewModule(torch.nn.Module): def __init__(s...

54得票3回答
为什么绘制调用很耗费资源?

假设纹理、顶点和着色器数据已经在图形卡上,你不需要向卡片发送太多数据。有一些字节用于标识数据,可能还有一个4x4矩阵和一些其他参数。 那么所有的开销都来自哪里呢?这些操作是否需要与GPU进行某种握手? 为什么发送包含一堆小模型的单个网格,由CPU计算而来,通常比发送顶点ID和变换矩阵更快?...

54得票3回答
获取CPU/GPU/内存信息

我需要获取有关CPU/GPU/内存的任何信息。核心数、内存值、内存和CPU使用情况...... 我发现了一种在IE中实现此目的的方法:如何使用JavaScript查找硬件信息 我不知道其他浏览器的解决方案。 有什么想法可以做到这一点吗? 也许WebGL可以访问有关计算机的信息? 或者Flas...

54得票3回答
使用PyTorch获取GPU的总空闲内存和可用内存

我正在使用Google Colab提供的免费GPU进行实验,想知道可以用多少GPU内存进行测试。通过调用torch.cuda.memory_allocated()可以返回当前已经占用的GPU内存,但是如何确定PyTorch中总共可用的内存呢?

48得票8回答
C++中的高级GPU编程

我一直在寻找适用于C++的库/扩展,可以在高级别上进行基于GPU的处理。我不是GPU编程的专家,也不想深入了解。我有一个由具有虚拟函数的类组成的神经网络。我需要一个库,基本上为我执行GPU分配 - 在高级别上。有个人写了一篇关于名为GPU ++ 的系统的论文,它为您处理大部分GPU操作。我无法...

47得票1回答
为什么我们使用CPU进行光线追踪而不是GPU?

在研究栅格化和光线追踪方面后,我发现互联网上关于CPU如何用于光线追踪的信息并不多。我读到了一篇关于Pixar如何在CPU上预渲染Cars 2的文章,这需要每帧11.5小时的时间。如果使用同样的图像质量,GPU不会更快地渲染吗? 相关链接:http://gizmodo.com/5813587...

46得票1回答
什么是用于TensorFlow的XLA_GPU和XLA_CPU?

我可以使用以下 TensorFlow 代码列出 GPU 设备:import tensorflow as tf from tensorflow.python.client import device_lib print(device_lib.list_local_devices()) 结果是:[...