46得票2回答
监控显卡使用情况

当我运行某个应用程序时,如何监控使用了多少显卡?我想要看到我的应用程序使用了多少GPU。

46得票3回答
如何在Google Colab中获取分配的GPU规格

我正在使用Google Colab进行深度学习,而且我知道他们会随机分配GPU给不同的用户。我想要在任何一个会话中看到我被分配了哪个GPU。在Google Colab笔记本中有没有办法做到这一点? 请注意,我正在使用Tensorflow。

46得票6回答
如何使用关键字在nvidia-smi中按PID杀掉GPU上的进程?

如何在终端上杀死特定程序(例如python)在GPU上运行的进程? 例如,顶部图片中有两个使用python运行的进程,杀死它们以查看nvidia-smi中的底部图片。

45得票1回答
选择使用GeForce还是Quadro GPU来通过TensorFlow进行机器学习

如果使用Quadro GPU和GeForce GPU,在TensorFlow性能上是否有明显差异? 例如,是否使用双精度操作或其他可能导致GeForce卡性能下降的东西? 我正准备购买用于TensorFlow的GPU,并想知道是否可以使用GeForce。谢谢并感谢您的帮助。

45得票5回答
如何在超过使用限制后在Google Colab上使用GPU?

我正在使用 Google Colab 的免费版本来运行我的 TensorFlow 代码。大约在12小时后,它会给出以下错误信息: "由于 Colab 中的使用限制,您目前无法连接到 GPU。" 我尝试过将运行时恢复出厂设置以再次使用 GPU,但并没有起作用。此外,我重启...

44得票5回答
我应该在GPU上运行这个统计应用程序的代码吗?

我正在开发一个统计应用程序,其中包含大约 10 到 30 百万个浮点值的数组。 有几种方法在嵌套循环中对数组执行不同但独立的计算,例如:Dictionary<float, int> noOfNumbers = new Dictionary<float, int>(); ...

44得票7回答
在GPU上运行C#代码

我对GPU编程概念和API的知识一无所知。我有几个问题: 是否可以编写一段托管的C#代码并将其编译/翻译为某种模块,该模块可以在GPU上执行?还是我注定要有两个实现,一个用于CPU上的托管程序,另一个用于GPU上(我了解在GPU上可执行的内容将会受到限制)? 是否存在一个良...

43得票1回答
VexCL、Thrust和Boost.Compute之间的区别

对于这些库的初步了解,它们看起来非常相似。我知道VexCL和Boost.Compute使用OpenCL作为后端(虽然v1.0版本的VexCL也支持CUDA作为后端),而Thrust使用CUDA。除了不同的后端外,它们有什么区别。 具体来说,它们解决的问题空间是什么,为什么要选择其中之一。 ...

42得票4回答
CUDA如何为GPU分配设备ID?

当一台计算机有多个CUDA可用的GPU时,每个GPU都被分配了一个device ID。默认情况下,CUDA内核在device ID 0上执行。您可以使用cudaSetDevice(int device)选择不同的设备。 假设我的机器上有两个GPU:一个GTX 480和一个GTX 670。CU...

42得票2回答
CPU SIMD和GPU SIMD有何不同?

GPU使用SIMD模型,即同一部分代码将并行执行,并应用于数据集的各个元素。 然而,CPU也使用SIMD,并提供指令级并行性。例如,据我所知,类似SSE的指令将以并行方式处理数据元素。 虽然SIMD范式在GPU和CPU中似乎被不同地使用,但是GPU是否比CPU具有更强的SIMD能力? C...