如何将tensorflow的GPU内存扩展到系统内存中?

3

我想使用mscoco数据集,使用 faster_rcnn_with resnet101 以及谷歌的物体检测来进行训练代码。 我只使用了10,000张图片进行培训。我的显卡是:GeForce 930M/PCIe/SSE2,NVIDIA驱动程序版本:384.90。这是我的GeForce的图片。enter image description here

我有8GB RAM,但在tensorflow gpu中显示为1.96GB。

system configurationterminal show of GPU现在该怎么扩展我的GPU RAM?我想使用全部系统内存。

1个回答

2
您可以在CPU上进行训练,以利用机器的RAM。然而,要在GPU上运行某些东西,必须首先将其加载到GPU中。现在您可以交换内存,因为并不需要在任何步骤中使用所有结果。但是,您会付出非常长的训练时间,我建议您减少批处理大小。尽管如此,有关此过程和实现的详细信息可以在此处找到:https://medium.com/@Synced/how-to-train-a-very-large-and-deep-model-on-one-gpu-7b7edfe2d072

我已经在CPU上运行了。但我想在GPU上运行。为什么TensorFlow GPU只有1.96 GB?我确定你已经看到了我的系统内存(8GB)@Thomas Pinetz - orbit
GPU使用自己的内存,你拥有一块只有2GB内存的GPU。如果你想在GPU上计算数据,你需要将数据加载到GPU上,也就是GPU内存中。你应该去了解一下CUDA核函数以及如何将数据加载到GPU上,这样会更好理解。 - Thomas Pinetz

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接