TensorFlow时间线中GPU_0_bfc分配器和GPU_host_bfc分配器的区别

3
当我尝试使用TensorFlow Timeline工具来分析模型训练的内存使用情况时,我发现有两个相关信息被收集了起来,分别是GPU_0_bfc和GPU_host_bfc(见下图),我想知道哪一个可以反映出最准确的内存使用情况?或者它们之间有什么区别?谢谢。

TensorFlow时间轴分析结果示例


我发现了这个链接:https://github.com/IBM/tensorflow-large-model-support/blob/master/README.md#increase-the-system-memory-gpu-host-memory-allocation - patzm
1个回答

0

看起来 GPU_host_bfc 是在主机上分配的内存使用情况(例如,靠近 CPU 的 RAM)。这通常比物理上(和/或通过 swap)可用的内存少。 更多阅读 这里


网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接