如果使用Quadro GPU和GeForce GPU,在TensorFlow性能上是否有明显差异?
例如,是否使用双精度操作或其他可能导致GeForce卡性能下降的东西?
我正准备购买用于TensorFlow的GPU,并想知道是否可以使用GeForce。谢谢并感谢您的帮助。
如果使用Quadro GPU和GeForce GPU,在TensorFlow性能上是否有明显差异?
例如,是否使用双精度操作或其他可能导致GeForce卡性能下降的东西?
我正准备购买用于TensorFlow的GPU,并想知道是否可以使用GeForce。谢谢并感谢您的帮助。
针对机器学习,包括深度学习,有一个 Kaggle论坛讨论专门讨论这个主题(2014年12月,永久链接),其中涵盖了Quadro、GeForce和Tesla系列之间的比较:
Quadro GPU不适用于科学计算,需要使用Tesla GPU。Quadro卡是为加速CAD而设计的,因此无法帮助您训练神经网络。它们可能可以用于该目的,但这样会浪费金钱。Tesla卡用于科学计算,但它们往往非常昂贵。好消息是,与GeForce卡相比,Tesla卡提供的许多功能对于训练神经网络并不是必需的。例如,Tesla卡通常具有ECC内存,这很好但不是必需的。它们还具有更好的双精度计算支持,但单精度足以进行神经网络训练,并且在这方面的性能与GeForce卡大致相同。Tesla卡的一个有用功能是它们往往具有比可比较的GeForce卡更多的RAM。如果您计划训练更大的模型(或使用基于FFT的卷积等RAM密集型计算),则始终欢迎更多的RAM。如果您在Quadro和GeForce之间选择,请选择GeForce。如果您在Tesla和GeForce之间选择,请选择GeForce,除非您有很多钱并且确实需要额外的RAM。注意:请注意您正在使用的平台以及其默认精度。例如,这里在CUDA论坛中(2016年8月),一位开发人员拥有两个Titan X(GeForce系列)并且没有在任何R或Python脚本中看到性能提升。这是由于R被默认设置为双精度,并且在新的GPU上性能比他们的CPU(Xeon处理器)更差。Tesla GPU被认为是双精度最佳性能。在这种情况下,将所有数字转换为float32可以从一个TITAN X上的nvBLAS 0.324s与gmatrix + float32s的12.437s的性能提高(请参见第一个基准测试)。引用来自这个论坛讨论的话:
Titan X的双精度性能相当低。