我正在进行人工智能专业的博士研究,目前需要使用CUDA库作为测试平台。虽然我之前用过CUDA并且对GPU通用计算有基本的了解,但我仍然对浮点精度感到困扰。
GTX680的FP64为1/24的FP32,而Tesla则具有完整的FP64,性能为1.31 TFLOPS。我很清楚其中一个是游戏显卡,另一个是专业显卡。
我提出问题的原因很简单:我买不起Tesla,但我可以考虑购买两个GTX680。尽管主要目标是拥有尽可能多的CUDA核心和内存,但浮点精度可能会成为问题。
我的问题如下:
1. 游戏显卡中小的浮点精度会带来多大的影响? 2. 1/24的32位浮点精度是否过小?特别是与先前Fermi的1/8 FP32相比。 3. 由于较小的浮点精度,是否存在计算结果错误的风险?例如,在SVM、VSM、矩阵运算、深度置信网络等方面,我是否会因较小的浮点数而遇到算法结果的问题,或者这只是意味着操作将花费更长时间/使用更多内存?
谢谢!
GTX680的FP64为1/24的FP32,而Tesla则具有完整的FP64,性能为1.31 TFLOPS。我很清楚其中一个是游戏显卡,另一个是专业显卡。
我提出问题的原因很简单:我买不起Tesla,但我可以考虑购买两个GTX680。尽管主要目标是拥有尽可能多的CUDA核心和内存,但浮点精度可能会成为问题。
我的问题如下:
1. 游戏显卡中小的浮点精度会带来多大的影响? 2. 1/24的32位浮点精度是否过小?特别是与先前Fermi的1/8 FP32相比。 3. 由于较小的浮点精度,是否存在计算结果错误的风险?例如,在SVM、VSM、矩阵运算、深度置信网络等方面,我是否会因较小的浮点数而遇到算法结果的问题,或者这只是意味着操作将花费更长时间/使用更多内存?
谢谢!