我正在两台不同的机器上运行深度学习CNN模型(4个CNN层和3个FNN层),使用Keras编写,TensorFlow作为后端。其中一台机器是A,它有一个GTX 960图形GPU,2GB内存和1.17 GHz的时钟速度;另一台机器是B,它有一个Tesla K40计算GPU,12GB内存和745MHz的时钟速度。但是当我在A上运行CNN模型时,输出如下:
数据集:CIFAR-10(32x32 RGB图像) 模型批处理大小:128 模型参数数量:1.2M 操作系统:Ubuntu 16.04 Nvidia驱动程序版本:384.111 Cuda版本:7.5,V7.5.17
如果您需要更多数据,请告诉我。
补充1:(添加CPU信息) 机器A(GTX 960):8个核心-Intel(R) Core(TM) i7-6700 CPU @ 3.40GHz 机器B(Tesla K40c):8个核心-Intel(R) Xeon(R) CPU E5-2637 v4 @ 3.50GHz
Epoch 1/35
50000/50000 [==============================] - 10s 198us/step - loss: 0.0851 - acc: 0.2323
而在B上运行时,输出如下:
Epoch 1/35
50000/50000 [==============================] - 43s 850us/step - loss: 0.0800 - acc: 0.3110
这两个数字完全不可比较。我对深度学习和在GPU上运行代码都很新手。请问有人能帮我解释一下为什么这些数字会如此不同吗?数据集:CIFAR-10(32x32 RGB图像) 模型批处理大小:128 模型参数数量:1.2M 操作系统:Ubuntu 16.04 Nvidia驱动程序版本:384.111 Cuda版本:7.5,V7.5.17
如果您需要更多数据,请告诉我。
补充1:(添加CPU信息) 机器A(GTX 960):8个核心-Intel(R) Core(TM) i7-6700 CPU @ 3.40GHz 机器B(Tesla K40c):8个核心-Intel(R) Xeon(R) CPU E5-2637 v4 @ 3.50GHz