我有一个8 GPU的集群,当我运行来自Kaggle的一段Tensorflow代码(如下所示),它只使用了一个GPU而不是所有8个。 我使用nvidia-smi
进行了确认。
# Build model
inputs = Input((IMG_HEIGHT, IMG_WIDTH, IMG_CHANNELS))
...
outputs = Conv2D(1, (1, 1), activation='sigmoid') (c9)
model = Model(inputs=[inputs], outputs=[outputs])
sgd = optimizers.SGD(lr=0.03, decay=1e-6, momentum=0.9, nesterov=True)
model.compile(optimizer=sgd, loss='binary_crossentropy', metrics=[mean_iou])
model.summary()
# Fit model
results = model.fit(X_train, Y_train, validation_split=0.05, batch_size = 32, verbose=1, epochs=100)
我想使用MXNet或其他方法在所有可用的GPU上运行此代码。但是,我不确定该怎么做。所有资源都只显示如何在mnist数据集上执行此操作。我有自己的数据集,读取方式不同。因此,不太确定如何修改代码。