我已购买了Colab Pro,但大部分时间只能使用P100。V100的运行速度比P100快近2倍。请问如何手动获取V100?
我已购买了Colab Pro,但大部分时间只能使用P100。V100的运行速度比P100快近2倍。请问如何手动获取V100?
我已经长时间使用 Colab Pro,据我所知这些资源根据 Google 的可用性进行分配。我大多数时候使用的是 Tesla P100-PCIE-16GB
,但偶尔会被分配到 Tesla V100-SXM2-16GB
。
顺便说一句,在 Pytorch 中打印设备名称,您可以使用以下命令:
import torch
torch.cuda.get_device_name(device=None)
我开始使用Colab Pro已经三个月了,但是从来没有得到过V100,大多数时间都是P100,有时候是T4。
要获取在Colab中使用的GPU,最好的方法是使用以下命令:
!nvidia-smi