我正在尝试在远程机器的GPU上运行测试代码,代码如下:
import torch
foo = torch.tensor([1,2,3])
foo = foo.to('cuda')
我遇到了以下错误
Traceback (most recent call last):
File "/remote/blade/test.py", line 3, in <module>
foo = foo.to('cuda')
RuntimeError: CUDA error: out of memory
CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect.
For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
从这个讨论中,cuda和pytorch版本之间的冲突可能是错误的原因。我运行了以下内容
print('python v. : ', sys.version)
print('pytorch v. :', torch.__version__)
print('cuda v. :', torch.version.cuda)
获取版本信息:
python v. : 3.9.7 (default, Sep 16 2021, 13:09:58)
[GCC 7.5.0]
pytorch v. : 1.11.0.dev20211206
cuda v. : 10.2
这里有什么不对劲的地方吗?
torch.version.cuda
是由 PyTorch 构建时生成的硬编码字符串。它必须与默认库搜索路径中可访问的一组运行时库相匹配。而你的 PyTorch 问题并不涉及 CUDA 编程,因此我已经移除了该标签。 - talonmies