我对使用Numpy和GPU(nvidia GTX 1080 Ti)有一些基本问题。我是GPU的新手,希望确保我正确地使用GPU来加速Numpy/Python。我在互联网上搜索了一段时间,但没有找到简单的教程来解决我的问题。如果有人能给我一些指导,我将不胜感激:
1)Numpy/Python是否自动检测GPU的存在并利用它来加速矩阵计算(例如numpy.multiply、numpy.linalg.inv等)?还是我需要以特定方式编写代码来利用GPU进行快速计算?
2)是否有人可以推荐一个关于如何使用Numpy/Python与GPU(nvidia的)的好教程/入门资料?
非常感谢!