Numpy是否自动检测并使用GPU?

7 浏览
0 Comments

Numpy是否自动检测并使用GPU?

我对使用Numpy与GPU(nvidia GTX 1080 Ti)有一些基本问题。我对GPU还不太了解,希望能确保我正确地使用GPU来加速Numpy/Python。我在网上搜索了一段时间,但没有找到一个简单的教程来解答我的问题。如果有人能给我一些建议,我将不胜感激:

1)Numpy/Python能否自动检测到GPU的存在,并利用它加速矩阵计算(例如numpy.multiply,numpy.linalg.inv等)?还是我需要按照特定的方式编写代码来利用GPU进行快速计算?

2)有人能推荐一个关于使用Numpy/Python与GPU(nvidia)的好教程/入门资料吗?

非常感谢!

0