GTX2060
pytorch 1.6
cuda 10.2
cudnn 7.6.5
各方面都安装适配的特别好,可是不知道为什么就显示调用不上CUDA。
查了好久,发现pytorch可能也分为CPU和GPU版本的,虽然不像tensorflow那样有不同的名字(tensorflow-gpu,tensorflow),但是如果在conda中直接执行一下命令
conda install pytorch=xxx
安装的将会是CPU版本的,此时无论你的CUDA和CUDNN适配的多好,torch.cuda.is_available()都会显示false。因为你的cuda压根就没有用在torch上。
一个很好的判断方法:
torch.version.cuda
如果确实是安装了gpu版本的pytorch,上面这个应该会显示cuda的版本,如果是cpu,则会显示None。
好像只有运行如下命令:
conda install pytorch cudatookits=xx
即一起安装,才会默认安装为gpu的pytorch,我也不知道为啥。
其实直接去pytorch的官网上有可以照搬的命令最方便了。
https://pytorch/
…有条件的可以去。
最后附终于搞成功的截图:
更多推荐
torch.cuda.is_available()显示false的原因
发布评论