最近做毕设实验,和室友共用一台深度学习机器,今天脑子一抽,突发奇想能不能开两个终端窗口跑代码呢!然后报错cuda out of memory,关掉第一个窗口后还是报错 No CUDA GPUs are available,于是搜了其它博主如何解决。首先,查看自己是否真的拥有可用的GPU:

print(torch.cuda.device_count())
print(torch.cuda.is_available())

我这里的输出是1和True,但还是没有解决问题。然后菜鸡就开始了艰难而随机的debug过程,把释放GPU内存的指令都试了一遍,最终通过一行代码解决了问题:

torch.cuda.empty_cache()

直接加在即将运行的代码前面就可以了!

更多推荐

RuntimeError: No CUDA GPUs are available 问题解决