最近做毕设实验,和室友共用一台深度学习机器,今天脑子一抽,突发奇想能不能开两个终端窗口跑代码呢!然后报错cuda out of memory,关掉第一个窗口后还是报错 No CUDA GPUs are available,于是搜了其它博主如何解决。首先,查看自己是否真的拥有可用的GPU:
print(torch.cuda.device_count())
print(torch.cuda.is_available())
我这里的输出是1和True,但还是没有解决问题。然后菜鸡就开始了艰难而随机的debug过程,把释放GPU内存的指令都试了一遍,最终通过一行代码解决了问题:
torch.cuda.empty_cache()
直接加在即将运行的代码前面就可以了!
更多推荐
RuntimeError: No CUDA GPUs are available 问题解决
发布评论