本文共 424 字,大约阅读时间需要 1 分钟。
1. 问题描述
有一种可能真的是显存不够用,这种直接在代码中修改可以减小batch_size即可解决。但是查看了GPU显存明明够用啊,那为什么还报错RuntimeError: CUDA out of memory.呢?这种,就算减小batch_size 也没用。
参考网友经验,原来这种情况的根本原因 是代码指定的GPU与实际使用的GPU不一致。
你以为代码在1上跑,实际上是在已经有代码运行的其他gpu跑,因此显示显存不足。
我的解决办法是在代码里修改了这几句代码。
os.environ['CUDA_DEVICE_ORDER'] = 'PCI_BUS_ID'os.environ['CUDA_VISIBLE_DEVICES'] = '1' device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
然后成功运行。
记录此次bug解决,以便以后需要时查阅。
转载地址:http://bhtki.baihongyu.com/