博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
RuntimeError: CUDA out of memory. Tried to allocate 392.00 MiB (GPU 0; 7.79 GiB total capacity; 记录
阅读量:3972 次
发布时间:2019-05-24

本文共 424 字,大约阅读时间需要 1 分钟。

1. 问题描述

在这里插入图片描述
有一种可能真的是显存不够用,这种直接在代码中修改可以减小batch_size即可解决。

但是查看了GPU显存明明够用啊,那为什么还报错RuntimeError: CUDA out of memory.呢?这种,就算减小batch_size 也没用

在这里插入图片描述
参考网友经验,原来这种情况的根本原因 是

代码指定的GPU与实际使用的GPU不一致。

你以为代码在1上跑,实际上是在已经有代码运行的其他gpu跑,因此显示显存不足。

我的解决办法是在代码里修改了这几句代码。

os.environ['CUDA_DEVICE_ORDER'] = 'PCI_BUS_ID'os.environ['CUDA_VISIBLE_DEVICES'] = '1' device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

然后成功运行。

记录此次bug解决,以便以后需要时查阅。

转载地址:http://bhtki.baihongyu.com/

你可能感兴趣的文章
PL/SQL Developer技巧
查看>>
3-python之PyCharm如何新建项目
查看>>
15-python之while循环嵌套应用场景
查看>>
17-python之for循环
查看>>
18-python之while循环,for循环与else的配合
查看>>
19-python之字符串简单介绍
查看>>
20-python之切片详细介绍
查看>>
P24-c++类继承-01详细的例子演示继承的好处
查看>>
P8-c++对象和类-01默认构造函数详解
查看>>
P1-c++函数详解-01函数的默认参数
查看>>
P3-c++函数详解-03函数模板详细介绍
查看>>
P4-c++函数详解-04函数重载,函数模板和函数模板重载,编译器选择使用哪个函数版本?
查看>>
P5-c++内存模型和名称空间-01头文件相关
查看>>
P6-c++内存模型和名称空间-02存储连续性、作用域和链接性
查看>>
P9-c++对象和类-02构造函数和析构函数总结
查看>>
P10-c++对象和类-03this指针详细介绍,详细的例子演示
查看>>
ksh 命令分隔符
查看>>
sed 精萃
查看>>
awk 精萃
查看>>
awk 注释
查看>>