- 调用gc:
import gc del obj gc.collect()
- 使用PyTorch时,如果不需要积累任何梯度,可以使用with torch.no_grad()(在循环语句里面正常运算即可),可以有效降低梯度占据的内存(梯度可以占相当大的一部分)。
如果仅不需要积累特定张量的梯度,可以将对应张量的requires_grad属性置False。(这是没有注册的张量的默认属性)
(注意,仅使用model.eval()不能达到这个效果)
- 使用PyTorch清cuda上的缓存:torch.cuda.empty_cache()(官方文档:torch.cuda.empty_cache — PyTorch 1.11.0 documentation,此外可参考【pytorch】torch.cuda.empty_cache()==>释放缓存分配器当前持有的且未占用的缓存显存_马鹏森的博客-CSDN博客_empty_cache)
- 其他使用Python对cuda进行内存管理可以参考官方笔记 CUDA semantics - Memory management