1 问题
使用model.cuda(),作用是对于模型还是数据,cuda()函数都能实现从CPU到GPU的内存迁移
model.cuda()
报错
Exception has occurred: RuntimeError cuDNN error: CUDNN_STATUS_NOT_INITIALIZED
2 原因与解决方案
2.1 方法一
原因是:可能是Pytorch需要安装的四个包,版本没有对应,导致CUDA没法用
pytorch==1.7.1
torchvision==0.8.2
torchaudio==0.7.2
cudatoolkit==10.*
卸载了所有与的四个包,按照官方提供的四个对应版本重新安装。当然首先需要查看自己的CUDA版本
Pytorch官网安装Pytorch
nvcc -V
本人是Linux系统CUDA10,命令如下
#CUDA 10.1
conda install pytorch==1.7.1 torchvision==0.8.2 torchaudio==0.7.2 cudatoolkit=10.1 -c pytorch
2.2 方法二
原因是:CUDA与N卡驱动不对应,没有安装正确,CUDA不能用,查看CUDA是否能用命令如下
import torch
print(torch.cuda.is_available())
如果返回False,则重新安装CUDA,Linux系统具体参考本人另一篇博客
【Deepin 20系统】自定义路径安装CUDA-10或CUDA-11+cuDNN
2.3 方法三
原因是:版本太高
将torch的一系列依赖包降级到1.7.1
conda install pytorch==1.7.1 torchvision==0.8.2 torchaudio==0.7.2 cudatoolkit=10.1 -c pytorch
2.4 方法四
GPU实在用不了,换CPU.用model.to(device)替代model.cuda()
device = "cpu"
model = model.to(device)