一、ipdb介绍
代码量少时debug:使用print和log调试代码;
better做法:一遍运行一遍检查里面的变量和方法。
pdb是python交互式的调试工具,其作用:
根据需求跳转到任意的python代码断点
查看任意变量、单步执行代码
甚至修改变量的值,不必重启程序
ipdb是增强版的pdb,提供了调试模式下的代码自动补全,有更好的语法高亮和代码溯源,与pdb接口完全兼容。
二、小栗子
结合pytorch和ipdb进行调试。
要使用ipdb,在需要调试的地方插入ipdb.set_trace即可(还有在代码开头加上try和except两行)。
现在有栗子如下,sum和mul函数分别计算列表x中的元素的累加和累乘:
# -*- coding: utf-8 -*- """ Created on Sun Dec 12 16:33:07 2021 @author: 86493 """ try: import ipdb except: import pdb as ipdb def sum(x): r = 0 for i in x: r += i return r def mul(x): r = 1 for i in x: r *= i return r ipdb.set_trace() x = [1, 2, 3, 4, 5] r = sum(x) r = mul(x)
程序运行到ipdb.set_trace()
后自动进行debug模式:
ipdb> list 7,27 # 查看第7到27行代码 7 try: 8 import ipdb 9 except: 10 import pdb as ipdb 11 12 def sum(x): 13 r = 0 14 for i in x: 15 r += i 16 return r 17 18 def mul(x): 19 r = 1 20 for i in x: 21 r *= i 22 return r 23 24 ipdb.set_trace() ---> 25 x = [1, 2, 3, 4, 5] 26 r = sum(x) 27 r = mul(x) ipdb> n # next执行下一步 > d:\桌面文件\ipdb.py(26)<module>() ipdb> s # step的缩写,此处进入sum函数内部 --Call-- > d:\桌面文件\ipdb.py(12)sum() ipdb> u # up的缩写,调回上一层的调用 > d:\桌面文件\ipdb.py(26)<module>() ipdb> down # down的缩写,跳到调用的下一层 > d:\桌面文件\ipdb.py(15)sum() ipdb> return # 继续执行到函数返回,返回15即为sum的结果 --Return-- 15
同时也可以查看或者修改变量,再继续执行代码也是按照修改后的变量运算,如果要退出debug模式则是q(debug的缩写)。
ipdb的小技巧:
<tab>键能自动补齐,和IPyhton中类似
j(ump)<lineno>能够跳过中间某些行代码的执行
可以直接在ipdb中改变变量值
h(elp)能够查看调试命令的用法,如h h查看help命令的用法等。
三、在pytorch中debug
pytorch可以执行计算的同时定义计算图(该定义过程是用python完成的,虽然底层是用C++完成)。
3.1 pytorch和ipdb结合的好处
1)通过debug暂停程序:当程序进入debug模式之后,将不再执行GPU和CPU运算,但是内存和显存集相应的堆栈空间不会释放
2)通过debug分析程序,查看每个层的输出,查看网络的参数情况:通过u\d\s等命令,能够进入指定的代码,通过n可以进行单步执行,从而可以看见每一层的运算结果,便于分析网络的数值分布等信息
3)作为动态图框架,pytorch拥有python动态语言解释执行的优点,我们能够在运行程序时,通过ipdb修改某些变量的值或属性,这些修改能够立即生效。例如可以在训练开始不久后根据损失函数调整学习率,不必重启程序
4)如果在IPython中通过%run魔法方法运行程序,那么在程序异常退出时,可以使用%debug命令,直接进入debug模式,通过u和d调到报错的地方,查看对应的变量。然后找出原因后修改相应的代码即可。
因为有时模型训练好几个小时后,却在要保存模型之前,因为一个小小的拼写错误异常退出。这时候最好的办法就是利用%debug进入调试模式,在调试模式中直接运行model.save()保存模型
在ipython中,%pdb魔术方法能够使得程序出现问题后,不用手动输入%debug而自动进入调试模式,建议使用
pytorch调用cuDNN报错时,报错信息诸如CUDNN_STATUS_BAD_PARAM,从这些报错信息内容很难得到有用的帮助信息,最好先利用CPU运行代码,此时一般会得到相对友好的报错信息。
3.2 常见的错误有如下几种:
1)类型不匹配问题:如CrossEntropyLoss的输入target应该是一个LongTensor,而很多人输入FloatTensor
2)部分数据忘记从CPU转到GPU:例如当model存放与GPU时,输入input耶需要转移到GPU才能输入到model中
还有可能是把多个model存放在一个list对象,而在执行model.cuda()时,这个list中的对象是不会被转移到CUDA上的,正确的用法是使用ModuleList替代
3)Tensor形状不匹配:此类问题一般是输入数据形状不对,或是网络结构设计有问题,一般通过u命令跳到指定代码,查看输入和模型参数的形状即可得知