使用 YOLOv5 目标检测算法完成对复杂场景中的人体识别和定位之后,将对检测到的人体进行目标跟踪以提取时序行为特征。本文使用了 Deep Sort算法进行跟踪,Deep Sort 算法在 MOT16 数据集上进行了预训练,添加跟踪模块后,可以单独提取帧内的对象。跟踪后,将每个人的轨迹组成独立的图像序列,然后针对每个独立的图像序列分别进行跌倒行为的判断。因为目标检测与跟踪的方法对人体进行了提取,减少了人体间的互相干扰,因此可以提高后续的跌倒检测模型的效果。
由于 Deep Sort 算法本身是对行人进行的预训练,对于躺倒或非直立行为还需要再训练 ReID 模型以提取行为特征。本文使用了自建数据集对 Deep Sort 算法进行了再训练,数据集中包含 150 个不同的人体,每个人体有 30 张连续的动作图片。
可以看出,日常生活场景中的人体都能被很好地跟踪,人体矩形框上的数字就是跟踪的标识,数字不变表示这是同一个跟踪对象,而本文的工作就是把同一个跟踪对象的人体特征和时序变化挖掘出来进行分析。跟踪过程会因为遮挡或者是检测不到人体的原因导致人体跟踪框消失,然而后续送入 LSTM 模型中的行为特征序列要保证时间上的连续,因此对目标跟踪之后的数据,将使用线性插值的方法补充缺失的时序值,从而得到合适的特征序列。