近年来,随着人工智能的发展和城市交通系统的完善,基于视频的车辆行为识别成为一个全新的命题进入人们的视野。车辆行为识别可以作为辅助技术应用到无人驾驶领域和交通监控场景中,使用范围广泛。目前在车辆识别领域的研究中,主要的研究对象为交通系统中的车辆,按照不同的视频场景可以分为两大类,一类是动态背景下的车辆行为识别,如下图(a)所示,识别数据主要来自于行车记录仪,根据车载摄像头记录的视频内容,判断周围环境中其他车辆与当前车量的相对位置,进而指导当前车辆做出动作,主要用于驾驶行为决策。另一类是静态背景下的车辆行为识别,识别数据主要来自道路上固定摄像头下的监控画面,如下图(b)所示,这类车辆行为识别方法会结合轨迹或场景进行分析,主要判断车辆是否违反交规,或通过大数据来进行交通系统的安全分析。
对于施工场景中的工程车辆行为识别问题,由于工程车辆种类繁多,动作模式各不相同,难以有统一的标准,因此目前这方面的研究较少。除此之外,在视频行为识别领域的方法大都基于完整的 RGB 图像,一个视频数据只能推理出一个动作类别。但对于所讨论的工程监控场景中,视频中经常会出现多类工程车辆,因此需要借助目标检测和多目标跟踪方法。传统目标检测算法主要包括 3 个步骤,首先通过滑动窗口提取先验框,其次针对先验框进行特征提取和特征选择,最后对选择到的特征进行分类。在这种方法中,滑动窗口的大小和滑动策略会影响特征提取质量。针对这种传统算法精度低的问题,Girshick 等人首次提出将基于区域的卷积网络(Region Based Convolutional Neural Network,R-CNN)应用于目标检测中,R-CNN 使得 VOC2007 数据集上的检测精度(Mean Average Precision,mAP)从 29.2%提升到 66.0%。在这之后 R-CNN 系列的到了长足发展,精度也得到了进一步提高,由于 R-CNN 这样的两阶段检测器需要在检测前生成大量待检测的候选区域(Region Proposal),因此在速度上具有一定劣势。而之后出现的单阶检测器解决了这一问题,如 SSD(Single Shot MultiBox Detector)和 YOLO(You Only Look Once)系列,无需像 R-CNN 系列那样生成候选框就能进行直接的图像分类和边框回归,更加高效快速。各类目标检测算法在不断发展中速度和精度也在不断提高,逐渐在智能监控、机器人行为控制、航天航空等领域得到了广泛应用。
针对高后果区油气管线巡检中的安全问题,我国也研究出了一些新的应对方案。如通过智能管理系统在网络端统一管理,或通过机器人巡检等方案来提高管线安全性,而针对巡检过程中工程车施工安全问题的研究尚少。