智能汽车中的智能化技术,可分为3 个模块:环境感知层、决策规划层和运动控制层。环境感知层利用环境感知传感器(视觉传感器、激光雷达、毫米波雷达、超声波雷达、里程计、GPS 等)感知车辆行驶环境信息,利用车辆自身状态传感器(如轮速检测等)感知车辆自身状态。经过智能化模型处理后,感知出车辆周围环境(如绝对位置、车道线、周围车辆相对位置、行人位置、动态静态障碍物类型和位置、行为预测等),决策规划层按照驾驶决策算法将空间、时间上的独立信息、互补信息和冗余信息进行理解,根据实时感知到的车辆周围环境信息,实时决策车辆可执行的驾驶指令并规划出行程轨迹。运动控制层接收决策规划层的驾驶指令,控制车辆稳定运行的同时保证车辆的控制精度。 随机性和模糊性导致不确定性是人类思维活动中最基本的特性。对人类思维模拟、研究的人工智能技术,也具有不确定性的特点。
基于视觉的感知算法 1) 目标检测算法 目标检测的任务是找出图像或视频中的感兴趣物体,同时检测出它们的位置和大小,是机器视觉领域的核心问题之一,至今已有将近二十年的研究历史。作为计算机视觉的基本问题,目标检测构成了许多计算机视觉任务的基础,目前目标检测算法已广泛应用于许多现实世界的应用,如智能驾驶、机器人视觉、视频监控等。从2012 年开始,因大数据技术和硬件计算能力的提升,卷积神经网络(convolutional neural networks, CNN)再一次受到研究者的关注,CNN 提取到的特征和传统手工特征相比,具有更鲁棒和更深层的特性,这也引导研究者将CNN 应用到目标检测领域中。用深度学习解决目标检测算法,可被分为两组:两阶段法和一阶段法。两阶段法采用“由粗到细”的检测策略,而一阶段法利用神经网络模型,一步完成检测任务。
2) 车道线检测算法 基于视觉的车道线检测技术已经广泛应用于辅助驾驶系统,如驾驶员熟悉的私家车车道保持功能,驾驶车辆时,如果车辆压在车道线上太久,则驾驶辅助系统会提醒驾驶员调整车辆位置。
3) 目标跟踪算法 视觉跟踪通过在连续的视频图像序列中估计感兴趣目标的位置或所在区域,结合历史运动信息,预测其未来的运动信息,对智能车分析理解其周围环境至关重要。在线视觉跟踪的基本框图如图1所示。
4) 行为预测算法 行为预测功能会根据当前以及历史感知来预测智能车周围其他运动物体(如其他车辆、行人、非机动车等)的未来运动轨迹。为使智能车在道路上安全有效地行驶,智能汽车不仅应感知其周围其他运动元素的状态,还应主动预测其未来的运动轨迹,有助于智能车提前做出最优决策。机器学习尤其是深度学习的最新进展为解决智能车行为预测提供了有力工具。
预期功能安全基于场景来进行分析,ISO/PAS 21448 标准将场景划分为如图2 所示的4 个区间,分别为:1)已知-安全场景;2)已知-危险场景;3)未知-危险场景;4)未知-安全场景。预期功能安全研究的目的是将已知危险区域和未知危险区域缩小至可接收的范围内,即保证场景尽可能控制在安全区域。