老司机和驾驶辅助系统相处得如何?MIT研究人员做了个科学研究

简介:
本文来自AI新媒体量子位(QbitAI)

关于带驾驶辅助系统无人车安全性的争吵从未停止。

两方争论的焦点无非是它们减轻了司机的驾驶压力,但又没有轻松到可以放任不管。因为司机的“放松程度”很难把控,所以不能确定它的安全性。

驾驶辅助系统是存是留?这是个问题。

互怼可以,但也得注意一下姿势,应该考虑下怎样科学地证明自己的观点吧 ╮(╯▽╰)╭。

对了,MIT的研究人员就在研究人类司机和和驾驶辅助系统的日常相处,任务代号MIT-AVT。别纠结了,看看MIT科学家的正确研究姿势。

总体思路

MIT-AVT研究想通过收集大量驾驶数据,通过收集车辆状态数据的视频、司机状态、心理模式等全面了解人类与车辆的互动方式,基于内部和外部的感知系统促进深度学习在自动驾驶领域发展。此外,这项研究还会判断司机对驾驶辅助技术和其他自动化技术的上手程度,提高司机的使用频率。

MIT研究人员探索了新的分析方法,研究在这些装备过车辆上的大型数据集。这些记录的数据流包括IMU、GPS、CAN信息,也包括司机脸部、驾驶室、前进道路和仪表盘的高清视频。

数据收集

收集这些数据的装备很多,掐指一算,总共有21辆特斯拉Model S和Model X、两辆沃尔沃S90和两辆路虎Evoque。

 收集司机与系统交互数据的实验车

为了收集数据,研究人员为这些车辆配备了一至多台车载电脑、多个摄像头、一个GPS、激光雷达和蓝牙传感器。

在项目论文中,我们能够窥见驾驶员与环境交互数据的采集过程——相机通过捕捉司机脸部表情判断司机状态,驾驶室内的相机负责追踪司机体态,前向相机可以感知驾驶场景,仪表盘摄像机收集车辆状态。

 驾驶员与环境交互数据采集过程

 在新英格兰地区收集的MIT-AVT数据集中GPS点的可视化表示

研究时长

研究时长分长期和短期两种。有些测试车是司机自己的,这种情况研究人员将观察车辆一年,研究司机适应驾驶辅助技术的过程——他们对驾驶辅助系统有信心吗?是否会越来越频繁地依赖系统?对于不同的路段环境,会采取不同的驾驶方式吗?

 在研究的14个月中,实验车辆日常行驶里程的可视化

短期研究时长为一个月。研究人员想借此弄清楚司机对一个全新驾驶辅助系统的反应。他们需要多久才能学会使用它?是否有一些他们无法理解的操作?这些问题的答案可以帮助工程师建造更安全、易上手的汽车。

项目进展

目前,这项研究还在进行中。到目前为止,研究人员已经找到了78名参与者完成了7146天时长的参与,总共完成了275589英里的测试路段和35亿帧视频。

MIT研究人员在论文中表示,随着实验的进行,将定期在论文中更新最新研究成果。

最后,附论文地址:

http://hcai.mit.edu/mit-avt.pdf

本文作者:安妮
原文发布时间: 2017-11-21
相关文章
|
分布式计算 Hadoop Scala
阿里云一键部署 Spark 分布式集群
Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎,可以完成各种各样的运算,包括 SQL 查询、文本处理、机器学习等。通过ROS大家可以在阿里云上一键部署Spark集群。
14260 0
|
11月前
|
Go 开发者
Go语言内存共享与扩容机制 -《Go语言实战指南》
本文深入探讨了Go语言中切片的内存共享机制与自动扩容策略。切片作为动态数组的抽象,其底层结构包含指针、长度和容量。多个切片可能共享同一底层数组,修改一个切片可能影响其他切片。当切片容量不足时,`append`会触发扩容,新容量按指数增长以优化性能。为避免共享导致的副作用,可通过`copy`创建独立副本或在函数中使用只读方式处理。最后总结了最佳实践,帮助开发者高效使用切片,写出更优代码。
267 10
|
机器学习/深度学习 人工智能 缓存
云上玩转DeepSeek系列之五:实测优化16%, 体验FlashMLA加速DeepSeek-V2-Lite推理
DeepSeek-AI 开源的 FlashMLA 是一个优化多层注意力机制的解码内核,显著提升大语言模型的长序列处理和推理效率。本文介绍了如何在 PAI 平台上安装并使用 FlashMLA 部署 DeepSeek-V2-Lite-Chat 模型。通过优化后的 FlashMLA,实现了约 16% 的性能提升。
|
块存储 芯片 内存技术
计算机组成原理(4)-----Cache的原理及相关知识点(1)
计算机组成原理(4)-----Cache的原理及相关知识点
1556 2
|
运维 监控 Linux
解决CPU与带宽高使用率问题:深入分析与应对策略
引言:性能问题的诊断与优化 在运维工作中,操作系统性能问题如影随形,典型代表是CPU使用率高和带宽使用率高的问题,它们直接影响应用的性能和响应时间。这篇记录将逐个分析这两个问题的产生原因和解决方法。
解决CPU与带宽高使用率问题:深入分析与应对策略
|
机器学习/深度学习 自然语言处理 TensorFlow
深入浅出:理解和实现深度学习中的卷积神经网络(CNN)
在当今的数据驱动世界,深度学习已经成为许多领域的关键技术。本文将深入探讨卷积神经网络(CNN)的原理、结构和应用,旨在帮助读者全面理解这项强大的技术,并提供实际的实现技巧。
697 27
|
传感器 监控 搜索推荐
量子科技在医疗领域的应用?
【8月更文挑战第4天】量子科技在医疗领域的应用?
948 1
|
机器学习/深度学习 存储 算法
基于CNN+LSTM深度学习网络的时间序列预测matlab仿真,并对比CNN+GRU网络
该文介绍了使用MATLAB2022A进行时间序列预测的算法,结合CNN和RNN(LSTM或GRU)处理数据。CNN提取局部特征,RNN处理序列依赖。LSTM通过门控机制擅长长序列,GRU则更为简洁、高效。程序展示了训练损失、精度随epoch变化的曲线,并对训练及测试数据进行预测,评估预测误差。
|
网络虚拟化 网络架构
三层交换机对接路由器配置上网实验
三层交换机简介 三层交换机是具有路由功能的交换机,由于路由属于OSI模型中第三层网络层的功能,所以称为三层交换机。 三层交换机既可以工作在二层也可以工作在三层,可以部署在接入层,也可以部署在汇聚层,作为用户的网关。
433 2

热门文章

最新文章