有效距离1600米,发布多目视觉立体感知技术,智加科技是如何做到的?

简介: 有效距离1600米,实现昼夜全天候的无人驾驶卡车运营。

智加科技又交出了新的答卷:技术上推出了有效距离达到1600米的立体视觉感知技术,加速无人卡车落地。

近日,智加科技发布了最新的多目视觉立体感知方案——有效距离达到1英里(1600米)的立体视觉感知技术,可以精准判断物体的位置和速度,结合多传感器融合方案将大幅提升系统安全性。 

值得注意的是,有效距离1600米在自动驾驶领域内是个什么样的概念? 

从数据方面看,在感知环节中,激光雷达、摄像头和毫米波雷达三项主要传感器的感知距离都在300米以内,而Waymo作为自动驾驶界的技术领头羊,其所能实现的感知距离也仅为300米左右。

据雷锋网(公众号:雷锋网)了解,感知是自动驾驶技术中的关键环节,就像人体的眼睛、耳朵和鼻子,从外界获取信息从而决定人体或者自动驾驶车辆的决策和行为。

感知能力越强,决策和行为的结果无疑会越精确,而投射在高速运行中的自动驾驶汽车中,其带来的无疑是更安全和更高效。

那么问题来了,此次智加科技的1600米有效感知距离是如何实现的?

多目立体视觉和算法突破

智加方面表示,此次公布的有效感知距离为1600米的立体视觉感知系统,是利用基于深度学习的多目视觉解决模块及算法,构建高精度的物体检测认知模型。

这一系统成功突破了立体视觉在自动驾驶远距离上感知精度的限制,实现了1600米距离上对物体和车道的识别和更进一步的追踪。

其实在自动驾驶中,感知不只是‘看到’就够了,还需要对行车环境中的物体进行测距、速度测量、分类、跟踪。

智加科技方面告诉雷锋网,此次来突破1600米的感知距离,主要归因于在过去一年内,公司研发团队利用边缘深度学习、深度立体视觉、动态智能物体跟踪等最前沿的技术,最终实现了这一突破。 

TB1ZvdDcqSs3KVjSZPiXXcsiVXa.png

*智加科技多目视觉立体感知系统长距感知图像

如何精准判断位置和速度?

从事自动驾驶物流货运的都知道,200米和1600米的远距离感知的不同的意义是什么。

也就是说,感知能力200米,意味着有200米的刹车制动距离,其中还未将无人货车载重计算在内。

意思是说,感知距离越长,刹车制动距离也就相应更长。

如今,从300米到1600米有效距离的跨越,智加科技提出了“看得清”、“看得懂”的技术指标。这份“底气”来源于其核心技术点多目立体视觉系统。

与单目摄像头带来的视觉感知能力相比,智加科技的多目立体视觉系统实现了三维世界内的距离量测,并且在车辆的自我位置识别、移动车辆的类型、位置、速度以及车道线等要素的有效识别表现出了强悍的性能。

说得形象一点,通过这一系统,智加科技的车载感知设备可以同时识别1600米外的车辆的各种状态:是小轿车还是重卡,是行驶中还是停靠路边,是在当前车道还是相邻车道等。

智加科技首席架构师Tim Daly表示:“1600米不只是数字意义上的突破,更应该包含着两个标准:

一个是‘看得清’,这就需要更清晰的摄像头带来的物理感知能力和更强大的系统算法;

还要‘看得懂’,也就是说依靠基于深度学习的人工智能前沿技术带来对1600米远的环境精确理解,能够帮助系统得出结论,为安全驾驶带来重要的判断依据。”

立体视觉在有效距离上的突破,将从安全和降本节能层面对自动驾驶的场景落地有直接推动作用。

调查显示,由驾驶员因素导致的车祸中,20%是由于驾驶员立体视觉感知不足造成的。

自动驾驶系统立体视觉有效距离从300米到1600米的突破,无疑将显著推升系统的整体感知能力,进而保证驾驶过程中更强的安全性。

同时,有效的安全距离带来足够的预判时间,让自动驾驶可以合理操作,减少急刹等燃油高消耗情况,降低运营成本。 

长距离感知比拼有必要吗?

据雷锋网了解,美国卡车每秒钟运行的速度约为30米,而卡车完成一次换道大概需要10秒,因此300米的距离也仅够一次卡车变道,再加上司机的提前观察,花费的时间将超过10秒。也就是说,较短的感知距离是不够的。

但是,感知距离的提升需要更多研发投入和硬件成本,那么从感知水平提升至1600米是否有必要?

首先,多传感器融合将大幅提升系统安全性。

具体来说,目前自动驾驶行业正在向以高速公路货运为代表的垂直应用场景率先落地而努力,而重型卡车的车辆特性也对系统的感知、规划和控制能力带来更加苛刻的安全要求。

在实际行驶中各种突发或小概率因素都会影响高速重卡驾驶预判,同时良好驾驶习惯带来的燃油节省也依赖更好的视距条件,因此技术上对有效感知距离极限的追求逐渐成为众多高速场景自动驾驶技术公司的共识。

值得一提的是,智加科技强调有效感知距离突破1600米是其多传感器融合方案的重要部分。

此外,这一技术突破,与智加科技已有的近距离、中距离摄像头以及激光雷达、毫米波雷达等传感器相结合,将大幅度提升环境感知信息冗余度,进而提高安全性。

智加科技创始人兼CTO郑皓表示:“感知和定位是一个异常复杂的技术集合,1600米的有效感知的距离是自动驾驶系统做出预测和规划的重要参数,但仍然不够。自动驾驶的安全应该是第一位的,这个数字能够帮助系统得到更全面的冗余数据,但基于安全目的对环境感知的极致追求永无止境。我们认为,基于激光雷达、毫米波雷达和视觉的多传感器融合是必要的。”

去年,智加科技和一汽、满帮组建了一个自动驾驶卡车“软件技术-车辆平台-运营管理”商业化铁三角。该战略同盟,要在2021年让无人物流卡车上路。此次智加科技发布的多目视觉立体感知技术,有效距离达1600米,说明他们正在朝着逐渐实现其自动驾驶商业化运营的目标稳步迈进。

目录
相关文章
|
15天前
|
人工智能
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性
AniDoc 是一款基于视频扩散模型的 2D 动画上色 AI 模型,能够自动将草图序列转换为彩色动画。该模型通过对应匹配技术和背景增强策略,实现了色彩和风格的准确传递,适用于动画制作、游戏开发和数字艺术创作等多个领域。
83 16
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性
|
13天前
|
人工智能 数据挖掘 vr&ar
LeviTor:蚂蚁集团开源3D目标轨迹控制视频合成技术,能够控制视频中3D物体的运动轨迹
LeviTor是由南京大学、蚂蚁集团等机构联合推出的3D目标轨迹控制视频合成技术,通过结合深度信息和K-means聚类点控制视频中3D物体的轨迹,无需显式的3D轨迹跟踪。
52 4
LeviTor:蚂蚁集团开源3D目标轨迹控制视频合成技术,能够控制视频中3D物体的运动轨迹
|
8月前
|
人工智能 搜索推荐 vr&ar
开源单图生成3D模型TripoSR的未来发展方向
【2月更文挑战第27天】开源单图生成3D模型TripoSR的未来发展方向
152 2
开源单图生成3D模型TripoSR的未来发展方向
|
传感器 Web App开发 运维
5620亿参数,最大多模态模型控制机器人,谷歌把具身智能玩出新高度
5620亿参数,最大多模态模型控制机器人,谷歌把具身智能玩出新高度
179 1
|
人工智能 算法 大数据
自建遥感AI模型 寻找海洋中的蓝色粮仓
遥感大数据与人工智能深度融合的时代,利用遥感AI算法,一起寻找地球上有趣的地物。
|
机器学习/深度学习 人工智能 安全
CVPR 2022|跨域检测新任务,北航、讯飞提出内生偏移自适应基准和噪声抑制网络
一篇由北京航空航天大学、科大讯飞研究院共同完成的研究入选 CVPR 2022。
657 1
CVPR 2022|跨域检测新任务,北航、讯飞提出内生偏移自适应基准和噪声抑制网络
|
人工智能 运维 机器人
从来也科技UiBot 6.0社区版,看RPA距离“人人可用”还有多远
来也科技最新上线的UiBot 6.0社区版实现了全线免费,这背后有什么逻辑?
730 1
从来也科技UiBot 6.0社区版,看RPA距离“人人可用”还有多远
|
传感器 编解码 安全
毅力号睁开几双「眼睛」,360度全景展示它的火星新家
近日,在火星安家的「毅力号」向地球发回了一张全景图,展示了着陆点杰泽罗陨石坑周围的面貌。
187 0
毅力号睁开几双「眼睛」,360度全景展示它的火星新家
|
人工智能 达摩院 自动驾驶
|
机器学习/深度学习 人工智能 编解码
448亿像素,荷兰国宝级名画高清重生!AI两个月扫描拼合,裂缝笔触清晰到令人发指
448亿像素,荷兰国宝级名画高清重生!AI两个月扫描拼合,裂缝笔触清晰到令人发指
220 0