Drive.ai公布完全无人驾驶汽车视频,以合适的节奏推进无人驾驶商业化进程

简介:

Drive.ai公布完全无人驾驶汽车视频,以合适的节奏推进无人驾驶商业化进程
5月8日,自动驾驶创业公司Drive.ai宣布今年 7 月份,Drive.ai 的自动驾驶车队将开进德州弗里斯科市。

这是Drive.ai向商业化历程迈进的重要一步。此前雷锋网新智驾亦进行过详细的报道,《专访 Drive.ai 王弢:吴恩达力挺的首个自动驾驶商业化落地项目背后的所有细节》

和很多激进的无人驾驶运营不同,Drive.ai的自动驾驶汽车在德州运营时还配备安全驾驶员,但今天Drive.ai还是非常自信展现了一段完全无人驾驶汽车上路并且未经剪辑的视频。

在这段视频中,Drive.ai既行驶过公路,也经过了很多私人道路。在行驶过程当中,遇到了很多真实的驾驶场景。这段视频还展示了在右下角的增强现实可视化技术,展示了Drive.ai的感知系统 是如何使用传感器数据来准确识别汽车、行人和骑自行车的人等物体———这些行人、行车都有不用的距离和车速。利用这些数据,Drive.ai可以设计出一条安全且舒服的路线(路线在视频中以“红地毯”展示)。

以下为Drive.ai的详细视频


以下为Drive.ai所公布的视频细节解读:

  • 0:37 当汽车开始在公路上行驶,穿过一个6车道的十字路口,Drive.ai 的系统隔着很长的距离都看到公路上正在发生的事情以及能够规划如何行驶;

  • 1: 19 骑行者发现Drive.ai的司机座上没有人,但依旧友好地挥了挥手;

  • 1:53 当汽车驶入环形的路口时,汽车需要从多个角度来考虑交通的路况

此外,整段视频驾驶表现平稳,没有出现急刹等影响乘车体验的事情、也没有出现加塞等现象。

据悉,在接下来的 6 个月,Drive.ai 的车队会被限定在固定区域内运行,而且路线也是固定的。

Drive.ai 透露,车队会成为城市南部产业园办公室员工的通勤利器,可以带着他们穿梭于办公室、附近的体育场和公寓之间。最关键的是,这一切都是免费的。Drive.ai 的董事会成员吴恩达曾表示说:“选择固定的区域和路线且找好合作伙伴让我们能占尽自动驾驶汽车带来的优势,同时避开其弱点。”

Drive.ai 联合创始人王弢对雷锋网新智驾说:“未来Drive.ai会以合适的节奏推进无人驾驶,以保障安全,内部一直在关注中国市场,寻找合适的机会。”


原文发布时间为:2018-05-18

本文作者:Dude

本文来自云栖社区合作伙伴“雷锋网”,了解相关信息可以关注“雷锋网”。

目录
打赏
0
0
0
0
73532
分享
相关文章
斯坦福黑科技让笔记本GPU也能玩转AI视频生成!FramePack:压缩输入帧上下文长度!仅需6GB显存即可生成高清动画
斯坦福大学推出的FramePack技术通过压缩输入帧上下文长度,解决视频生成中的"遗忘"和"漂移"问题,仅需6GB显存即可在普通笔记本上实时生成高清视频。
232 19
斯坦福黑科技让笔记本GPU也能玩转AI视频生成!FramePack:压缩输入帧上下文长度!仅需6GB显存即可生成高清动画
让AI看懂3小时长视频!Eagle 2.5:英伟达推出8B视觉语言模型,长视频理解能力碾压72B大模型
Eagle 2.5是英伟达推出的8B参数视觉语言模型,通过创新训练策略在长视频和高分辨率图像理解任务中超越更大规模模型,支持512帧视频输入和多样化多模态任务。
78 10
让AI看懂3小时长视频!Eagle 2.5:英伟达推出8B视觉语言模型,长视频理解能力碾压72B大模型
AI视频生成也能自动补全!Wan2.1 FLF2V:阿里通义开源14B视频生成模型,用首尾两帧生成过渡动画
万相首尾帧模型是阿里通义开源的14B参数规模视频生成模型,基于DiT架构和高效视频压缩VAE,能够根据首尾帧图像自动生成5秒720p高清视频,支持多种风格变换和细节复刻。
184 8
AI视频生成也能自动补全!Wan2.1 FLF2V:阿里通义开源14B视频生成模型,用首尾两帧生成过渡动画
AI生成视频告别剪辑拼接!MAGI-1:开源自回归视频生成模型,支持一镜到底的长视频生成
MAGI-1是Sand AI开源的全球首个自回归视频生成大模型,采用创新架构实现高分辨率流畅视频生成,支持无限扩展和精细控制,在物理行为预测方面表现突出。
163 1
AI生成视频告别剪辑拼接!MAGI-1:开源自回归视频生成模型,支持一镜到底的长视频生成
多模态模型卷王诞生!InternVL3:上海AI Lab开源78B多模态大模型,支持图文视频全解析!
上海人工智能实验室开源的InternVL3系列多模态大语言模型,通过原生多模态预训练方法实现文本、图像、视频的统一处理,支持从1B到78B共7种参数规模。
152 6
多模态模型卷王诞生!InternVL3:上海AI Lab开源78B多模态大模型,支持图文视频全解析!
让AI看懂图像每个像素!英伟达推出多模态大模型 DAM-3B:图像视频局部描述精度提升300%
英伟达推出的DAM-3B多模态大语言模型,通过创新的焦点提示技术和局部视觉骨干网络,实现了对图像和视频中特定区域的精准描述生成,为内容创作和智能交互领域带来全新可能。
86 0
让AI看懂图像每个像素!英伟达推出多模态大模型 DAM-3B:图像视频局部描述精度提升300%
AI驱动的幼儿跌倒检测——视频安全系统的技术解析
幼儿跌倒检测系统基于AI视频技术,融合人体姿态识别与实时报警功能,为幼儿园安全管理提供智能化解决方案。系统通过YOLOv9、OpenPose等算法实现高精度跌倒检测(准确率达98%),结合LSTM时间序列分析减少误报,支持目标分类区分幼儿与成人,并具备事件存储、实时通知及开源部署优势。其高效、灵活、隐私合规的特点显著提升安全管理效率,助力优化园所运营。
AI驱动的幼儿跌倒检测——视频安全系统的技术解析
VideoMind:Chain-of-LoRA突破时间盲区让AI真正看懂长视频
VideoMind是一种新型视频语言代理,专为解决长视频时间定位理解挑战设计。它通过“Chain-of-LoRA”技术结合四个专业角色(Planner、Grounder、Verifier、Answerer)实现高效推理。Planner分析查询并制定计划;Grounder精确定位视频时刻;Verifier验证候选时刻准确性;Answerer生成最终答案。此架构在14个公共基准上表现出色,尤其在长视频定位任务中超越了现有模型,同时保持高内存效率。VideoMind推动了多模态AI的发展,提供了解决复杂视频理解问题的新方法。
9874 4
开源AI守护后厨——餐饮厨房视频安全系统的技术解析
餐饮厨房视频安全系统是一套融合开源AI技术与视频监控的智能化解决方案,涵盖实时检测、行为监测、数据分析、公众透明化及反馈闭环五大模块。系统通过YOLOv8、ResNet等算法实现后厨卫生与操作规范的精准监控,识别率达97%,问题响应时间缩短至秒级。同时支持后厨直播与监管对接,提升消费者信任和管理效率。其灵活开源的特点,为食品行业安全管理提供了高效、透明的新路径,未来可扩展至食品加工等领域。
ReCamMaster:视频运镜AI革命!单镜头秒变多机位,AI重渲染颠覆创作
ReCamMaster 是由浙江大学与快手科技联合推出的视频重渲染框架,能够根据用户指定的相机轨迹重新生成视频内容,广泛应用于视频创作、后期制作、教育等领域,提升创作自由度和质量。
309 0

雷锋网

+ 订阅
下一篇
oss创建bucket
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等