理想自研认知大模型、无图城市NOA信息曝光,纯电MEGA定价50万以上

简介: 理想自研认知大模型、无图城市NOA信息曝光,纯电MEGA定价50万以上


作者 /  于雷「利用电池的最大5C充电倍率,做到了充电9分30秒,续航400公里。」理想汽车动力驱动负责人刘强在昨晚(6月17日)的理想汽车家庭科技日上,称理想汽车有望借此实现对燃油车的大规模替代。

而实现这种替代的第一枪,正是准备在今年年底发布的首款纯电车型W01。昨晚,理想汽车商业副总裁刘杰透露了关于其命名在内的更多信息:「理想MEGA将在今年年底发布...我们有信心,它将成为50万以上所有乘用车的销量第一,不分能源形式、不分车身形式,打破高端纯电动车无法成为爆品的传统认知。」

当然,作为理想汽车的两个核心竞争力——智能座舱与智能驾驶,也在昨晚公布了更多进展。

其中,理想同学加入了理想汽车自研的认知大模型Mind GPT,从此前主要依靠固定指令的对话,进化成有逻辑推理能力的拟人伙伴;智能驾驶则通过NPN特征和TIN网络增强BEV大模型,具备了无图城市NOA能力,同时将在下半年上线通勤NOA满足更多城市用户需求。

理想同学+Mind GPT

「软件2.0时代,理想同学将成为未来交互的主入口,从一个头像变成一个AI虚拟生命,拥有像人类一样强的多模态感知、多模态交互能力。」理想汽车智能空间算法科学家陈伟表示。

理想汽车自研的认知大模型Mind GPT,就是让理想同学变聪明的关键。到目前为止,理想汽车已用1.3万亿个token为其进行基座模型训练,让其对话生成、语言理解、知识问答、逻辑推理等在内的各项能力变得更安全,更准确,也更有逻辑。

为了进一步提高Mind GPT的能力,理想汽车还基于知识增强的建模技术和理想知识图谱LiKG 1.0,让Mind GPT拥有了更高的知识准确性。其次,Mind GPT能够作为大模型控制器调用外部工具,持续拓宽大模型的能力覆盖。同时,Mind GPT自带记忆网络,用户可以选择让理想同学基于历史对话记住个性化偏好和习惯,理解用户近期状态。

这样下来,理想同学就有能力主动感知环境,并通过学习、认知、推理和记忆的能力,做到像人一样思考。在此基础上,理想汽车也给智能座舱带来了更大的想象空间。比如,让理想同学变成多重身份的拟人助手,可根据输入的需求自动生成故事、讲解儿童百科、帮助用户制定出行规划、做复杂的任务理解等等。

另外,理想汽车还通过模态感知能力、视听融合的多模态轻松交互能力,打开了更多使用场景。比如,升级后的融合指代功能让理想同学更加熟悉车内环境,可以看懂更多的指代方向、更多指代的人和物,支持更加多样化或简易的指令、更多交互功能;通过识别电影海报的内容,即使不识字的孩子,也可以用「看有红头发那个」类似的海报图像描述,播放出想看的内容。

城市NOA摆脱高精地图依赖

在活动上,理想汽车也公布了城市NOA的最新进展:本月开启北京和上海的城市NOA内测,早鸟用户可以率先使用城市NOA功能;下半年,城市NOA的开放区域将逐步增加。

摆脱高精地图依赖,可以让城市NOA可以快速普及到更多城市,但对车端感知能力的要求也提高了许多倍。理想汽车采用的方法是:利用NPN(NPN,神经先验网络)特征和TIN(TIN,信号灯意图模型)网络,增强BEV大模型。

前者通过云端大模型对复杂的路口特征进行提取,在车辆经过路口时与车端的实时BEV特征融合,增强车端的实时感知。随着NPN特征在云端大模型持续自动化生成,城市NOA的可用范围也将不断扩展。

后者在大量学习人类司机在真实路口应对信号灯变化的行为之后,可通过对路口遇到的各个信号灯进行打分,应对全国各地各类形态的信号灯样式,摆脱了对地图规则的依赖。

在现场,理想汽车还给到了一张关于城市NPN覆盖的研发平台截图,里面可以查看现在NPN的覆盖情况。绿色代表已经通过测试验证,是可用状态;红色代表有NPN特征但有待验证;灰色代表没有NPN特征。

绿色路口数量越多的城市,代表有能力越早开放城市NOA。在早早鸟和测试车高频出现的北京和上海,已经有不少绿色可用的NPN路口,也因此选择了这两个城市准备开放内测。

此外,理想AD Max 3.0还在规控算法上继续使用大模型,通过模仿学习的方法让城市NOA参考大量人类驾驶员的行为决策,让城市NOA在保证安全、符合交规的前提下实现更像人类驾驶员的决策和规划。

无城市NOA地区,还有通勤NOA

下半年,理想汽车还将开放通勤NOA功能。这是不同于有图或无图城市NOA,用户通过通勤NOA,只需要自我训练固定路线,让车辆学会自这条路上的NPN特征,就能在该路线上使用智能驾驶的一种灵活方案。

有了通勤NOA,就不用等着整个城市NPN特征训练好,才能开放使用了,可有效增强MAX版本在未开放城市的市场接纳度。

按照理想汽车的说法,设定好自己的通勤路线后,只要天天开这条路,相对简单的路线,基本1周以内就可以完成激活。较为复杂的路线,预计2-3周也足以完成训练。

高压纯电平台实现5C超充

理想汽车认为,高倍率快充、自建超充站,是消除电动车长途补能焦虑的两大前提。因此,其在自研的800V高压纯电平台上,采用了5C充电倍率电芯和更强的电池热管理系统,实现了峰值500kW以上的充电功率。

按照官方给出的数据:通过5C电池技术在电芯大倍率充电能力、电池系统低产热能力和高换热能力上的突破,结合车辆的在途热管理功能,理想5C车型在-10°C至40°C的宽温域区间,均可实现充电10分钟以内增加400公里续航。

此外,理想汽车今年还将重点在高速沿途建设品牌超充站,以避免出现长途出行找桩难的问题。

根据规划,今年年底,理想超级充电站的数量将超过300个。到2025年,高速沿途理想超级充电站的平均间隔将小于100公里,每个站每小时可以服务9-20台车,预计充电费用不到加油的一半。

此外,到2024年底,理想汽车还将将在城市核心环线,陆续建成超过300个城市枢纽站,完成以6公里为间隔的双向覆盖,满足城市环线及高速和城市连接路段的补能需求。

为了扩充更多使用场景,理想汽车还设计了自动充电机器人。在车机端,系统可结合车辆剩余续航和沿途场站充电数据,自动规划行程,导航前往合适的场站进行超充。充电时,车辆会自动行驶到充电车位、自动泊入。充电机器人则将通过视觉识别,自动插枪充电,完成后也将自动结算、自动驶出,全程无需下车。

根据规划,理想MEGA(W01)将成为首款实现5C超充的车型,将在今年年底正式发布,定价会在50万元以上。

此后,理想汽车还会推出5款定位低于MEGA的纯电产品,造型灵感不同于该车型来自于鲸鱼,而是参考了鲨鱼。

相关文章
|
人工智能 自然语言处理 大数据
“后土”启动!自然资源部信息中心与阿里云联合研发大模型
“后土”启动!自然资源部信息中心与阿里云联合研发大模型
1354 0
|
6月前
|
人工智能 安全 Cloud Native
龙蜥社区衍生版浪潮信息 KOS 升级!支持最新 5.10 内核,让大模型“开箱即用”
社区衍生版KeyarchOS产品升级,实现了大模型应用的“开箱即用”。
|
9天前
|
存储 数据采集 自然语言处理
使用大模型时,该如何避免虚假信息的生成和使用?
使用大模型时,该如何避免虚假信息的生成和使用?
24 1
|
29天前
|
人工智能 前端开发 JavaScript
拿下奇怪的前端报错(一):报错信息是一个看不懂的数字数组Buffer(475) [Uint8Array],让AI大模型帮忙解析
本文介绍了前端开发中遇到的奇怪报错问题,特别是当错误信息不明确时的处理方法。作者分享了自己通过还原代码、试错等方式解决问题的经验,并以一个Vue3+TypeScript项目的构建失败为例,详细解析了如何从错误信息中定位问题,最终通过解读错误信息中的ASCII码找到了具体的错误文件。文章强调了基础知识的重要性,并鼓励读者遇到类似问题时不要慌张,耐心分析。
|
2月前
|
机器学习/深度学习 人工智能 数据安全/隐私保护
大发现!谷歌证明反学习,无法让大模型删除不良信息
【9月更文挑战第19天】最近,Ilia Shumailov等人发表的论文《UnUnlearning:反学习在大语言模型中的内容监管不足》在人工智能领域引发了热议。该论文探讨了反学习在大型语言模型中的应用,指出反学习虽能有效控制训练阶段的数据撤回,但在推理阶段仍可能执行非法行为,引入了“反反学习”的概念。这一发现对内容监管产生重要影响,但也引发了关于反学习有效性的争议。详细内容与讨论可见论文原文:https://arxiv.org/abs/2407.00106
37 1
|
6月前
|
自然语言处理 安全 算法
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
150 0
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
|
机器学习/深度学习 人工智能 自然语言处理
浪潮信息分享:新型算法基础设施大模型的知识蒸馏技术介绍 | 第 60 期
今天(周三)了解大模型发展现状和大模型基础知识,交流大模型在产业应用中起到的作用和 AI 服务新态势。
浪潮信息分享:新型算法基础设施大模型的知识蒸馏技术介绍 | 第 60 期
|
30天前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
127 2
|
14天前
|
人工智能 JSON API
阿里云文档智能 & RAG解决方案:提升AI大模型业务理解与应用
阿里云推出的文档智能 & RAG解决方案,旨在通过先进的文档解析技术和检索增强生成(RAG)方法,显著提升人工智能大模型在业务场景中的应用效果。该方案通过文档智能(Document Mind)技术将非结构化文档内容转换为结构化数据,提取文档的层级树、样式和版面信息,并输出为Markdown和Json格式,为RAG提供语义分块策略。这一过程不仅解决了文档内容解析错误和切块丢失语义信息的问题,还优化了输出LLM友好的Markdown信息。方案的优势在于其多格式支持能力,能够处理包括Office文档、PDF、Html、图片在内的主流文件类型,返回文档的样式、版面信息和层级树结构。
71 2
|
24天前
|
机器学习/深度学习 人工智能 运维
企业内训|LLM大模型在服务器和IT网络运维中的应用-某日企IT运维部门
本课程是为某在华日资企业集团的IT运维部门专门定制开发的企业培训课程,本课程旨在深入探讨大型语言模型(LLM)在服务器及IT网络运维中的应用,结合当前技术趋势与行业需求,帮助学员掌握LLM如何为运维工作赋能。通过系统的理论讲解与实践操作,学员将了解LLM的基本知识、模型架构及其在实际运维场景中的应用,如日志分析、故障诊断、网络安全与性能优化等。
54 2