清华天眸芯登Nature封面:全球首款类脑互补视觉芯片

简介: 【6月更文挑战第9天】清华大学电子工程系团队研发的全球首款类脑互补视觉芯片“天眸”登上Nature封面。这款芯片模拟人脑视觉处理机制,集成感知和行动两条通路,实现高效低耗的智能视觉系统。适用于开放世界感知和物联网领域,但面临实际应用挑战、制造成本及良率等问题。[论文链接](https://www.nature.com/articles/s41586-024-07358-4)

近日,清华大学电子工程系黄翊东教授团队的研究成果“A vision chip with complementary pathways for open-world sensing”(一种具有互补通路的视觉芯片,用于开放世界的感知)登上了国际顶级科学期刊《自然》(Nature)的封面。这项研究被誉为全球首款类脑互补视觉芯片,为人工智能和计算机视觉领域带来了重大突破。

该视觉芯片被命名为“天眸”,它的独特之处在于模拟了人脑的视觉处理机制。人脑通过不同的通路来处理视觉信息,包括用于感知物体和场景的腹侧通路,以及用于指导运动的背侧通路。天眸芯片采用了类似的设计理念,集成了两条互补的视觉通路,分别用于感知和行动。

首先,让我们来看看天眸芯片的感知通路。这条通路采用了一种新型的事件相机传感器,能够实时捕捉场景中的动态变化。与传统的帧相机不同,事件相机只对场景中的亮度变化做出响应,而不会受到帧率的限制。这意味着天眸芯片可以以极低的功耗和极高的效率感知场景中的运动和变化。

感知通路的输出被送入一个类脑的神经网络,用于识别和分类场景中的物体和事件。这个神经网络采用了一种稀疏编码的机制,只对与任务相关的信息进行编码和处理。这种设计使得天眸芯片能够在复杂的场景中快速准确地识别目标,而不会受到无关信息的干扰。

其次,天眸芯片的行动通路也非常值得关注。这条通路采用了一种基于强化学习的决策机制,能够根据感知到的信息做出最佳的行动决策。行动通路的输出可以用于控制机器人或其他智能设备,使其能够自主地适应环境并完成任务。

天眸芯片的互补通路设计使得它能够同时具备感知和行动的能力,从而实现真正的智能视觉系统。这种设计理念与传统的计算机视觉方法有很大的不同,后者通常将感知和行动视为两个独立的任务,分别进行处理。

天眸芯片的成功研发对于人工智能和计算机视觉领域具有重要的意义。首先,它为解决开放世界感知问题提供了一种全新的思路。开放世界感知是指智能系统在未知的、不确定的环境中感知和理解的能力。天眸芯片的互补通路设计使得它能够更好地应对开放世界中的不确定性和复杂性。

其次,天眸芯片的低功耗和高效率特性使得它非常适合应用于移动设备和物联网等领域。随着人工智能的普及,对智能视觉系统的需求越来越大,而传统的基于帧相机的方法在功耗和效率方面存在很大的限制。天眸芯片的出现有望解决这一问题,推动智能视觉系统的广泛应用。

然而,我们也应该看到天眸芯片目前还存在一些挑战和局限性。首先,尽管天眸芯片在实验室环境下表现出了出色的性能,但在实际应用中可能还会遇到一些问题和挑战。例如,在复杂的光照条件下或存在遮挡的情况下,天眸芯片的感知能力可能会受到影响。

其次,天眸芯片的制造成本和良率也是需要考虑的问题。作为一款前沿的科研产品,天眸芯片的制造成本可能相对较高,这可能会限制其在商业化应用中的普及。此外,芯片的良率也是影响其商业化应用的重要因素,如果良率过低,会导致生产成本的增加和产品的可靠性问题。

论文链接:https://www.nature.com/articles/s41586-024-07358-4

目录
相关文章
|
30天前
|
机器学习/深度学习 人工智能 计算机视觉
ConsisID:北大联合鹏城实验室等机构推出的文本到视频生成模型
ConsisID是由北京大学和鹏城实验室等机构联合推出的文本到视频生成模型,专注于保持视频中人物身份的一致性。该模型采用频率分解技术和免调优的Diffusion Transformer架构,能够在多个评估维度上超越现有技术,推动身份一致性视频生成技术的发展。
144 73
ConsisID:北大联合鹏城实验室等机构推出的文本到视频生成模型
|
22天前
|
人工智能 算法 测试技术
Insight-V:腾讯联合南洋理工、清华大学推出提升长链视觉推理能力的多模态模型
Insight-V是由南洋理工大学、腾讯公司和清华大学联合推出的多模态模型,旨在提升长链视觉推理能力。通过渐进式数据生成、多智能体系统和两阶段训练流程,Insight-V在多个视觉推理基准测试中表现出色,展现出强大的视觉推理能力。
91 42
Insight-V:腾讯联合南洋理工、清华大学推出提升长链视觉推理能力的多模态模型
|
1月前
|
机器学习/深度学习 人工智能 达摩院
MVGenMaster:复旦联合阿里等实验室推出的多视图扩散模型
MVGenMaster是由复旦大学、阿里巴巴达摩院和湖潘实验室联合推出的多视图扩散模型,专注于新视角合成(NVS)任务。该模型通过整合3D先验信息,显著提升了NVS的泛化和3D一致性,并能从单一图像生成多达100个新视图。此外,研究团队还推出了包含160万场景的大型多视图图像数据集MvD-1M,以支持模型的训练和优化。
86 27
MVGenMaster:复旦联合阿里等实验室推出的多视图扩散模型
|
1月前
|
人工智能 编解码 自动驾驶
MagicDriveDiT:华为联合港中文等机构推出的自动驾驶高分辨率长视频生成方法
MagicDriveDiT是由华为联合港中文等机构推出的一种新型自动驾驶高分辨率长视频生成方法。该方法基于DiT架构,通过流匹配增强模型的可扩展性,并采用渐进式训练策略处理复杂场景。MagicDriveDiT能够生成高分辨率的长视频,提供对视频内容的精确控制,适用于自动驾驶系统的测试与验证、感知模型训练、场景重建与模拟以及数据增强等多个应用场景。
76 17
MagicDriveDiT:华为联合港中文等机构推出的自动驾驶高分辨率长视频生成方法
|
2月前
|
人工智能 编解码
OmniBooth:华为诺亚方舟联合港科大推出的图像生成框架
OmniBooth是由华为诺亚方舟实验室和港科大研究团队联合推出的图像生成框架,支持基于文本提示或图像参考进行空间控制和实例级定制。该框架通过用户定义的掩码和相关联的文本或图像指导,精确控制图像中对象的位置和属性,提升文本到图像合成技术的可控性和实用性。
36 1
OmniBooth:华为诺亚方舟联合港科大推出的图像生成框架
|
2月前
|
安全 机器人 开发者
清华开源全球最大双臂机器人扩散大模型RDT,懂调酒能遛狗,登顶HF具身热榜
清华大学近期发布了全球最大的双臂机器人扩散大模型RDT,该模型在调酒、遛狗等任务上表现优异,登顶Hugging Face具身智能热榜。RDT采用扩散架构,具备强大的学习能力,能生成高质量的机器人动作序列,展示了清华在机器人技术领域的领先水平。尽管面临泛化能力、计算资源及安全性等挑战,RDT的开源特性仍为其广泛应用和发展提供了广阔前景。
78 8
|
5月前
|
机器学习/深度学习 人工智能
清华研究登Nature,首创全前向智能光计算训练架构,戴琼海、方璐领衔
【8月更文挑战第30天】清华大学研究人员在《自然》杂志上发表了一项开创性成果,提出了一种全前向智能光计算训练架构,解决了传统光学AI方法依赖电子计算机模拟和优化的问题,实现了光学系统的自学习和自设计。该架构通过将光学系统映射到参数化神经网络中,消除了反向传播需求,展示了在多个领域的广泛应用前景,如深度光学神经网络和高分辨率散射成像等。这一成果为光学AI的发展开辟了新道路,但实际应用中仍需克服一些挑战。论文详情见:https://www.nature.com/articles/s41586-024-07687-4
57 2
|
传感器 编解码 监控
打造属于机器人的触觉感官,腾讯Robotics X实验室做到了更快、更轻、更准
打造属于机器人的触觉感官,腾讯Robotics X实验室做到了更快、更轻、更准
312 0
|
机器人
首创!哈工大直接用微波驱控多自由度机器人,登上国际顶刊
首创!哈工大直接用微波驱控多自由度机器人,登上国际顶刊
|
机器学习/深度学习 存储 人工智能
AAAI 2020入选:东北/威廉玛丽/清华合作提出最快通用性移动端神经网络加速框架!
PCONV是目前最快的通用性移动端神经网络加速框架,由美国东北大学、威廉玛丽学院和清华大学交叉信息研究院、交叉信息核心技术研究院共同提出。该框架创新性地提出了神经网络稀疏性结构与编译器的协同优化,提出了新的适合编译器与移动端加速的稀疏化结构:模式化剪枝与连通性剪枝,首次在通用移动端达到实时性要求。该结果显著超过现有的移动端通用加速框架。
254 0
AAAI 2020入选:东北/威廉玛丽/清华合作提出最快通用性移动端神经网络加速框架!