清华大学尹首一:AI芯片计算架构创新是实现AIoT的必然途径 | AIoT+智慧城市峰会

简介: 清华大学微纳电子系副主任、微电子学研究所副所长尹首一教授分享了他对AI算法如何在物联网设备上实现AI功能的看法以及超高能效AI芯片的最新进展。

12月20日,雷锋网主办的AIoT+智慧城市峰会在深圳举行,峰会上清华大学微纳电子系副主任、微电子学研究所副所长尹首一教授分享了他对AI算法如何在物联网设备上实现AI功能的看法以及超高能效AI芯片的最新进展。尹教授认为,未来计算架构的创新将是实现无处不在的AIoT的必然途径。

IoT AI芯片需要解决的核心问题

今天讲到的AI,其核心技术是深度学习,深度学习背后核心技术基础是神经网络。如今已被我们广泛的AI应用,如语音助手、以图搜图,其核心计算大部分都在云上完成。随着物联网场景的拓展,在很多场景中考虑到通讯延时、设备供电以及个人隐私的问题,需要在IoT终端以及传感器上实现AI计算。

TB1whdKx7zoK1RjSZFlXXai4VXa.jpg

清华大学微纳电子系副主任、微电子学研究所副所长尹首一教授

国际产业巨头,如谷歌、ARM等,均一致认为,未来的AI计算一定是分布式、分层次、分等级的综合系统,这将催生巨大的深度学习芯片市场。据美国Tractica咨询公司的统计和预测,2016到2025年这十年间深度学习芯片市场将飞速增长,到2025年市场规模将达到近700亿美金,其中会有近400亿美金的芯片应用在各种移动设备、机器人、无人机、消费电子、可穿戴设备等IoT领域。

TB1VddHxVzqK1RjSZFCXXbbxVXa.png

不过,尹教授指出,要满足IoT设备对AI的需求,需要解决的最核心的问题就是AI算力需求和IoT场景供电能力之间的巨大反差。

尹教授进一步表示,许多IoT的应用对芯片功耗有非常严格的约束,比如我们每天使用的智能手机,用户希望随时随地能够语音唤醒手机、通过语言做自然交互,这就需要手机在具备智能语音识别能力的同时还不影响手机续航。这样的AI计算所能容忍的功耗上限大概是1-2毫瓦,否则手机待机时间就会受到影响。此外,在智能家电、智能眼镜、无人机等场景下,AI计算也面临非常严苛的功耗约束。这就是实现未来AI+IoT愿景所必须解决的问题,如何在这些苛刻的功耗约束下实现超高能效的AI计算。

AIoT的AI芯片必须满足的3个条件

尹教授指出,从应用以及用户体验的角度出发,要实现满足AIoT需求的AI芯片必须满足三个条件:

第一,  可编程性,只有具备可编程性才能满足不同IoT场景下的不同AI算法的需求;

第二,  对计算密集型和访存密集型算法都非常友好,因为今天的AI算法就具备这样的特点;

第三,超高能效,某些场景下我们希望芯片能耗是毫瓦量级,有些场景甚至需要微瓦量级才能满足长时间的IoT计算需求。

超高能效AI计算芯片的进展

目前从AIoT芯片发展来看,大家正在从两个不同的维度(算法和架构)努力实现超高能效的AI计算。算法层面努力的方向是让深度神经网络模型更加紧凑。尹教授介绍,2016年开始看到学术界有很大的进展,目前已经能够把神经网络的权重位宽压缩到1bit,使网络模型实现十倍甚至几十倍的缩小。

TB1yphQx4YaK1RjSZFnXXa80pXa.png

更值得注意的是,从统计看,在极低位网络中,即便把网络压缩到1-2bit,精度仍然接近于全精度神经网络。最新成果显示,用压缩后的神经网络做检测和识别时与全精度神经网络误差只有1个百分点左右,这个差距在绝大部分的应用场景已经可以忽略不计。

除了算法层面,许多科学家在探索如何从计算架构的角度实现更高能效的AI计算,从2014年开始到今天,学术界和工业界提出了很多AI计算架构方案。但是在未来IoT场景里,目前提出的计算架构仍然难以平衡可编程性、超低功耗和特殊网络模型的需求。

从2015年开始,一种新型计算架构,Coarse-grained Reconfigurable Architecture(CGRA),获得国际学术界和工业界的广泛关注。 2015年《国际半导体技术路线图》(ITRS报告)将其视为未来大有希望的可编程计算架构。2017年美国国防部高级研究计划局(DARPA),为了保证美国未来仍然能保持国际电子信息领域的领先地位,发起了“电子复兴计划”,该计划大力布局一项被称为“软件定义硬件”的研究计划。这项计划所研究的是“运行时快速重构”的硬件架构,也就是前面提到的CGRA架构。

就在前几天宣布“开源MIPS指令集”的Wave Computing公司,雷锋网(公众号:雷锋网)在《Wave Computing将于明年提供免费MIPS架构,MIPS能在AI时代崛起吗?》一文中也进行了介绍,其AI芯片的技术来源就是CGRA。CGRA之所以受到广泛关注,正是因为可重构架构能够实现比CPU、GPU、FPGA更高的能量效率,同时还具有良好的可编程性,可以很好满足AIoT的需求。

可重构芯片的实现

尹教授介绍,清华大学可重构计算团队最早从2006年开始关注可重构架构。过去十多年时间在可重构架构的基础理论上做了很多探索性的工作。2015年开始,将可重构架构应用在AI计算、神经网络计算场景,并设计了Thinker系列AI芯片。

具体而言,Thinker系列AI芯片区别于传统处理器使用指令级可编程性的技术路线,在核心运算部件、基本处理单元和处理单元阵列等三个层次上实现了硬件可重构能力。比如在基本的乘法累加部件里实现不同位宽的自适应,很好地支持超低位宽的神经网络;在基本处理单元层面实现电路级重构,支持神经网络中的不同算子;在处理单元阵列实现架构级重构,支持不同类型的神经网络。

从2006年开始尹教授的团队已经设计了三款Thinker芯片,其最高能效可达每瓦十万亿次运算,最低功耗可达微瓦量级,可以嵌入到任何一个需要AI计算但电池有限的IoT设备中。

TB18U45x4naK1RjSZFtXXbC2VXa.png

回顾过去30年间处理器的发展历程,处理器的性能提升得益于半导体工艺进步和计算架构创新的双轮驱动。但随着摩尔定律放缓,半导体工艺的提升越来越有限。尹教授表示,去年图灵奖获得者是两位计算机体系结构的大师John Hennessy和David Patterson,他们在图灵奖的获奖感言里提到,今天是计算机体系结构的新的黄金时代。这句话很好地诠释了未来我们的技术创新和产业发展应该落脚在哪里。

AIoT+智慧城市峰会演讲视频全集稍后将在雷锋网会员【AI投研邦】里推出,并及时通知大家。大家可扫描二维码关注【AI投研邦】。

TB1CZFFxW6qK1RjSZFmXXX0PFXa.png
目录
相关文章
|
2月前
|
存储 人工智能 缓存
AI 提示词模板相关的架构设计
现在很多企业纷纷研发大语言模型以解决业务问题。提示词在与模型交互中起到关键作用。为优化提示词模板的修改、提高渲染效率及确保安全性,架构设计注重可修改性、安全性、可靠性和性能。设计包括:将提示词存储在OSS以方便修改和版本控制;使用本地缓存提升读取性能;模板引擎增强灵活性;秘钥安全存储在加密系统中;并通过配置中心动态调整。此设计旨在提供高效、安全且可靠的AI交互体验等。
632 78
AI 提示词模板相关的架构设计
|
14天前
|
人工智能 Cloud Native Java
从云原生视角看 AI 原生应用架构的实践
本文核心观点: • 基于大模型的 AI 原生应用将越来越多,容器和微服务为代表的云原生技术将加速渗透传统业务。 • API 是 AI 原生应用的一等公民,并引入了更多流量,催生企业新的生命力和想象空间。 • AI 原生应用对网关的需求超越了传统的路由和负载均衡功能,承载了更大的 AI 工程化使命。 • AI Infra 的一致性架构至关重要,API 网关、消息队列、可观测是 AI Infra 的重要组成。
50425 10
|
5天前
|
存储 关系型数据库 分布式数据库
PolarDB,阿里云的云原生分布式数据库,以其存储计算分离架构为核心,解决传统数据库的扩展性问题
【7月更文挑战第3天】PolarDB,阿里云的云原生分布式数据库,以其存储计算分离架构为核心,解决传统数据库的扩展性问题。此架构让存储层专注数据可靠性,计算层专注处理SQL,提升性能并降低运维复杂度。通过RDMA加速通信,多副本确保高可用性。资源可独立扩展,便于成本控制。动态添加计算节点以应对流量高峰,展示了其灵活性。PolarDB的开源促进了数据库技术的持续创新和发展。
22 2
|
7天前
|
运维 Cloud Native 云计算
云原生架构的演进:从微服务到无服务器计算
【6月更文挑战第30天】 在数字化转型和技术创新的浪潮中,云原生技术以其灵活性、可扩展性和成本效益成为企业IT战略的核心。本文将探索云原生架构的关键概念,从早期的微服务架构到现代的无服务器计算模型,揭示这一演变如何推动企业更高效地开发、部署和管理应用程序。我们将深入讨论这些技术背后的原理,以及它们如何帮助企业实现敏捷性、弹性和自动化运维。
|
10天前
|
分布式计算 负载均衡 算法
操作系统的未来:量子计算与分布式架构的融合
本文深入探讨了操作系统领域即将到来的变革,特别是量子计算和分布式架构如何重塑我们对操作系统的认知和使用。文章首先概述了当前操作系统的局限性,并引入量子计算的概念及其对操作系统设计的潜在影响。随后,详细讨论了分布式架构在提升系统性能、可靠性和安全性方面的优势。通过分析现有研究和未来趋势,本文揭示了量子计算与分布式架构结合的可能性及其对操作系统未来发展的意义,为读者提供了一个全新的视角来审视这一领域的进步。
|
2天前
|
人工智能 监控 前端开发
前端架构(含演进历程、设计内容、AI辅助设计、架构演进历程)
前端架构(含演进历程、设计内容、AI辅助设计、架构演进历程)
6 0
|
5天前
|
人工智能 搜索推荐 计算机视觉
[AI Perplexica] 深入解析,AI 架构揭秘
了解 Perplexica 的核心架构,探索其用户界面、代理链、大型语言模型、嵌入模型等关键组件的运作方式,揭秘 AI 如何高效处理复杂查询任务。
|
29天前
|
人工智能 运维 监控
智能化运维:AI在IT基础架构管理中的应用
【6月更文挑战第8天】本文将探讨人工智能(AI)如何革新传统的IT运维领域,实现智能化的故障预测、自动化的修复流程以及高效的资源分配。我们将通过实例分析AI技术如何优化数据中心的能源使用,提升网络性能监控的准确性,并降低系统维护成本。
49 2
|
8天前
|
Cloud Native 安全 开发者
云原生架构的演进与实践:从微服务到无服务器计算
本文深入探讨了云原生技术的最新进展,特别关注微服务和无服务器计算模型。通过分析相关研究数据和行业案例,文章揭示了云原生架构如何推动现代应用开发,提升运维效率,并实现资源的最优化配置。文中详细讨论了云原生生态系统中的关键组成部分,包括容器化、自动化管理工具和服务网格,以及它们如何共同促进敏捷性和可扩展性。此外,文章还分析了云原生安全策略的重要性,以及如何在保障安全的同时,保持系统的灵活性和高效性。
|
1月前
|
人工智能 容器 运维
活动回顾丨AI 原生应用架构专场·北京站 PPT 下载
5 月 24 日,飞天技术沙龙首个 AI 原生应用架构专场在北京举办。

热门文章

最新文章