由 AI 芯片到目标检测板,「西安交大」是如何斩获 DAC FPGA 赛道亚军?

简介: 恭喜「西安交通大学人工智能与机器人研究所团队 XJTU-Tripler」

雷锋网(公众号:雷锋网) AI 科技评论按:2019 年 6 月 5 日,由电子自动化设计顶级会议 DAC 2019 主办的「低功耗目标检测系统设计挑战赛」于美国拉斯维加斯落下帷幕。西安交通大学人工智能与机器人研究所团队 XJTU-Tripler 凭借对算法和架构的特殊优化,最终取得准确率 IoU61.5%;能耗 9537J,帧率 50.91Hz,功率 9.248W 的优秀成绩,斩获 FPGA 赛道的亚军,同时他们也作为国内唯一一个进入前三的队伍。目前,他们已计划开源比赛相关工具,并且提供后续支持。雷锋网 AI 科技评论将他们所提供的设计方案及解析整理如下。

TB1ufkVbfBj_uVjSZFpXXc0SXXa.png

比赛背景

DAC,英文全称 ACM/IEEE Design Automation Conference,是电子设计自动化和嵌入式系统领域的顶级会议。系统设计大赛(System Design Contest)由 DAC 主办,旨在为全球机器学习系统设计者提供技术交流平台,挖掘领域内优秀方案和人才。

赛制规定以 FPGA 和 GPU 两种硬件架构划分,分别进行竞赛。针对 FPGA 赛道,本届大赛由 Xilinx、大疆和英伟达赞助,针对比赛方给定无人机视角的训练数据集 (9 万张分辨率为 360x640 的图片,单目标标注)进行训练,在比赛方自有的 5 万张测试数据集上进行测试。最终检测精度 IoU(Intersection over Union))高、且能量消耗低者胜出。

任务部署

西安交通大学人工智能与机器人研究所任鹏举副教授所在的认知计算架构团队 XJTU-Tripler 在本次大赛中,硬件方面使用的是专为低功耗 IoT 环境而设计的 Ultra96——Xilinx ZYNQ 的开发板,其 PS 侧搭载四核 ARM Cortex-A53 CPU,主频为 1.5GHz;由比赛方所提供。软件方面则用到了基于 Python 的 PYNQ 框架进行开发。其中由团队成员:赵博然、赵文哲、夏天、陈飞、樊珑、宗鹏陈负责硬件开发;魏亚东、涂志俊、赵之旭、董志伟负责算法优化。

为了达到检测精度与能耗的平衡,XJTU-Triper 团队选择并优化了面向端侧的轻量级神经网络框架;并针对 ZU3 的资源限制,精简了团队之前设计的一个可以支持通用网络的 DNN 加速器 (HiPU),将其部署在 ZU3 的 PL 侧。因此,XJTU-Triper 团队的主要工作分为针对硬件平台的算法优化和架构设计优化:

算法优化

选择 ShuffleNet V2 作为特征提取的主框架;

选择 YOLO 作为单目标位置的回归框架;

对神经网络进行 8bit 量化。

HiPU 优化

支持 CONV,FC,Dep-wise CONV,Pooling,Ele-wise Add/Mul 等操作,峰值算力为 268Gops,效率大于 80%;

支持 Channel shuffle、divide、concat 操作,且不消耗额外时间;

提供 C、RISC-V 汇编接口的 API,调度灵活;

HiPU 完全由 PL 侧实现,不依赖 PS 侧。PS 主要工作负载为图片预处理和结果输出上。

相关技术详解

单目标检测网络选择

为满足移动端的检测实时性,XJTU-Triper 团队最终选定了 YOLO 作为基础检测框架,自行定制的网络 ShuffleDet。并将其中的特征提取网络替换为轻量级的 ShuffleNet V2,其参数规模略大于 1X。如下图所示为定制的单目标检测网络。 

TB1NgnHd4iH3KVjSZPfXXXBiVXa.png

ShuffleDet 的网络结构示意图

神经网络的训练与量化

XJTU-Tripler 团队首先在 ImageNet 数据集上预训练一个标准的 ShuffleNet V2 分类网络。待模型收敛后,将其中前三层特征提取部分的参数重载回 ShuffleDet 网络中。使用比赛方的训练集进行全部层参数的训练。

为了适应 FPGA 的定点运算,待所有参数训练完成后,对所有参数进行量化操作。该团队将网络参数和 feature map 均量化为 8bit 定点。量化过程主要分为以下几步:1) 将 BN 层合并到参数中;2) 将合并后的参数进行对称量化;3) 离线量化完成后需对参数进行 fine tune。下图为量化操作的示意图。

TB13LYHd3aH3KVjSZFjXXcFWpXa.png

网络参数的量化流程

经过量化后,最终目标检测网络 ShuffleDet 的卷积层数约为 74 层,权重约为 1.94MB,Bias 约为 78KB。量化前的全精度准确率为 67.1%,量化后的精度为 61.5%,量化操作带来的精度损失为 5.6%。

关于 HiPU

1) 整体概况

由于西安交通大人工智能与机器人研究所团队主要面向专用集成电路(AISC)进行设计,其 FPGA 上的设计实现主要是进行功能的验证,因此,针对赛方提供的计算平台,我们需要对 HiPU 进行适当的裁剪,以适应 ZU3 的资源。如下图所示为裁剪后的 HiPU 设计框图,及其特性。HiPU 工作在 233MHz,其峰值算力为 268Gops;采用 C/RISC-V 汇编作为编程接口,卷积效率平均在 80% 以上。

TB13QzId8WD3KVjSZFsXXcqkpXa.jpg

HiPU 的结构框图与特性

HiPU 支持各种常见的 NN 运算,包括:CONV,FC,Dep-wise CONV,Pooling,Ele-wise Add/Mul 等运算。其中 FC 也可以做到接近 100% 的计算效率。

HiPU 支持 channel 方向的 shuffle,divide,concat 操作。当这些操作紧接在卷积运算之后时,可以在硬件上进行合并,不消耗额外的时间。

HiPU 可以工作在任何种类的 Xilinx FPGA 上,不受 Zynq 架构的限制。

HiPU 底层实现矩阵运算,向量运算,以及标量运算。在做好调度的情况下,可以支持任意类型的并行计算。未来将实现稀疏矩阵运算的优化,从而支持高效率的 DeCONV 运算,feature map 稀疏优化。

2) HiPU 优化点分析——通过层间级联减少所需的 DDR 带宽

HiPU 设计性能有两个重要的方面:一个方面是 MAC 运算单元的利用率;一个是数据传输网络是否可以匹配 MAC 所需的数据。其中数据传输网络的限制大多数来自 DDR 接口。本设计针对 DDR 接口进行专门的优化。

由于 HiPU 中 SRAM 的大小限制,无法将一层 feature map 的数据完全放在 HiPU 的 SRAM 中。采用平常的计算次序则需要将每一层的 feature map 计算结果返回到 DDR 中存储。这样一来每一层的 feature map 数据都需要一次 DDR 的访问,对 DDR 的带宽需求非常大,也会消耗额外的功耗

该团队通过层间级联的方式降低 DDR 的带宽需求。以 ShuffleNet 的 bottleneck 为分界,从每个 bottleneck 的输入处从 DDR 读取一行 feature map,依次计算完所有的层后,输出的一行 feature map 才写回到 DDR。依次计算完所有行。如下图所示为 Module C 的层间级联计算次序。

 

TB1_VvId.WF3KVjSZPhXXXclXXa.jpg

Module-C 采用层间级联计算方式

3) HiPU 优化点分析——输入图像格式转换以提升处理效率

HiPU 一次并行计算 8 个输入 channel。然而网络第一层输入图像仅有 RGB 这 3 个通道,导致 HiPU 计算效率仅为 3/8。因此,我们团队针对输入图像设计了一个转换模块。如果 Conv1 的 kernel 的 width 为 3,则将输入图像的通道从 3 扩展到 9。最终使得第一层的处理效率从 0.38 提升到了 0.56,其转换示意图如下图所示。 

TB17.HHd.GF3KVjSZFoXXbmpFXa.jpg

输入图像在行方向上的转换

系统优化设计与分析

1) 图像解码与卷积神经网络计算并行化

由于 HiPU 仅仅依赖 Zynq 的 PL 侧的资源进行设计,PS 侧的资源可以空出来做系统 IO 相关的工作。我们团队在处理当前图片的检测运算时,在 PS 侧预读并解码下一幅图片,提高处理的并行度,从而使整体检测帧率从 30.3Hz 提高到 50.9Hz。

如下图所示为图像解码与卷积神经网络并行化的示意图。

 

TB18_THd2WG3KVjSZPcXXbkbXXa.jpg

(a) 并行化之前的工作流程

 

TB1f6YOd8Cw3KVjSZFlXXcJkFXa.jpg

(b) 并行化之后的工作流程

图像解码与卷积神经网络并行化的示意图

2) 使用 C 代码加速 PS 侧原来的 Python 代码

使用 C 代码重构 PS 侧比较耗时的操作,并在 Pynq 框架中采用 ctypes 接口调用重构的 C 代码: 1) 预先计算 PL 侧数据中置信度和 bbox 坐标的地址指针;2) 找到最大的置信度和对应的 BBox 的坐标,然后根据相对坐标计算出绝对坐标;

3) 使用门控时钟降低 PL 侧的能耗

为了降低系统的能量消耗,设计了门控时钟策略。当 HiPU 计算完一张图片的时候自动关闭时钟,下一张图片开始计算的时候再激活时钟。设置这个策略主要基于以下两个原因:

首先,系统对 jpg 格式图片解算的时间不固定,当 SD 卡型号不固定的时候,其均值在 7ms-12ms 之间,部分图片解算时间最大值可以到达 100ms;

其次,系统的功耗测量进程和其他额外开销会占用一部分的 cpu 时间,并且 PS 和 PL 共享 DDR 带宽,这导致了 HiPU 在 166Mhz 的时帧率到达约 50hz,但是升高 HiPU 到 200Mhz 时,系统处理帧率仍然保持在 50hz 左右。

上述两个原因会导致 HiPU 处理时间和图片 jpeg 解算时间匹配变得不固定;当 HiPU 处理图像时间比图像解算时间短时,HiPU 会「空跑」浪费能量。另外,针对抢占 DDR 带宽的情况,还需继续优化。

结果

全球共有 58 支队伍注册了 FPGA 比赛任务,有 11 支队伍提交了设计(完赛率 19%)。冠军为 iSmart3,由 UIUC、IBM、Inspirit IoT 公司联合组队;亚军为 XJTU-Tripler,由西安交通大学人工智能与机器人研究所设计;季军为 SystemsETHZ,来自 ETH Zurich 的队伍。

其中,XJTU-Tripler 团队是唯一使用 Verilog,而不是 HLS 进行设计的获奖队伍。由于其设计的高性能 DNN 加速器,其使用的神经网络规模也是最大的。最终竞赛成绩如下:

TB1cpzId2WG3KVjSZFPXXXaiXXa.png

DAC19 系统设计竞赛排名

TB1ELAVbfBj_uVjSZFpXXc0SXXa.png

资源情况比较

同样的 ShuffleDet 算法在 TX2 平台上也进行了部署,下表是两者的分析对比。可以看出 8bits 量化后造成了 5.6% 的 IoU 绝对损失(-8.3%),但带来了 28.87 的帧率提升(+131%)和 8309J 的能耗减少(-46.56%)。

TB1nVrKd.GF3KVjSZFvXXb_nXXa.png

ShuffleDet 在 TX2 和 Ultra96 FPGA 平台上的性能比较

更多关于 DAC 2019

https://www.dac.com/content/2019-system-design-contest

雷锋网 AI 科技评论

目录
相关文章
|
6月前
|
人工智能 芯片 异构计算
英伟达要小心了!爆火的Groq芯片能翻盘吗?AI推理速度「吊打」英伟达?
随着科技的飞速发展,人工智能公司Groq挑战了英伟达的王者地位,其AI芯片不仅展现出卓越的实力,还拥有巨大的潜力。Groq设计了一种独特的推理代币经济学模式,该模式背后牵动着众多因素,却也引发了深度思考:新的技术突破来自何处?中国该如何应对并抓住变革中的机遇?Groq成本如何评估?这些都是值得研究和思考的问题。
|
28天前
|
人工智能 安全 芯片
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
本文由【通义】自动生成,涵盖黄仁勋宣布台积电协助修复Blackwell AI芯片设计缺陷、苹果分阶段推出Apple Intelligence、OpenAI保守派老将辞职、英伟达深化与印度合作推出印地语AI模型,以及谷歌Tensor G5芯片支持光线追踪等最新科技资讯。点击链接或扫描二维码,获取更多精彩内容。
|
23天前
|
人工智能 机器人 云计算
【通义】AI视界|OpenAI据称已计划联手博通和台积电共同打造自研芯片
本文由【通义】自动生成,涵盖苹果iOS 18.2将集成ChatGPT、OpenAI联手博通和台积电自研芯片、微软指责谷歌发起影子运动、英伟达高管预测AI将呈现人类形态、OpenAI董事会主席的初创公司估值达45亿美元等热点资讯。更多精彩内容,请访问通通知道。
|
24天前
|
数据采集 人工智能 搜索推荐
【通义】AI视界|迎接Apple Intelligence,Mac家族进入M4芯片时代
本文概览了近期科技领域的五大热点:苹果宣布Apple Intelligence将于2025年4月支持中文;新款Mac将搭载M4芯片;ChatGPT周活跃用户达2.5亿,主要收入来自订阅;Meta开发AI搜索引擎减少对外部依赖;周鸿祎支持AI发展但反对构建超级智能。更多详情,访问通义平台。
|
2月前
|
人工智能 安全 算法
5年数据观巨变,这家公司如何在AI和大模型数据赛道遥遥领先?
5年数据观巨变,这家公司如何在AI和大模型数据赛道遥遥领先?
111 12
|
2月前
|
机器学习/深度学习 人工智能 自动驾驶
【通义】AI视界|马斯克:特斯拉计划2025年末批量装备AI训练芯片Dojo2
本文精选了24小时内的重要AI新闻,包括特斯拉计划2025年批量装备Dojo 2芯片、英伟达股价大涨、谷歌联合创始人积极参与AI项目、中科院女工程师开源AI模型保护女性,以及快手旗下可灵AI与蓝色光标达成战略合作。更多内容敬请访问通义官网体验。
|
2月前
|
人工智能 并行计算 PyTorch
AI计算机视觉笔记十八:Swin Transformer目标检测环境搭建
本文详细记录了Swin Transformer在AutoDL平台上的环境搭建与训练过程。作者从租用GPU实例开始,逐步介绍了虚拟环境的创建、PyTorch安装、mmcv及mmdetection的配置,并解决了安装过程中遇到的各种问题,如cython版本冲突等。最后,通过修改代码实现目标检测结果的保存。如需了解更多细节或获取完整代码,请联系作者。原文链接:[原文链接](请在此处插入原文链接)。
|
2月前
|
机器学习/深度学习 人工智能 算法
AI计算机视觉笔记十一:yolo5+Deepsort实现目标检测与跟踪(CPU版)
DeepSORT是一种基于深度学习的计算机视觉跟踪算法,扩展了SORT算法,通过添加外观描述符减少身份切换,提高跟踪效率。本文档提供了DeepSORT环境搭建步骤,包括创建虚拟环境、安装依赖及解决常见错误等,最终实现人员和车辆的跟踪计数功能。适合无GPU设备的学习者参考。
|
4月前
|
存储 SQL 人工智能
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
清华首款AI光芯片登上Science,全球首创架构迈向AGI
【4月更文挑战第16天】清华大学研究团队开发出大规模光子芯片“太极”,在《科学》杂志发表,该芯片基于创新的光子计算架构,实现百万神经元级别的ONN,能效比高达160 TOPS/W。实验中,太极芯片成功执行1000类别分类任务,提升AI内容生成质量,为AGI发展开辟新路径。然而,光子集成电路的制造成本高、技术成熟度不足及软件支持限制了其广泛应用。
162 5
清华首款AI光芯片登上Science,全球首创架构迈向AGI

热门文章

最新文章