腾讯战略投资,燧原科技首款AI训练芯片出炉:性能超越V100

简介: 由腾讯领投、融资累计超过 6 亿元的 AI 芯片公司燧原科技,终于发布了自己的首款产品。

12 月 11 日,燧原科技在上海举办了成立以来的首场发布会,推出了完全自主研发的首款 AI 训练芯片「邃思 DTU」,以及搭载该芯片的 AI 加速卡云燧 T10。燧原科技的新产品,被认为是目前业内性能最为强大的 AI 训练芯片。


在发布会上,燧原科技创始人、CEO 赵立东展望了燧原投身 AI 芯片研发的愿景:「燧原科技希望能做大芯片、拼硬科技,对标世界最顶级的技术和公司。


微信图片_20211202144612.jpg燧原科技 CEO 赵立东手持云燧 T10。


虽然人工智能的概念很早就已被提出,但从集成电路、半导体芯片的角度来看,AI 计算有着自己的特点,基于机器学习算法,硬件架构需要进行创新。
燧原希望在 AI 训练芯片这一高端市场上首先发力。目前在这一方向上,GPU 几乎处于垄断地位。今年 11 月,OpenAI 发布了最新 AI 算力报告,其中提出 AI 算力的需求每年提升 10 倍——即使在摩尔定律没有放缓的情况下,现有芯片也无法满足这样的需求。这意味着人工智能芯片需要新的架构,从而为芯片公司创造了机会。


最强量产 AI 训练芯片


邃思 DTU 被认为是目前最为强大的量产 AI 训练芯片,其采用格罗方德(GlobalFoundries)12nm FinFET 工艺打造,面积高达 480mm²,主芯片包含 141 亿个晶体管,同时还采用了先进的 2.5D 立体封装技术,进一步提高了芯片的信号传输速度和带宽。


微信图片_20211202144643.jpg

燧原科技创始人兼 COO 张亚林展示邃思 DTU。


与之一同发布的首款人工智能训练卡「云燧 T10」,是一块面向云端数据中心的 AI 加速卡。它采用标准双槽位,率先支持 PCIe 4.0,功耗为 225W。其独特的 25GB 双向背板互联方案有别于业内常见的 InfiniBand 并联方式,能在相同的互联带宽下,较大幅度地降低组网的复杂度和成本。


燧原表示,T10 的单卡单精度(FP32)算力达到了 20TFLOPS,且支持单精度 FP32 和半精度 BF16 的混合精度计算。相比之下,英伟达最新的 Tesla V100S 的单精度算力为 16.4TFLOPS,而另一方面,云邃 T10 的功耗更低,这意味着它要比 V100 具有更高的效率。


微信图片_20211202144701.jpg


云燧 T10 支持半精度 BF16 运算,并且达到了 80TFLOPS 的算力,这也让它成为了谷歌 TPU 以外,业界首款支持这种运算方式的 AI 加速卡。「这款芯片是燧原科技完全自主设计完成的,完全支持所有已有的、及未来即将出现的 AI 算法。」燧原科技创始人兼 COO 张亚林说道。


在发布会上,燧原科技表示 T10 已经实现量产,并将于 2020 年第一季度上市。


微信图片_20211202144705.jpg


与目前很多初创公司发布的 AI 芯片相比,基于数据中心的人工智能训练芯片相比推理芯片难度更高,通常要求芯片具有高算力、低功耗、强互联等特性,并支持多种训练算法,以满足通用性和能耗的要求。邃思芯片基于可重构芯片的设计理念,其计算核心包含 32 个通用可扩展神经元处理器(SIP),每 8 个 SIP 组合成 4 个可扩展智能计算群(SIC)。SIC 之间通过 HBM 实现高速互联,通过片上调度算法,数据在迁移中完成计算,实现了 SIP 利用率最大化。


在 AI 芯片的大规模应用中,并联效率至关重要,燧原在发布会上特别介绍了芯片中使用的高速互联技术。为实现大规模训练集群的高效训练,燧原科技提出了 200GB 双向 ESL 互联技术,大幅降低了系统复杂度和成本。


在发布会上,燧原还介绍了云燧 T10 的扩展效率:在并联多达 1024 张卡时,燧原的板卡仍可以达到超过 70% 的效率(理论最高可以达的效率为 86%)。


微信图片_20211202144723.jpg

8 卡互联的云邃 T10 服务器(左),以及基于云邃 T11 的服务器(右)。


除此以外,燧原还计划推出基于 OCP 加速模组(OAM)的「云燧 T11」。它是 T10 的更强大版本,功耗 300W,将于明年 5-6 月正式推出,直接对标 Tesla V100 的 NVLink 版。


模型迁移零成本


在硬件之外,燧原同时发布了计算及编程平台「驭算」,支持主流深度学习框架,提供完整的编译、调试、调优工具链,并在硬件层开放 SDK,为深度开发者提供细粒度算力编程接口。针对大规模模型集群训练,如目前流行的 BERT 等,提供分布式调度系统,并针对 ESL 并联进行优化。


微信图片_20211202144750.jpg


「我们的软件平台支持 C/C++语言算子编程。可向开发者针对特定场景提供算子级、指令级优化。在未来,我们还会开放更为底层的硬件驱动。」张亚林表示。


目前,燧原的编程平台已经完全支持 TensorFlow,公司还计划在明年上半年对 PyTorch、MXNet、ONNX 等主流深度学习框架提供支持。在软件方面,燧原希望做到对开发者来说「迁移零成本」。

接受腾讯战略投资


燧原科技成立于 2018 年 3 月,这家公司已在上海和北京设立了研发中心,公司创始人赵立东、张亚林等人此前均任职于 AMD。目前这家公司已有 207 名员工。


迄今为止,燧原科技已经历了三轮融资,其中去年 8 月 7 日由腾讯领投的 Pre A 轮最为引人关注,其时融资额高达 3.4 亿元,也让燧原成为了首家和唯一一家被腾讯战略投资的国内 AI 芯片初创公司。今年 6 月,燧原科技又获得了 3 亿元人民币的 A 轮融资,红点中国领投,海松资本、云和资本、腾讯投资、阳光融汇资本、信中利资本跟投。


「我们选择接受来自腾讯的战略投资,是因为腾讯在数据、业务场景、算法团队等方面具备优势,」赵立东在发布会上表示。「为了实现业务落地零的突破,我们必须寻求合作,只有这样才能让落地的第一步走成功。


相比打造出成型芯片再寻找客户,燧原科技与腾讯展开全面合作的行动减少了数个月的研发时间。


「腾讯提出的『产品热启动』概念与我们不谋而合。在邃思芯片落地的过程中,我们与腾讯的开发者们进行了技术交流,这使得我们可以在软件优化过程中有的放矢了解需求和改进。」赵立东说道。


强大完整的团队,加上高效的合作,让燧原科技的第一款芯片就超越了当前业界主流产品的性能,创造了研发到量产仅用 20 个月的新纪录:


微信图片_20211202144821.jpg

邃思芯片于 2018 年 4 月开始研发,内部代号狮子座,在今年 5 月 30 日流片成功。到 9 月 19 日,8 颗芯片全部点亮,完成实验室测试,开始软硬件联调。所有时间节点全部在最初计划的范围之内。


下一阶段,燧原将面向几大业务领域推广自己的产品:


  • 云服务公司(包括公有云、私有云、混合云)
  • 各传统领域的行业服务公司(金融、保险、医疗、交通等)
  • AI 超算中心和智慧城市


「目前燧原科技已与腾讯针对通用人工智能应用场景的项目开展密切的合作,未来也将会扩展到更多 AI 应用场景,」赵立东表示。「以此次发布的新产品作为开端,燧原将提供更多具有高性价比、高能效比、开源开放的完整解决方案,也可以针对不同应用场景的差异化需求提供软硬件定制化的支持和服务。


燧原的芯片发布引起了各界关注,清华大学微电子所所长魏少军在发布会上表示:「燧原芯片研发迈出第一步的成功,要归功于团队的完整性,足够强大的实力,以及时机和方法的正确。中国今天的集成电路领域热度很高,但要发展集成电路需要足够的基础条件。邃思 DTU 是近年来能够在全球引起高度关注的芯片。


随着训练芯片的量产,燧原科技下一步研发计划也已经浮出水面。这家公司计划在未来推出自己的推断芯片系列,构建云端 AI 模型训练和推理计算的完整解决方案。


相关文章
|
7天前
|
机器学习/深度学习 存储 人工智能
【科普向】我们所说的AI模型训练到底在训练什么?
人工智能(AI)模型训练类似于厨师通过反复实践来掌握烹饪技巧。它通过大量数据输入,自动优化内部参数(如神经网络中的权重和偏置),以最小化预测误差或损失函数,使模型在面对新数据时更加准确。训练过程包括前向传播、计算损失、反向传播和更新权重等步骤,最终生成权重文件保存模型参数,用于后续的应用和部署。理解生物神经网络的工作原理为人工神经网络的设计提供了灵感,后者广泛应用于图像识别、自然语言处理等领域。
|
15天前
|
人工智能 自然语言处理 决策智能
DRT-o1:腾讯推出专注于文学翻译的 AI 模型,擅长理解比喻和隐喻等修辞手法,在翻译时保留原文的情感色彩
DRT-o1 是腾讯研究院推出的文学翻译系列 AI 模型,通过长链思考推理技术显著提升翻译质量,特别擅长处理比喻和隐喻等修辞手法。
42 2
DRT-o1:腾讯推出专注于文学翻译的 AI 模型,擅长理解比喻和隐喻等修辞手法,在翻译时保留原文的情感色彩
|
1月前
|
人工智能
AnchorCrafter:中科院联合腾讯推出的AI虚拟主播带货视频制作技术
AnchorCrafter是由中科院和腾讯联合推出的一项AI虚拟主播带货视频制作技术。该技术基于扩散模型,能够自动生成高保真度的主播风格产品推广视频,通过整合人-物交互(HOI)技术,实现对物体外观和运动控制的高度还原。AnchorCrafter在物体外观保持、交互感知以及视频质量方面优于现有方法,为在线广告和消费者参与提供了新的可能性。
168 30
AnchorCrafter:中科院联合腾讯推出的AI虚拟主播带货视频制作技术
|
7天前
|
人工智能 物联网
如何将Together AI上基于Qwen2-7B训练的模型部署到ModelScope平台
如何将Together AI上基于Qwen2-7B训练的模型部署到ModelScope平台
44 10
|
1月前
|
机器学习/深度学习 存储 人工智能
【AI系统】感知量化训练 QAT
本文介绍感知量化训练(QAT)流程,旨在减少神经网络从FP32量化至INT8时的精度损失。通过在模型中插入伪量化节点(FakeQuant)模拟量化误差,并在训练中最小化这些误差,使模型适应量化环境。文章还探讨了伪量化节点的作用、正向与反向传播处理、TensorRT中的QAT模型高效推理,以及QAT与PTQ的对比,提供了实践技巧,如从良好校准的PTQ模型开始、采用余弦退火学习率计划等。
83 2
【AI系统】感知量化训练 QAT
|
1月前
|
机器学习/深度学习 存储 人工智能
【AI系统】训练后量化与部署
本文详细介绍了训练后量化技术,涵盖动态和静态量化方法,旨在将模型权重和激活从浮点数转换为整数,以优化模型大小和推理速度。通过KL散度等校准方法和量化粒度控制,文章探讨了如何平衡模型精度与性能,同时提供了端侧量化推理部署的具体实现步骤和技术技巧。
50 1
【AI系统】训练后量化与部署
|
15天前
|
人工智能 智能硬件
SPAR:智谱 AI 推出自我博弈训练框架,基于生成者和完善者两个角色的互动,提升了执行准确度和自我完善能力
SPAR 是智谱团队推出的自我博弈训练框架,旨在提升大型语言模型在指令遵循方面的能力,通过生成者和完善者的互动以及树搜索技术优化模型响应。
38 0
SPAR:智谱 AI 推出自我博弈训练框架,基于生成者和完善者两个角色的互动,提升了执行准确度和自我完善能力
|
2月前
|
人工智能 编解码 BI
LEOPARD:腾讯AI Lab西雅图实验室推出的视觉语言模型
LEOPARD是由腾讯AI Lab西雅图实验室推出的视觉语言模型,专为处理含有大量文本的多图像任务设计。该模型通过自适应高分辨率多图像编码模块和大规模多模态指令调优数据集,在多个基准测试中表现卓越,适用于自动化文档理解、教育和学术研究、商业智能和数据分析等多个应用场景。
45 2
LEOPARD:腾讯AI Lab西雅图实验室推出的视觉语言模型
|
1月前
|
人工智能 PyTorch 测试技术
【AI系统】并行训练基本介绍
分布式训练通过将任务分配至多个节点,显著提升模型训练效率与精度。本文聚焦PyTorch2.0中的分布式训练技术,涵盖数据并行、模型并行及混合并行等策略,以及DDP、RPC等核心组件的应用,旨在帮助开发者针对不同场景选择最合适的训练方式,实现高效的大模型训练。
65 8
|
1月前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
93 12

热门文章

最新文章