瀚博首款AI推理芯片出炉,性能超越英伟达T4,年内即将量产

简介: 瀚博推出的 AI 推理芯片,性能超过英伟达最新的 A10 与 T4,同时使用成本还更低。

7 月 7 日,在上海举行的首场发布会上,芯片创业公司瀚博半导体展示了旗下最新产品,SV100 系列云端通用 AI 推理芯片和 VA1 通用 AI 推理加速卡。刚刚推出的芯片实现了业内领先的性能指标。


微信图片_20211205214159.jpg瀚博半导体 CEO 钱军在发布会上展示 SV102 芯片。


「我们要做的是服务器级别的芯片,SV100 系列是全方位超过英伟达同类产品的芯片解决方案。」瀚博半导体创始人、CEO 钱军在发布会上说道。

本次推出的产品包括芯片 SV102,以及基于该芯片的 AI 加速卡 VA1,即将在今年第四季度投入量产。


云端通用 AI 推理芯片


瀚博推出的 SV102 是 SV100 系列的首款芯片,它面向云端的 AI 的通用化推理任务,INT8 算力高达 200TOPS,其内含多颗瀚博自主设计的 IP 核,配备通用软件栈,对于云计算客户提供了完整的解决方案。


选择推理作为突破点,是瀚博对于市场和业内竞争力分析之后作出的决定。

随着 AI 应用的逐渐成熟,落地业务的增多,目前云服务市场上推理任务的需求逐渐超过训练。相关数据显示,2021 年 AI 推理市场已超过训练市场,未来其差距还会逐渐拉大。高通则认为到 2025 年将有 90% 的算力将被用于机器学习推理。

而在推理任务上,相对更加专精的 DSA 芯片性能显著超过目前业内普遍采用的 GPU,前者可能会成为芯片领域的下一个发展方向。


微信图片_20211205214238.jpg

瀚博提出的 SV100 系列芯片,对于视频任务进行了特别的优化。当前,计算机视觉任务占据了 AI 市场的大部分,视频流占据数据流的 70%,而且比例持续攀升。这些任务需要强大的视频解码能力,对于处理延迟、吞吐量和能耗效率提出了较高要求。


SV102 是一款高性能人工智能与视频处理芯片,深度学习推理性能指标数倍于现有主流数据中心 GPU(如英伟达 T4、A10)。基于瀚博自研的,针对多种深度学习推理负载而优化的通用架构,该芯片支持计算机视觉、视频处理、自然语言处理和搜索推荐等推理应用场景,同时集成高密度视频解码,广泛适用于云端与边缘解决方案,节省设备投资、降低运营成本。


通用 AI 推理加速卡,效率超越英伟达


基于 SV102 芯片,瀚博推出了适用于云服务器的 VA1 机器学习加速卡,其提供高效率深度学习 AI 推理加速,在同等能耗下可以实现 2-10 倍于 GPU 的最高 AI 吞吐率,适合实时应用,同时兼备良好的通用性和可扩展性,支持 FP16, BF16 和 INT8 数据类型的众多主流神经网络快速部署——包括检测,分类,识别,分割,视频处理,LSTM/RNN,NLP/BERT,搜索推荐等。


微信图片_20211205214304.jpg

瀚博半导体 CTO 张磊向我们介绍了 VA1 加速卡的性能指标。


VA1 具备强大的视频处理性能:支持 64 路以上 H264,H265 或 AVS2 1080p 解码,分辨率支持最高达 8K。另一方面,作为标准半高半长 75W 功率的 PCIe 4.0 板卡,VA1 适用于绝大多数服务器,被动散热且无需额外供电,可实现高密度的部署。


和英伟达最新发布的安培架构 A10 板卡对比,在 ResNet-50(int8)任务上,瀚博芯片在 75W 功率时效率是对手的两倍以上。「即使英伟达的产品运行在 150W,我们的芯片运行在 75W 功率时性能也是超过它的,」张磊介绍道。「在 BERT int8 任务上,VA1 的性能也是 A10 在 75W 上的两倍,T4 的两倍多。」


如果以整体运行成本 TCO 的方式来计算,采用 VA1 的服务器整机算力可以达到 T4 设备的 2.5 倍以上,功耗却相对更低,可以节省超过 60% 的服务器成本。


微信图片_20211205214332.jpg


除了硬件产品外,瀚博也搭建了自己的 VastStream 软件平台,支持 TensorFlow、PyTorch、Caffe2 等主流深度学习框架模型。


今年 6 月,SV100 系列芯片宣布测试成功。瀚博创造的几个数字引人关注:在开始测试后 8 分钟全部点亮,在 40 小时之内,芯片所有功能模块基础测试全部完成。对于全新设计的高端芯片来说,这是一个奇迹。


「我们与重要合作伙伴快手的合作非常紧密。打造芯片必须理解客户的实际需求,我们打造了高性能的数据中心,会把最新的板卡插在服务器里,跑各类实际应用,验证产品的性能。」钱军表示。据介绍,目前已有多家国内外科技公司正在和瀚博合作,并等待芯片的大规模量产。


微信图片_20211205214417.jpg


除了 SV102 以外,瀚博半导体还计划推出功率为 15W 和 150W 的推理产品,覆盖更多市场。


「我们不是一个国产替代的故事,我们希望打造国际级别的产品。为了这样的目的,我们组建了有能力的团队。」钱军说道。


瀚博半导体于 2018 年底成立于上海,目前在北京、深圳、多伦多等地均设有研发中心。


这家公司的核心团队源自于 AMD,部分成员曾设计了业界首款 7nm 制程 GPU。自公司创立起,瀚博一直致力于核心 IP 的自主研发,至今已完成多个 IP、高端设计流程,并拥有完善的数据中心构建能力。目前,瀚博的员工总数已超过 200 人。


在融资方面,2019 年 3 月,瀚博获得了来自真格基金的天使轮融资,2019 年 7 月完成 Pre A 轮。2020 年 7 月,红点、快手领投了该公司的 A 轮融资;最近一轮则在今年 3 月,由中国互联网投资基金和经纬中国联合领投,融资金额高达 5 亿元人民币。


瀚博旗下首款芯片的推出,宣告了国内 AI 芯片业内又加入了一股强大的势力。随着各家的 DSA 芯片不断出炉,国内造芯的竞争已经进入了全新的阶段。



相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
8天前
|
机器学习/深度学习 人工智能
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
SNOOPI是一个创新的AI文本到图像生成框架,通过增强单步扩散模型的指导,显著提升模型性能和控制力。该框架包括PG-SB和NASA两种技术,分别用于增强训练稳定性和整合负面提示。SNOOPI在多个评估指标上超越基线模型,尤其在HPSv2得分达到31.08,成为单步扩散模型的新标杆。
48 10
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
|
15天前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
53 12
|
11天前
|
人工智能 算法 搜索推荐
2024 “AI+硬件创新大赛”获奖名单出炉,浙大、上交与复旦联队等夺冠
2024年11月30日,由开放源子开源基金会主办,魔搭社区、英特尔与阿里云共同承办的“AI+硬件创新大赛”总决赛在杭州圆满落幕。
|
12天前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
18天前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
41 0
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
转载:【AI系统】AI的领域、场景与行业应用
本文概述了AI的历史、现状及发展趋势,探讨了AI在计算机视觉、自然语言处理、语音识别等领域的应用,以及在金融、医疗、教育、互联网等行业中的实践案例。随着技术进步,AI模型正从单一走向多样化,从小规模到大规模分布式训练,企业级AI系统设计面临更多挑战,同时也带来了新的研究与工程实践机遇。文中强调了AI基础设施的重要性,并鼓励读者深入了解AI系统的设计原则与研究方法,共同推动AI技术的发展。
转载:【AI系统】AI的领域、场景与行业应用
|
6天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建
|
6天前
|
机器学习/深度学习 人工智能 物联网
AI赋能大学计划·大模型技术与应用实战学生训练营——电子科技大学站圆满结营
12月05日,由中国软件行业校园招聘与实习公共服务平台携手阿里魔搭社区共同举办的AI赋能大学计划·大模型技术与产业趋势高校行AIGC项目实战营·电子科技大学站圆满结营。
AI赋能大学计划·大模型技术与应用实战学生训练营——电子科技大学站圆满结营
|
11天前
|
机器学习/深度学习 人工智能 JSON
【实战干货】AI大模型工程应用于车联网场景的实战总结
本文介绍了图像生成技术在AIGC领域的发展历程、关键技术和当前趋势,以及这些技术如何应用于新能源汽车行业的车联网服务中。
168 32

热门文章

最新文章