“领先同类芯片100倍”,这个AI芯片商想从英特尔和英伟达手中捞点油水

简介:

“领先同类芯片100倍”,这个AI芯片商想从英特尔和英伟达手中捞点油水

近日,一家生产 AI 芯片的英国初创公司 Graphcore 融资 3000 万美元资金,用于研发和生产新型芯片。

Graphcore 计划明年大规模出货,其芯片将用于对机器学习和深度学习运算需求较高的无人驾驶汽车和云计算领域。Graphcore 称,他们的芯片性能可领先市场同类产品的 10 ~ 100 倍。

Graphcore 是从芯片厂商 XMOS 中孵化,XMOS 在物联网高性能芯片领域有着一定的积累, 2014 年曾获得华为和德国工业巨头博世以及 Xilinx 的投资。

作为一个从传统芯片厂商独立出来的技术团队,Graphcore 首席执行官 Nigel Toon 也十分自信,声称当前 GPU 常被用来运行机器学习程序,只是行业的权宜之计,这并不见得是最好的选择,它们往往无法满足 AI 的需求。GPU 被设计成用来运行完整的程序,而机器学习与此完全不同。后者是不断训练程序使用数据的过程,需要完全不同类型的处理器。

雷锋网(公众号:雷锋网)此前曾在《芯片之争:CPU、GPU、DSP、NPU,到底哪个更适用于深度学习?》一文中提到:

无论是针对人工智能的众核芯片还是定制版的 GPU,本质上都不是专用处理器,实际上是拿现有的、相对成熟的架构和技术成果去应对新生的人工智能,并没有发生革命性的技术突破。

英特尔和英伟达是在使用现有的比较成熟的技术去满足深度学习的需求,众核芯片和定制版 GPU 在本质上来说依旧是 CPU 和 GPU,而并非专门针对深度学习的专业芯片,这就必然带来一些天生的不足。打个比方,用众核芯片和 GPU 跑深度学习,就类似于用轿车去拉货,受轿车自身特点的限制,货物运输能力与真正大马力、高负载的货车有一定差距。同理,即便是因为技术相对更加成熟,英特尔和英伟达的芯片在集成度和制造工艺上具有优势,但由于 CPU、GPU 并非针对深度学习的专业芯片,相对于专业芯片,其运行效率必然受到一定影响。

为此,Graphcore 正着力打造新的智能处理单元(IPU)系统,并计划于 2017 年推出。根据官方介绍,其 IPU 围绕神经网络计算加速处理器(Neural Network Accelerator),支持的并行计算规模和浮点运算精度比其他芯片更高。

当然,关于 Graphcore 自称其 IPU 芯片性能均领先市场同类产品的10 ~ 100 倍这一说,还需经过市场考验。其实 NPU 也一直被业内认为将在人工智能演进过程中扮演的关键角色,如寒武纪团队过去和 Inria 联合发表的 DianNao 论文提到,CPU、GPU与 NPU 相比,会有百倍以上的性能或能耗比差距。

但目前国内外均还未有主流的 NPU 厂商出现。高通曾对外宣称将大力发展 NPU,并称在 2014 年推出样品,随后却不了了之。虽然 2016 年涌现出多家进军 NPU 的芯片厂商,但无论哪家推出的芯片,均需要一定的验证和测试周期。因此 Graphcore 的 IPU 芯片在量产后是否能够表现优秀,仍有很多未知因素。 

Toon 给出一个为社交媒体公司服务的案例,以证明 IPU 的实用性。Toon 提到,社交网络的用户活跃度通常在某个时间最为突出,Graphcore 的 IPU 系统会伺机在用户活跃度低时利用闲置的处理器资源进行 AI 训练,然后在第二天及时地上线新内容。

Graphcore 也并非一个人在战斗,Bosch 和三星作为 Graphcore 的战略投资方,两者均在与 Graphcore 探讨合作:Bosch 意在借助 Graphcore 的技术拓展自动驾驶领域,而三星投资它的目的想把其相关技术应用在下一代网络设备中。


本文作者:亚峰


本文转自雷锋网禁止二次转载,原文链接

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
26天前
|
机器学习/深度学习 人工智能 语音技术
Fugatto:英伟达推出的多功能AI音频生成模型
Fugatto是由英伟达推出的多功能AI音频生成模型,能够根据文本提示生成音频或视频,并修改现有音频文件。该模型基于增强型的Transformer模型,支持复杂的组合指令,具有强大的音频生成与转换能力,广泛应用于音乐创作、声音设计、语音合成等领域。
67 1
Fugatto:英伟达推出的多功能AI音频生成模型
|
24天前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
63 12
|
26天前
|
人工智能 自然语言处理 知识图谱
英伟达nGPT重塑Transformer,AI训练速度暴增20倍!文本越长,加速越快
英伟达提出nGPT(Normalized Transformer),通过单位范数归一化和超球面上的表示学习,显著提升了Transformer模型的训练速度和性能。实验显示,nGPT在处理4k长度序列时,训练速度比传统Transformer快10倍,且在多个下游任务中表现出色。论文地址:https://arxiv.org/pdf/2410.01131
38 12
|
21天前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
26天前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
48 0
|
26天前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
44 0
|
2月前
|
人工智能 机器人 云计算
【通义】AI视界|OpenAI据称已计划联手博通和台积电共同打造自研芯片
本文由【通义】自动生成,涵盖苹果iOS 18.2将集成ChatGPT、OpenAI联手博通和台积电自研芯片、微软指责谷歌发起影子运动、英伟达高管预测AI将呈现人类形态、OpenAI董事会主席的初创公司估值达45亿美元等热点资讯。更多精彩内容,请访问通通知道。
|
2月前
|
数据采集 人工智能 搜索推荐
【通义】AI视界|迎接Apple Intelligence,Mac家族进入M4芯片时代
本文概览了近期科技领域的五大热点:苹果宣布Apple Intelligence将于2025年4月支持中文;新款Mac将搭载M4芯片;ChatGPT周活跃用户达2.5亿,主要收入来自订阅;Meta开发AI搜索引擎减少对外部依赖;周鸿祎支持AI发展但反对构建超级智能。更多详情,访问通义平台。
|
9天前
|
机器学习/深度学习 人工智能 自然语言处理
AI技术深度解析:从基础到应用的全面介绍
人工智能(AI)技术的迅猛发展,正在深刻改变着我们的生活和工作方式。从自然语言处理(NLP)到机器学习,从神经网络到大型语言模型(LLM),AI技术的每一次进步都带来了前所未有的机遇和挑战。本文将从背景、历史、业务场景、Python代码示例、流程图以及如何上手等多个方面,对AI技术中的关键组件进行深度解析,为读者呈现一个全面而深入的AI技术世界。
65 10
|
3天前
|
机器学习/深度学习 人工智能 物联网
AI赋能大学计划·大模型技术与应用实战学生训练营——湖南大学站圆满结营
12月14日,由中国软件行业校园招聘与实习公共服务平台携手魔搭社区共同举办的AI赋能大学计划·大模型技术与产业趋势高校行AIGC项目实战营·湖南大学站圆满结营。
AI赋能大学计划·大模型技术与应用实战学生训练营——湖南大学站圆满结营

热门文章

最新文章