“领先同类芯片100倍”,这个AI芯片商想从英特尔和英伟达手中捞点油水

简介:

领先同类芯片100倍,这个AI芯片商想从英特尔和英伟达手中捞点油水

近日,一家生产 AI 芯片的英国初创公司 Graphcore 融资 3000 万美元资金,用于研发和生产新型芯片。

Graphcore 计划明年大规模出货,其芯片将用于对机器学习和深度学习运算需求较高的无人驾驶汽车和云计算领域。Graphcore 称,他们的芯片性能可领先市场同类产品的 10 ~ 100 倍。

Graphcore 是从芯片厂商 XMOS 中孵化,XMOS 在物联网高性能芯片领域有着一定的积累, 2014 年曾获得华为和德国工业巨头博世以及 Xilinx 的投资。

作为一个从传统芯片厂商独立出来的技术团队,Graphcore 首席执行官 Nigel Toon 也十分自信,声称当前 GPU 常被用来运行机器学习程序,只是行业的权宜之计,这并不见得是最好的选择,它们往往无法满足 AI 的需求。GPU 被设计成用来运行完整的程序,而机器学习与此完全不同。后者是不断训练程序使用数据的过程,需要完全不同类型的处理器。

雷锋网(公众号:雷锋网)此前曾在《芯片之争:CPU、GPU、DSP、NPU,到底哪个更适用于深度学习?》一文中提到:

无论是针对人工智能的众核芯片还是定制版的 GPU,本质上都不是专用处理器,实际上是拿现有的、相对成熟的架构和技术成果去应对新生的人工智能,并没有发生革命性的技术突破。

英特尔和英伟达是在使用现有的比较成熟的技术去满足深度学习的需求,众核芯片和定制版 GPU 在本质上来说依旧是 CPU 和 GPU,而并非专门针对深度学习的专业芯片,这就必然带来一些天生的不足。打个比方,用众核芯片和 GPU 跑深度学习,就类似于用轿车去拉货,受轿车自身特点的限制,货物运输能力与真正大马力、高负载的货车有一定差距。同理,即便是因为技术相对更加成熟,英特尔和英伟达的芯片在集成度和制造工艺上具有优势,但由于 CPU、GPU 并非针对深度学习的专业芯片,相对于专业芯片,其运行效率必然受到一定影响。

为此,Graphcore 正着力打造新的智能处理单元(IPU)系统,并计划于 2017 年推出。根据官方介绍,其 IPU 围绕神经网络计算加速处理器(Neural Network Accelerator),支持的并行计算规模和浮点运算精度比其他芯片更高。

当然,关于 Graphcore 自称其 IPU 芯片性能均领先市场同类产品的10 ~ 100 倍这一说,还需经过市场考验。其实 NPU 也一直被业内认为将在人工智能演进过程中扮演的关键角色,如寒武纪团队过去和 Inria 联合发表的 DianNao 论文提到,CPU、GPU与 NPU 相比,会有百倍以上的性能或能耗比差距。

但目前国内外均还未有主流的 NPU 厂商出现。高通曾对外宣称将大力发展 NPU,并称在 2014 年推出样品,随后却不了了之。虽然 2016 年涌现出多家进军 NPU 的芯片厂商,但无论哪家推出的芯片,均需要一定的验证和测试周期。因此 Graphcore 的 IPU 芯片在量产后是否能够表现优秀,仍有很多未知因素。 

Toon 给出一个为社交媒体公司服务的案例,以证明 IPU 的实用性。Toon 提到,社交网络的用户活跃度通常在某个时间最为突出,Graphcore 的 IPU 系统会伺机在用户活跃度低时利用闲置的处理器资源进行 AI 训练,然后在第二天及时地上线新内容。

Graphcore 也并非一个人在战斗,Bosch 和三星作为 Graphcore 的战略投资方,两者均在与 Graphcore 探讨合作:Bosch 意在借助 Graphcore 的技术拓展自动驾驶领域,而三星投资它的目的想把其相关技术应用在下一代网络设备中。


本文作者:亚峰


本文转自雷锋网禁止二次转载,原文链接

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
1月前
|
人工智能 自然语言处理 数据处理
英伟达推出NeMo,极大简化自定义生成式AI开发
【2月更文挑战第30天】英伟达发布NeMo平台,简化生成式AI模型开发,加速AIGC进程。平台提供NeMo Curator、Customizer和Evaluator微服务,覆盖数据准备至模型评估全周期。Curator加速数据处理,Customizer支持模型微调,Evaluator全面评估模型性能。虽有学习曲线挑战,但NeMo为AI创新与应用带来更多可能性。
44 2
英伟达推出NeMo,极大简化自定义生成式AI开发
|
2月前
|
传感器 机器学习/深度学习 算法
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
185 0
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
|
1月前
|
人工智能 芯片 异构计算
英伟达要小心了!爆火的Groq芯片能翻盘吗?AI推理速度「吊打」英伟达?
随着科技的飞速发展,人工智能公司Groq挑战了英伟达的王者地位,其AI芯片不仅展现出卓越的实力,还拥有巨大的潜力。Groq设计了一种独特的推理代币经济学模式,该模式背后牵动着众多因素,却也引发了深度思考:新的技术突破来自何处?中国该如何应对并抓住变革中的机遇?Groq成本如何评估?这些都是值得研究和思考的问题。
|
1月前
|
存储 人工智能 数据处理
英伟达AI Workbench正式发布,大幅度简化大模型开发流程
英伟达发布AI Workbench,革新大模型开发流程,简化GPU工作站配置,降低AI技术门槛。该工具提供预建AI项目、交互式文档功能及自定义图像生成,支持LLM定制,助力高效开发与协作。虽对新手有一定学习曲线,但已成AI民主化重要一步。
29 4
英伟达AI Workbench正式发布,大幅度简化大模型开发流程
|
1月前
|
人工智能 机器人 芯片
英伟达最强 AI 芯片、人形机器人模型炸场!黄仁勋放言英语将成最强大编程语言
在2024年的GTC大会上,英伟达创始人黄仁勋揭幕了新一代AI芯片Blackwell,号称是史上最强AI芯片,目标是推动AI领域的重大进步。
|
1月前
|
人工智能 分布式计算 算法
英特尔助力龙蜥加速 AI 应用及 LLM 性能
英特尔至强服务器平台加速大语言模型应用。
|
1月前
|
人工智能 缓存 机器人
【2024】英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
英伟达在加州圣荷西的GTC大会上发布了全新的Blackwell GPU,这款拥有2080亿个晶体管的芯片将AI性能推向新高度,是公司对通用计算时代的超越。Blackwell采用多芯片封装设计,通过两颗GPU集成,解决了内存局部性和缓存问题,提供20 petaflops的FP4算力,是上一代产品的5倍。此外,新平台降低了构建和运行大规模AI模型的成本和能耗,使得大型语言模型推理速度提升30倍。黄仁勋表示,Blackwell标志着AI算力在近八年内增长了一千倍,引领了技术边界拓宽的新趋势。
|
1月前
|
人工智能 算法 芯片
全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程
【2月更文挑战第24天】全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程
20 1
全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程
|
1月前
|
机器学习/深度学习 数据采集 人工智能
英伟达推出”生成式AI专业认证“,帮你成为大模型开发专家!
【2月更文挑战第18天】英伟达推出”生成式AI专业认证“,帮你成为大模型开发专家!
104 2
英伟达推出”生成式AI专业认证“,帮你成为大模型开发专家!
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
文生视频Sora模型发布,是否引爆AI芯片热潮
文生视频Sora模型发布,是否引爆AI芯片热潮
70 0