英特尔称将于2017年发布AI超级芯片:至强Phi Knights Mill

简介:

英特尔公司目前正积极面向服务器及工作站设备开发一款强大的至强Phi处理器,旨在针对人工智能软件进行“优化”——目前其代号已经公布,名为Knights Mill。

芯片巨头的数据中心部门负责人Diane Bryant在本届于旧金山召开的英特尔开发者论坛上表示:

这款芯片主要面向深度学习类应用,且预计将在2017年年内推出。其将在芯片之上采用堆叠式内存,实现多功能、多核心并主要面向高性能浮点计算——这一切都是为了帮助其在高通量机器学习场景下快速执行操作。

更重要的是,Mill不配备加速器或者协处理器:其可运行x86代码并能够在不涉及主机CPU的情况下引导并运行操作系统及应用。这样的设计使其与英伟达GPU等竞争芯片区别开来——后者主机处理器协助其定向。

根据英特尔公司的说法,Knights Mill“针对向外扩展分析方案进行了伦,且包含多项深度学习训练强化机制。对于目前的机器学习应用,英特尔至强Phi处理器家族配备的大规模内存容量能够帮助百度等客户轻松高效地完成模型训练。”

Mill为至强Phi家族中的最新成员,且仍在快速发展当中。作为姊妹产品,Knights Hill为公布于2014年的第三代10纳米Phi处理器,其将用于美国能源部即将推出的180 PFLOPS Aurora等多台超级计算机。

与此同时,公布于2013年的第二代14纳米Phi Knights Landing已经于今年6月开始销售。其具备72个凌动Airmont核心,且能够访问高达16 GB堆叠式3D RAM以及高达384 GB的普通DDR4内存。其将被用于美国的Cori超级计算机。在Knights Landing之前,该家族还拥有Knights Corner与Knights Ferry两位成员。

至强Phi家族主要面向高性能服务器与系统,产品售价亦相当夸张。一块Knights Landing处理器的起步价格达2500美元,截至目前亦只有高校及政府机构能够利用其运行模拟及材料研究等负载。如今凭借着对AI初创企业Nervana的收购,英特尔公司开始将Phi家族转移向人工智能领域,而英伟达将成为其主要竞争对手。



原文发布时间为:2016年8月18日

本文作者:孙博

本文来自云栖社区合作伙伴至顶网,了解相关信息可以关注至顶网。

相关文章
|
5月前
|
人工智能 Cloud Native Java
书本大纲:从芯片、分布式到云计算AI时代
本文深入探讨并发编程、JVM原理、RPC框架、高并发系统、分布式架构及云原生技术,涵盖内存模型、同步机制、垃圾回收、网络协议、存储优化、弹性伸缩等核心议题,揭示多线程运行逻辑与高并发实现路径,助你掌握现代软件底层原理与工程实践。
216 7
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
2599 12
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
257 3
|
机器学习/深度学习 人工智能 缓存
基于英特尔平台加速 AI 应用及 LLM 推理性能介绍|龙蜥大讲堂第115期
本文摘自龙蜥大讲堂英特尔 AI 软件工程师黄文欢的分享,主要包括以下三个方面的内容: 1. 第五代英特尔至强处理器 2. LLM 推理加速框架 xFast Transformer 及其优化策略 3. 性能数据及 Demo 展示
357 0
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
373 0
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
429 0
|
人工智能 机器人 云计算
【通义】AI视界|OpenAI据称已计划联手博通和台积电共同打造自研芯片
本文由【通义】自动生成,涵盖苹果iOS 18.2将集成ChatGPT、OpenAI联手博通和台积电自研芯片、微软指责谷歌发起影子运动、英伟达高管预测AI将呈现人类形态、OpenAI董事会主席的初创公司估值达45亿美元等热点资讯。更多精彩内容,请访问通通知道。
|
3月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
940 50
|
4月前
|
人工智能 安全 中间件
阿里云 AI 中间件重磅发布,打通 AI 应用落地“最后一公里”
9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScope-Java(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。
1135 52
|
3月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
565 30