AMD授权GPU给Intel?苏姿丰:没有的事

简介:

英特尔和AMD绝对算得上是一对“世纪冤家”了。在分分合合、相互掣肘多年之后,如今却因为Nvidia的中途“控诉”,英特尔不得不向AMD低头以求再次交好。然而,就在这则传闻的报道已经满天飞的情况下,二者虚虚实实的态度还是让业界不敢擅下定论。

此前科技媒体Fudzilla曾披露消息称,英特尔在与Nvidia的 GPU 授权协定到期(3月17日)之后,会改和 AMD 合作,并且二者已谈妥GPU合作案,支票也已开具完成。

然而,随后英特尔发言人向外表示,其取得AMD授权一说,并非事实。而在相关媒体继续追问是否确定不会采用AMD授权时,英特尔表示“不便提供进一步讯息”。

当然,针对这一传闻,AMD也已经出具官方辟谣,但是,业界在此仍不罢休。

在本周一于波士顿举行的投资者大会上,AMD CEO苏姿丰再次就此传闻进行了回应。苏姿丰表示:对这项不确定的

不过,苏姿丰还是在大会上明确表明,并没有援助英特尔的意思。虽然AMD正在考虑“选择性地”同意英特尔的GPU的授权,但是,苏姿丰称,“我们正在努力拓展可以增加市场份额的领域”,“我们更关心如何卖出更多的产品,或者怎样在不销售产品的市场拥有自有专利,而不希望让对手能够与我们的产品相互竞争”。

如雷锋网此前报道,在今年的CES上,AMD发布了最新一代 Ryzen 处理器。据称该处理器的研发周期长达四年,采用了全新架构设计,可进一步解决AMD CPU性能落后的问题。最重要的在于,能与英特尔在PC处理器领域进行持续竞争。

而英特尔虽然有自身的HD Grpahics和Iris两大系列核显技术,但更多情况下, 业界都是把他当做一个CPU厂商,况且和专业的AMD和Nvidia相比,英特尔显卡还是有一段距离。如今与Nvidia的协定到期,英特尔必须赶快找好下家合作伙伴,这也是AMD被一直推向该舆论高潮的原因之一。

而从另一个层面上来说,AMD授权英特尔GPU,这将让其置于与英特尔在PC集成显卡的处理器芯片市场相互竞争的局面,这并不符合苏姿丰在会上强调的“在不销售产品的市场拥有专利”的预期。这也将直接导致AMD降低其在高端图形芯片及处理器的独特优势。

然而,如果二者合作敲定,这将是一笔涉及10几亿美元的交易案。此前,英特尔与Nvidia的合作就让后者获得了15亿美元的赔偿金和授权费。所以,“吃瓜群众们”对这场交易不得不表示强烈注目。

与此同时,AMD的股价也在这一传闻事件中“不断沉浮”。当时该传闻一出,AMD股价就飙涨近 12%,而在英特尔出面否认之后,又直接导致前者股价暴跌。

据目前比较可信的传闻表示,英特尔CPU确实会使用AMD的Radeon GPU,且预期该产品将于今年年底前问世。这或许也是目前二者遮遮掩掩不正面回应此传闻的原因。

关于该传闻的相关动态,雷锋网也将持续跟踪报道。

本文转自d1net(转载)

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
6月前
|
人工智能 并行计算 监控
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
本文详细介绍了在AMD硬件上构建大型语言模型(LLM)推理环境的全流程。以RX 7900XT为例,通过配置ROCm平台、部署Ollama及Open WebUI,实现高效本地化AI推理。尽管面临技术挑战,但凭借高性价比(如700欧元的RX 7900XT性能接近2200欧元的RTX 5090),AMD方案成为经济实用的选择。测试显示,不同规模模型的推理速度从9到74 tokens/秒不等,满足交互需求。随着ROCm不断完善,AMD生态将推动AI硬件多元化发展,为个人与小型组织提供低成本、低依赖的AI实践路径。
2408 1
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
|
8月前
|
并行计算 PyTorch 算法框架/工具
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
本文探讨了如何通过技术手段混合使用AMD与NVIDIA GPU集群以支持PyTorch分布式训练。面对CUDA与ROCm框架互操作性不足的问题,文章提出利用UCC和UCX等统一通信框架实现高效数据传输,并在异构Kubernetes集群中部署任务。通过解决轻度与强度异构环境下的挑战,如计算能力不平衡、内存容量差异及通信性能优化,文章展示了如何无需重构代码即可充分利用异构硬件资源。尽管存在RDMA验证不足、通信性能次优等局限性,但该方案为最大化GPU资源利用率、降低供应商锁定提供了可行路径。源代码已公开,供读者参考实践。
708 3
融合AMD与NVIDIA GPU集群的MLOps:异构计算环境中的分布式训练架构实践
|
Ubuntu Shell Linux
专为Intel Arc GPU设计:oneAPI的详细图文安装教程
本次我们基于Intel Arc系列的GPU,在windows的WSL上安装oneAPI, 之前发表过纯CPU,通过VM虚拟机的方式,而现在我们在WSL上实现GPU版本的安装
1221 0
|
机器学习/深度学习 人工智能 分布式计算
全球首台百亿亿级超算用AMD的GPU:性能增7倍,能效提升3倍
全球首台百亿亿级超算用AMD的GPU:性能增7倍,能效提升3倍
265 0
|
弹性计算 编解码 负载均衡
阿里云ECS服务器GPU实例、倚天ARM架构和intel实例价格下调最高47%
阿里云ECS服务器GPU实例、倚天ARM架构和intel实例价格下调最高47%,ecs.c8y/g8y/r8y、ecs.g7/c7/r7、ecs.gn6v、ecs.gn6i阿里云产品大规模调价,核心云产品价格全线下调,技术红利释放核心产品最高降幅50%,以下产品的价格调整将于2023年5月7日生效,最终以产品详情页实际情况为准,阿里云百科分享阿里云官网发布的降价产品及降价幅度说明:
464 0
|
弹性计算 编解码 负载均衡
重磅!阿里云服务器降价倚天710、intel和GPU最高降幅47%
阿里云服务器降价倚天710、intel和GPU最高降幅47%,ecs.c8y/g8y/r8y、ecs.g7/c7/r7、ecs.gn6v、ecs.gn6i阿里云产品大规模调价,核心云产品价格全线下调,技术红利释放核心产品最高降幅50%,以下产品的价格调整将于2023年5月7日生效,最终以产品详情页实际情况为准,阿里云百科分享阿里云官网发布的降价产品及降价幅度说明:
503 0
|
弹性计算 编解码 负载均衡
看看吧:阿里云ECS服务器降价intel实例、倚天ARM和GPU服务器均参与
阿里云ECS服务器降价intel实例、倚天ARM和GPU服务器均参与,阿里云产品大规模调价,核心云产品价格全线下调,技术红利释放核心产品最高降幅50%,以下产品的价格调整将于2023年5月7日生效,最终以产品详情页实际情况为准,阿里云百科分享阿里云官网发布的降价产品及降价幅度说明:
332 0
|
弹性计算 编解码 负载均衡
重磅!阿里云服务器降价7代intel、GPU服务器和Intel实例最高降幅47%
重磅!阿里云服务器降价7代intel、GPU服务器和Intel实例最高降幅47%,阿里云产品大规模调价,核心云产品价格全线下调,技术红利释放核心产品最高降幅50%,以下产品的价格调整将于2023年5月7日生效,最终以产品详情页实际情况为准,阿里云百科分享阿里云官网发布的降价产品及降价幅度说明:
1073 0
|
1月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
217 1
|
1月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
243 0

热门文章

最新文章

下一篇
oss云网关配置