【译文】OpenAI声称计划自研AI芯片

简介: 【译文】OpenAI声称计划自研AI芯片

原文地址:https://techcrunch.com/2023/10/06/openai-said-to-be-considering-developing-its-own-ai-chips

OpenAI, one of the best-funded AI startups in business, is exploring making its own AI chips.

OpenAI,作为商业领域资金充裕的最佳人工智能初创公司之一,正在考虑开发自己的AI芯片。

Discussions of AI chip strategies within the company have been ongoing since at least last year, according to Reuters, as the shortage of chips to train AI models worsens. OpenAI is reportedly considering a number of strategies to advance its chip ambitions, including acquiring an AI chip manufacturer or mounting an effort to design chips internally.

据路透社报道,至少自去年开始,OpenAI公司内部一直在讨论AI芯片战略,因为用于训练AI模型的芯片短缺情况加剧。OpenAI据称正在考虑多种策略来推进其芯片计划,包括收购AI芯片制造商或着手内部芯片设计的工作,以满足其雄心壮志。

OpenAI CEO Sam Altman has made the acquisition of more AI chips a top priority for the company, Reuters reports.

据路透社报道,OpenAI的CEO萨姆·奥尔特曼已将获取更多AI芯片置于公司的首要任务之中。

Currently, OpenAI, like most of its competitors, relies on GPU-based hardware to develop models such as ChatGPT, GPT-4 and DALL-E 3. GPUs’ ability to perform many computations in parallel make them well-suited to training today’s most capable AI.

目前,OpenAI像其大多数竞争对手一样,依赖基于GPU的硬件来开发模型,例如ChatGPT、GPT-4和DALL-E 3。GPU的并行计算能力使它们非常适合训练当今最先进的人工智能模型。

But the generative AI boom — a windfall for GPU makers like Nvidia — has massively strained the GPU supply chain. Microsoft is facing a shortage of the server hardware needed to run AI so severe that it might lead to service disruptions, the company warned in a summer earnings report. And Nvidia’s best-performing AI chips are reportedly sold out until 2024.

但是,生成式人工智能的蓬勃发展已经极大地压紧了GPU供应链,对于像Nvidia这样的GPU制造商来说,这是一笔巨大的财富。微软在夏季财报中警告称,他们正面临严重的服务器硬件短缺问题,可能导致服务中断。而据报道,Nvidia最高性能的AI芯片已售罄,直到2024年。

GPUs are also essential for running and serving OpenAI’s models; the company relies on clusters of GPUs in the cloud to perform customers’ workloads. But they come at a sky-high cost.

GPU对于运行和提供OpenAI的模型至关重要;该公司依赖云中的GPU集群来处理客户的工作负载。但这也伴随着极高的成本。

An analysis from Bernstein analyst Stacy Rasgon found that if ChatGPT queries grew to a tenth the scale of Google Search, it’d require roughly $48.1 billion worth of GPUs initially and about $16 billion worth of chips a year to keep operational.

来自伯恩斯坦分析师斯泰西·拉斯冈的分析发现,如果ChatGPT的查询规模增长到谷歌搜索的十分之一,就需要大约480.1亿美元的GPU初始投资以及每年约160亿美元的芯片运营费用。

OpenAI wouldn’t be the first to pursue creating its own AI chips.

OpenAI并非首家追求自主研发AI芯片的公司。

Google has a processor, the TPU (short for “tensor processing unit”), to train large generative AI systems like PaLM-2 and Imagen. Amazon offers proprietary chips to AWS customers both for training (Trainium) and inferencing (Inferentia). And Microsoft, reportedly, is working with AMD to develop an in-house AI chip called Athena, which OpenAI is said to be testing.

谷歌拥有一款处理器,名为TPU(缩写为“张量处理单元”),用于训练大规模生成式AI系统,如PaLM-2和Imagen。亚马逊为AWS客户提供专有芯片,用于训练(Trainium)和推理(Inferentia)。而据报道,微软正在与AMD合作开发一款名为Athena的内部AI芯片,OpenAI据称正在进行测试。

Certainly, OpenAI is in a strong position to invest heavily in R&D. The company, which has raised more than $11 billion in venture capital, is nearing $1 billion in annual revenue. And it’s considering a share sale that could see its secondary-market valuation soar to $90 billion, according to a recent Wall Street Journal report.

当然,OpenAI有充分的资金来大力投资研发(研究与开发)。这家公司已经获得了超过110亿美元的风险投资,年度收入接近10亿美元。根据最近的《华尔街日报》报道,该公司正考虑进行股权出售,这可能会使其在二级市场的估值飙升至900亿美元。

But hardware is an unforgiving business — particularly AI chips.

但硬件是一个不容忽视的领域,特别是在AI芯片方面。

Last year, AI chipmaker Graphcore, which allegedly had its valuation slashed by $1 billion after a deal with Microsoft fell through, said that it was planning to job cuts due to the “extremely challenging” macroeconomic environment. (The situation grew more dire over the past few months as Graphcore reported falling revenue and increased losses.) Meanwhile, Habana Labs, the Intel-owned AI chip company, laid off an estimated 10% of its workforce. And Meta’s custom AI chip efforts have been beset with issues, leading the company to scrap some its experimental hardware.

去年,据称与微软的交易未能达成导致估值下调了10亿美元的AI芯片制造商Graphcore表示,由于“极具挑战的”宏观经济环境,他们计划进行员工裁减。在过去几个月里,Graphcore报告了营收下滑和亏损增加的情况,局势变得更加严峻。与此同时,英特尔旗下的AI芯片公司Habana Labs裁减了估计10%的员工。而Meta(前Facebook)的自有AI芯片项目也遇到了一些问题,导致该公司取消了一些实验性的硬件项目。

Even if OpenAI commits to bringing a custom chip to market, such an effort could take years and cost hundreds of millions of dollars annually. It remains to be seen if the startup’s investors, one of which is Microsoft, have the appetite for such a risky bet.

即使OpenAI决定推出自家的芯片,这样的努力可能需要数年时间,并且每年成本可能高达数亿美元。目前尚不清楚这家初创公司的投资者,其中之一是微软,是否愿意承担这样高风险的赌注。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
15天前
|
人工智能 编解码 机器人
OpenAI又出王炸了!正式推出超强AI视频模型Sora
OpenAI正式推出AI视频生成模型Sora,可根据文本提示生成逼真视频,面向美国及其他市场ChatGPT付费用户开放。Sora Turbo支持生成长达20秒的视频及多种变体,具备模拟物理世界的新兴能力,可创建多镜头视频,提供Remix和Storyboard等创新功能。
43 4
OpenAI又出王炸了!正式推出超强AI视频模型Sora
|
2天前
|
人工智能 安全 机器人
OpenAI重拾规则系统,用AI版机器人定律守护大模型安全
在人工智能领域,大语言模型(LLM)展现出强大的语言理解和生成能力,但也带来了安全性和可靠性挑战。OpenAI研究人员提出“规则基于奖励(RBR)”方法,通过明确规则引导LLM行为,确保其符合人类价值观和道德准则。实验显示,RBR方法在安全性与有用性之间取得了良好平衡,F1分数达97.1。然而,规则制定和维护复杂,且难以完全捕捉语言的多样性。论文:https://arxiv.org/pdf/2411.01111。
27 13
|
4天前
|
人工智能 自然语言处理 前端开发
openai 12天发布会收官 | AI大咖说
OpenAI这12天的发布会,并没有太多特别令人惊喜的内容,可能是前面的惊喜太多了。更多的是,让ChatGPT越来越侧重参与现实中的应用,真正赋能改变生活,包括projects项目管理,canvas文档写作,接入电话,接入ios,接入桌面,接入搜索,以及chatGPT桌面和更多应用的交互。 以及更多的多模态的延展,视觉vision,语音,视频sora。 在最后收官中,宣布新一代的O3和O3-mini更强的推理模型
76 11
|
11天前
|
人工智能 自然语言处理 前端开发
OpenAI 12天发布会全解析 | AI大咖说
OpenAI近日宣布将在12个工作日内每天进行一场直播,展示一系列新产品和样品。首日推出GPT-o1正式版,性能大幅提升;次日展示Reinforcement Fine-Tuning技术,提高模型决策质量;第三天推出Sora,实现高质量视频生成;第四天加强Canvas,提升多模态创作效率;第五天发布ChatGPT扩展功能,增强灵活性;第六天推出ChatGPT Vision,实现多模态互动;第七天推出ChatGPT Projects,优化项目管理。这些新技术正改变我们的生活和工作方式。
736 9
|
23天前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
63 12
|
21天前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
26天前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
47 0
|
26天前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
44 0
|
2月前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
230 2
|
20天前
|
Go 开发工具
百炼-千问模型通过openai接口构建assistant 等 go语言
由于阿里百炼平台通义千问大模型没有完善的go语言兼容openapi示例,并且官方答复assistant是不兼容openapi sdk的。 实际使用中发现是能够支持的,所以自己写了一个demo test示例,给大家做一个参考。