科技云报道:大模型的火烧到了AI服务器上

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 异构服务器或是大势所趋

科技云报道原创。

大模型的纷争已经随着各大入局者公布产品后,热度逐渐退去,但是由大模型带来的产业链高频共振,已经传递了算力层。

表现最为激烈的,就是AI服务器市场。大模型带来的算力需求,直接引发了一波AI服务器抢购潮和涨价潮。

未命名1689304061.png

据《证券时报》报道,一家检测企业透露,他们在去年6月购买的8台AI服务器到今年三月已经涨价到130万每台,到现在价格飙升至160万每台。不到一年的时间,价格涨幅近20倍。

另外,AI服务器需求量大涨也直接引发了上游材料PPO(聚苯醚,用作高速覆铜板增强材料)的抢购潮,此前有业内相关人士坦言,由于全球PPO主流厂商仅一家,随着AI服务器的放量,PPO未来很有可能成为产业链上的紧缺环节之一。

在这样的背景下,AI服务器厂商扩产的消息也层出不穷。

鸿海集团旗下负责AI服务器业务的鸿佰科技就曾被曝出规划新增五到六条生产线,以应对AI服务器客户要求的消息。

市场火热度可见一斑,这也直接点燃了资本市场。

从1月份开始,以浪潮信息、中际旭创、工业富联为首的AI服务器概念股扶摇直上,多次涨停,甚至连长期亏损的寒武纪,股价都一路飘红。

爆火的“AI服务器”

AI服务器是什么?

AI服务器是一种专门设计用于执行人工智能(AI)、机器学习(ML)、深度学习(DL)等计算密集型任务的高性能服务器。

AI服务器通常配备有高效能的中央处理器(CPU)、图形处理器(GPU)、张量处理器(TPU)或专用的AI加速器,以及大量的内存和存储空间。

在异构方式上,AI服务器可以为CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多种加速卡。

具体的设计和配置可以根据需要进行大量并行处理的具体任务来进行调整。

目前,使用比较广泛的AI服务器是CPU+GPU。这也与传统的服务器区分开来。

据悉,传统服务器主要以CPU为算力提供者,但是在运作的过程中需要引入大量分支跳转中断处理,这使得CPU的内部结构复杂,并不能满足AI时代的需求。

而采用GPU并行计算的AI服务器,单卡核心数达到上千个,擅长处理密集型运算应用,如图形渲染、计算视觉和机器学习。

上述提及的检测企业使用的AI服务器,基础配置就包括8颗英伟达A100GPU和80G存储器。

AI服务器对于AI、ML和DL的计算密集型任务来说非常有用。主要功能包括:

大数据处理:AI服务器能够处理和分析大量数据,这是训练AI和ML模型的关键。

并行计算:由于AI和ML算法需要对大量数据进行复杂的计算,AI服务器通常使用可以并行处理大量数据的硬件,如GPU。

存储和内存:AI服务器通有大量的存储空间和内存,以便存储和处理大量的数据。

网络能力:AI服务器需要高速和低延迟的网络连接,以便快速传输大量的数据。

其实,这也解释了为什么在大模型热浪后,会引发AI服务器的抢购浪。大模型中包含着海量的数据参数、训练、运行都需要更多的计算资源来处理,这就需要更高性能的AI服务器来支持。

当然,这一次AI服务需求大涨最直接的原因是大模型时代的到来,但是实际上,AI服务器在这个节点爆发,与AI技术、大数据的发展都有关。

总的来说,AI服务器的爆火可以归结为以下几个关键因素。

首先,大数据的崛起。现代社会的每个角落,无论是社交媒体、电子商务还是互联网搜索,都在产生大量的数据。

这些数据需要通过复杂的算法进行分析和解读,以发现有用的模式和信息,而AI服务器就能提供足够的计算能力来处理这些任务。

其次,AI和ML的普及也推动了AI服务器的需求。AI和ML现在已经广泛应用于各种行业,包括医疗保健、金融、零售和交通等。

这些领域的进步需要强大的计算能力来处理和分析数据,训练和运行复杂的AI和ML模型。

最后,云计算和边缘计算的发展也为AI服务器的爆火提供了动力。

云计算使得企业和组织能够无需购买和维护昂贵的硬件就能获得强大的计算能力,而边缘计算则需要在接近数据产生地点的服务器上进行数据处理和分析。

AI服务器国内市场格局

AI服务器市场在过去的几年里一直在持续增长,到现今,在大模型的加持下,AI服务器市场盘子越来越大。

据北京研精毕智信息咨询发布的最新数据显示,2022年全年,全球AI服务器行业市场出货量达到85万台,同比增长约11%,到2023年中旬,AI服务器市场出货量接近60万台,相比上年同期增长约39%。

未来,随着自然语言处理和图像、视频等AI大模型的发展,算力需求的持续增长,预计到今年年底,全球AI服务器市场规模将超过200亿美元。

到2025年,预计市场出货量将提升至190万台左右,2022-2025年期间年平均增长率达41.2%。

就具体产业链来说,AI服务器产业链上游为CPU、GPU、内存和硬盘等核心零部件,以及数据库、操作系统和基础管理软件等软件供应;下游为应用市场,包括互联网、云计算和数据中心服务商等。

目前,主导市场的是一些主要的AI服务器制造商,包括华为、浪潮、联想和中科曙光等,这些公司的服务器被广泛应用于AI和ML的研究和商业应用。

不过,值得注意的是,浪潮信息于近日发布了一份营收净利润双双下滑的半年度业绩预告。

其中,浪潮信息2023年上半年扣非净利润同比下滑88%-99%。对此,浪潮信息方面称,2023年上半年,受全球GPU及相关专用芯片供应紧张等因素的影响,营业收入出现下滑。

实际上,有行业人士分析,在AI服务器大火的背景下,浪潮信息业绩不及预期,深层次原因还是在于传统服务器行业整体不景气,而目前浪潮信息AI服务器实际所占比例并不大。

浪潮信息此前曾表示,总体来看,公司AI服务器的整体业务占比在上升。AI服务器需求大涨带来的业绩,或许能在浪潮信息2023年年报才能体现。

不过,根据IDC发布的《2022年第四季度中国服务器市场跟踪报告Prelim》,目前,在整个服务器市场(涵盖AI服务器和传统服务器)浪潮份额依旧以28.1%领先,但相比于去年30.8%的份额,还是有所下滑。

其实这也与说明一点,传统CPU服务器行业受到AI的影响,市场逐渐萎靡。未来以AI服务器为代表的异构服务器或是大势所趋。

在应用市场,数据显示,全球市场中以Microsoft、Google、Meta和AWS为代表的四家北美云端供应商采购量相对比较高。

2022年末,Microsoft以接近20%的采购量占据当年首位;Google、Meta和AWS采购量占比排在之后,分别达到17%、15%和14%。

在国内,随着科技厂商入局大模型已经大模型创业的兴起,AI算力基础设施的加快建设,对AI服务器的采购量占比也在相应升高。

2022年年末,字节跳动的AI服务器采购量大幅度提高,市场占比达到6%。

然而,市场也面临着一些挑战。首先,是能源消耗的问题。尽管AI服务器的性能在不断提高,但其能耗也在增加。这对于环保和电力供应来说都是一个问题。

其次,AI和ML的快速发展和变化要求服务器制造商必须持续投入研发,以确保他们的产品能够满足最新的需求。

关于未来,国内的AI服务器市场有很大的潜力。随着AI、ML和DL的进一步发展和应用,预计对AI服务器的需求将继续增长。

此外,随着5G和物联网技术的普及,未来在边缘计算领域对AI服务器的需求将会增加。

总的来说,尽管市场面临着一些挑战,但AI服务器的快速发展和广泛应用表明,这是一个充满活力和潜力的市场。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
16天前
|
人工智能 Java Serverless
阿里云函数计算助力AI大模型快速部署
随着人工智能技术的快速发展,AI大模型已经成为企业数字化转型的重要工具。然而,对于许多业务人员、开发者以及企业来说,探索和利用AI大模型仍然面临诸多挑战。业务人员可能缺乏编程技能,难以快速上手AI模型;开发者可能受限于GPU资源,无法高效构建和部署AI应用;企业则希望简化技术门槛,以更低的成本和更高的效率利用AI大模型。
76 12
|
3天前
|
机器学习/深度学习 人工智能 物联网
AI赋能大学计划·大模型技术与应用实战学生训练营——湖南大学站圆满结营
12月14日,由中国软件行业校园招聘与实习公共服务平台携手魔搭社区共同举办的AI赋能大学计划·大模型技术与产业趋势高校行AIGC项目实战营·湖南大学站圆满结营。
AI赋能大学计划·大模型技术与应用实战学生训练营——湖南大学站圆满结营
|
15天前
|
人工智能 安全 数据安全/隐私保护
文档智能 & RAG让AI大模型更懂业务测评
文档智能 & RAG让AI大模型更懂业务
144 74
|
2天前
|
机器学习/深度学习 人工智能 智能设计
VisionFM:通用眼科 AI 大模型,具备眼科疾病诊断能力,展现出专家级别的准确性
VisionFM 是一个多模态多任务的视觉基础模型,专为通用眼科人工智能设计。通过预训练大量眼科图像,模型能够处理多种眼科成像模态,并在多种眼科任务中展现出专家级别的智能性和准确性。
25 4
VisionFM:通用眼科 AI 大模型,具备眼科疾病诊断能力,展现出专家级别的准确性
|
12天前
|
存储 人工智能 自然语言处理
ChatMCP:基于 MCP 协议开发的 AI 聊天客户端,支持多语言和自动化安装 MCP 服务器
ChatMCP 是一款基于模型上下文协议(MCP)的 AI 聊天客户端,支持多语言和自动化安装。它能够与多种大型语言模型(LLM)如 OpenAI、Claude 和 OLLama 等进行交互,具备自动化安装 MCP 服务器、SSE 传输支持、自动选择服务器、聊天记录管理等功能。
84 15
ChatMCP:基于 MCP 协议开发的 AI 聊天客户端,支持多语言和自动化安装 MCP 服务器
|
16天前
|
机器学习/深度学习 人工智能 自然语言处理
GLM-4V-Flash:智谱 AI 免费开放的图像理解大模型 API 接口
智谱AI推出的GLM-4V-Flash是一款专注于图像理解的免费开放大模型,提供API接口支持用户上传图片URL或Base64编码图片获取详细的图像描述。该模型通过深度学习和卷积神经网络技术,简化了图像分析流程,提高了开发效率,适用于内容审核、辅助视障人士、社交媒体、教育和电子商务等多个应用场景。
101 14
GLM-4V-Flash:智谱 AI 免费开放的图像理解大模型 API 接口
|
3天前
|
人工智能 安全 机器人
OpenAI重拾规则系统,用AI版机器人定律守护大模型安全
在人工智能领域,大语言模型(LLM)展现出强大的语言理解和生成能力,但也带来了安全性和可靠性挑战。OpenAI研究人员提出“规则基于奖励(RBR)”方法,通过明确规则引导LLM行为,确保其符合人类价值观和道德准则。实验显示,RBR方法在安全性与有用性之间取得了良好平衡,F1分数达97.1。然而,规则制定和维护复杂,且难以完全捕捉语言的多样性。论文:https://arxiv.org/pdf/2411.01111。
29 13
|
2天前
|
人工智能 安全 图形学
【AI落地应用实战】篡改检测技术前沿探索——从基于检测分割到大模型
在数字化洪流席卷全球的当下,视觉内容已成为信息交流与传播的核心媒介,然而,随着PS技术和AIGC技术的飞速发展,图像篡改给视觉内容安全带来了前所未有的挑战。 本文将探讨篡改检测技术的现实挑战,分享篡改检测技术前沿和最新应用成果。
|
9天前
|
人工智能 API Windows
免费部署本地AI大语言模型聊天系统:Chatbox AI + 马斯克grok2.0大模型(简单5步实现,免费且比GPT4.0更好用)
本文介绍了如何部署本地AI大语言模型聊天系统,使用Chatbox AI客户端应用和Grok-beta大模型。通过获取API密钥、下载并安装Chatbox AI、配置模型,最终实现高效、智能的聊天体验。Grok 2大模型由马斯克X-AI发布,支持超长文本上下文理解,免费且易于使用。
40 0
|
1天前
|
人工智能 JSON Linux
利用阿里云GPU加速服务器实现pdf转换为markdown格式
随着AI模型的发展,GPU需求日益增长,尤其是个人学习和研究。直接购置硬件成本高且更新快,建议选择阿里云等提供的GPU加速型服务器。
利用阿里云GPU加速服务器实现pdf转换为markdown格式

热门文章

最新文章