大模型叙事下的百度智能云:比创新更重要的,是创新的扩散

本文涉及的产品
多模态交互后付费免费试用,全链路、全Agent
简介: DeepSeek点燃了大模型的“引线”,使其进入爆发期。短短一个多月,大模型能力不断刷新,产业上下游达成落地共识。当前大模型正从早期采用者向早期大众过渡,面临算力瓶颈这一关键挑战。百度智能云通过百舸4.0平台,成功解决了算力供应和成本问题,大幅提升了训练效率和稳定性,助力大模型在各行业的快速应用。随着市场需求的增长,算力需求将呈指数级上升,未来的大模型竞赛不仅是模型之争,更是工程能力和算力布局的较量。百度智能云等企业正稳步推动大模型从创新走向产业应用,开启了一场高效率、低成本的“双螺旋”竞赛。

DeepSeek点燃了“引线”后,大模型再一次进入到了“爆发期”。

短短一个多月里,大模型的能力上限不断被刷新,“落地”已然成为产业上下游的普遍共识。

在这样的局面下,一家企业最佳的生态位是什么呢?

上世纪90年代,杰弗里·摩尔在深入研究了埃弗雷特·罗杰斯的“创新扩散理论”后,在《跨越鸿沟》将“技术采用生命周期”的客户群体分成了五类,分别是创新者、早期采用者、早期大众、后期大众和落后者。

对号入座的话,大模型正处于从早期采用者向早期多数过渡的阶段,也就是“鸿沟”所在的阶段。

由此来审视这轮大模型浪潮,相较于模型层的你追我赶,一场更重要的博弈在于怎么将创新迅速“扩散”到产业中,支撑创新应用的落地。

01 跨越算力鸿沟:一场“双螺旋”竞赛
DeepSeek意外“出圈”后,在流量洪峰的冲击下一度陷入了“崩溃循环”,直到半个多月后才走出“服务器繁忙”。

一些想要接住DeepSeek流量的第三方MaaS平台,则在月亏4亿的压力下,无奈关闭了相关推理服务。

这些现象指向了同一个原因——算力瓶颈。

算力供应的不稳定,即便是DeepSeek这样的团队,也无法在短时间里填补缺口;而算力价格的居高不下,不单单束缚了千万使用者的手脚,MaaS平台也深感压力山大。

大模型想要落地到千行万业,让“智力”转化为实实在在的生产力,首先要打破算力瓶颈。大模型创新扩散的鸿沟,很大程度上属于算力鸿沟,只有打破了算力瓶颈,才能创新的扩散铺平道路。

就在DeepSeek走红的同一时间,百度智能云对外宣布——在百舸4.0的能力加持下,成功点亮昆仑芯三代万卡集群。

如果说DeepSeek给出了模型训练的新思路,百舸4.0给出了跨越算力鸿沟的新解法:通过覆盖大模型落地全流程的算力平台,让用户能够高效率、低成本使用算力。

训练大模型的第一步是创建集群。许多人不知道的是,GPU集群需要大量复杂、琐碎的配置和调试,通常需要几周时间。但基于百舸4.0创建集群,只需要1小时就可以跑起来。

完成创建集群后,真正的考验才刚开始,因为集群的规模越大,出故障的概率就越高,运维的复杂性急剧增加。例如Meta训练Llama3时用了1.6万张GPU的集群,平均每3小时就会出一次故障。同样是万卡任务,百舸4.0可以保障有效训练时长占比达到99.5%,远高于行业内公布的相关指标。

大模型训练既要稳定,也要效率。训练千亿、万亿参数的模型,动辄需要几周到几个月的时间。百舸4.0在集群设计、任务调度、并行策略、显存优化等方面进行了大量优化,最终让端到端的性能提升了30%。

同时不应该忽略的,还有百舸4.0的多芯混训、多芯适配能力。能够把同一厂商不同代际芯片、不同厂商的芯片统一管理,混布成一个集群高效完成模型的训练和推理任务。

按照百度智能云官方公布的数据:在万卡规模上,百舸4.0将两种芯片混合训练的效率折损控制在了5%以内;某金融机构在百舸的支持下,完成了不同型号GPU资源的部署、上线,有力保障了6000多次训练任务。

古代打仗讲求“兵马未动粮草先行”,放到大模型产业同样适用,其中的算力就是“粮草”。想要大模型深入落地到千行万业,势必要开启一场追求高效率和低成本的“双螺旋”竞赛。

可以找到的一个实战案例是:春节假期结束时,有近20家芯片企业在忙着适配DeepSeek,在百舸4.0的赋能下,百度的昆仑芯是国内率先支持单机部署满血版DeepSeekR1的芯片,单机8卡配置便可实现2437tokens/s吞吐,并给出了业内最低的价格。

02 吹响落地号角,工程能力见真章
和每次产业革命初期一样,创新的扩散始于“早期采用者”,往往是创新意识比较明确且有能力进行智能化转型的大中型企业。

某种程度上说,大中型企业的选择,更能折射出真实的市场需求,更能从中洞察到创新的方向。

曾有媒体统计了“2024全年大模型相关中标项目”,一共有910个项目,中标金额约为25.2亿元。其中百度智能云斩获了55个项目,中标金额3.4亿元,在能源、政务、金融等行业的中标数量位于所有厂商第一。

到了2025年1月,公开数据统计到的大模型相关中标项目数量已经达到125个,项目金额为12.67亿元。百度

智能云实现了中标项目数量和中标金额上的双第一,中标金额4.17亿元,占到了全行业的三分之一。

为什么会出现这样的局面?

国际权威咨询机构弗若斯特沙利文进行了深入的市场调研后,在《2024 年中国大模型行业应用优秀案例白皮书》给出了解释:企业用户在大模型落地的主要需求点包含完善的落地指导、先进的产品架构、全面的安全治理以及开放的生态支持,百度智能云代表的AI云厂商在技术生态、行业经验和服务能力方面具备显著优势,能够以高效率、低成本的方式加速大模型的推广与行业应用。

原因依然离不开“高效率和低成本”。

进一步从技术层面剖析的话,和百度智能云的全栈AI技术能力不无关系。

百度是国内为数不多同时深耕芯片、框架、模型、应用的企业,能够针对大模型的训推、部署和调优等进行全流程优化。比如昆仑芯三代万卡集群,在行业内率先验证了可以通过模型优化、并行策略、有效训练率提升、动态资源分配等手段,将训练、微调、推理任务混合部署,进而最大化提升集群综合利用率,降低单位算力成本的可行性。

在大模型进入全球视野的第四年,早已形成了两个战场:第一个战场是大模型训练,第二个战场是大模型落地。

特别是在“百模大战”格局瓦解,大模型的牌桌上仅剩下百度、阿里、DeepSeek、智谱等少数玩家后,越来越多企业将注意力集中到了应用层,思考怎么将技术可能性转化为稳定生产力,讨论如何通过标准化流程、工具链支撑和全生命周期管理,解决大模型开发与部署中的效率、成本和质量矛盾。

在百度智能云的示范下,云厂商竞赛的升维已然是可以预见的结果,倒逼全行业提升工程能力,从底层芯片、智算平台、大模型等多个维度进行布局,推进全栈创新与快速迭代。

也就是说,落地应用的号角吹响后,竞争的天平进一步向“扩散”倾斜,不单单是算力之争、模型之争,而是工程能力的比拼:谁能借助系统性的技术体系和方法论降低成本、提升大模型落地易用性、帮助企业更好地构建AI原生应用,谁才有机会成为最后的赢家。

03 长跑才刚开始,算力仍是重头戏
按照“创新扩散理论”,一旦跨越了从早期采用者到早期大众扩散的“鸿沟”,市场将会进入到高速增长阶段。

2024年被公认是大模型推理应用的元年,2025年注定是落地生花的一年,从央国企先行逐渐演变成一股不可逆的产业浪潮。对算力的需求,将呈现出指数级的增长态势。

折射到AI基础设施的布局上,点亮昆仑芯三代万卡集群的百度智能云并未停下来,还将进一步点亮3万卡集群。百度集团执行副总裁、百度智能云事业群总裁沈抖曾公开表示:“百舸4.0正是为部署10万卡大规模集群而设计的,目前已经具备了成熟的10万卡集群部署和管理能力。”

不只是百度智能云,国外的xAI、Meta、OpenAI等都在积极布局10万卡乃至更大规模的智算集群。

个中原因并不难理解。

一方面,大模型的Scaling Law仍在继续,大模型竞赛本质依然是算力竞赛,能否解决跨地域部署、多芯混训以及集群稳定性等问题,关系着是否能满足源源不断的算力需求,是否有参与大模型竞赛的资格。

另一方面,比创新更重要的,是创新的扩散。大模型赋能千行万业的过程中,需要根据不同企业的需求动态分配计算资源,提高资源利用率的同时,降低云服务的成本,10万卡乃至更大规模的集群至关重要。

参考每次工业革命的时间跨度,大模型的产业竞赛,更像是一场考验耐力的马拉松。擅长耐力赛的百度,正以一种兼顾技术创新与产业落地的独特节奏,稳步推动大模型从创新走向产业应用。

正如World Governments Summit 2025峰会上的一幕,当阿联酋AI部长奥马尔询问“如何看待数据中心和AI基础设施的未来”时,百度创始人李彦宏笃定地回答道:“我们仍需对芯片、数据中心和云基础设施进行持续投入,用于打造更好、更智能的下一代模型。”

相关文章
国家互联网信息办公室关于发布第十批深度合成服务算法备案信息的公告
2025年3月12日,国家网信办公布第十批深度合成算法备案信息,共395款算法通过公示。根据《互联网信息服务深度合成管理规定》,境内深度合成服务提供者和技术支持者需履行备案手续。具体信息可在中国互联网信息服务算法备案系统查询,疑议请发邮件至指定邮箱。附件含完整备案清单。
|
8月前
|
人工智能 并行计算 调度
进行GPU算力管理
本篇主要简单介绍了在AI时代由‘大参数、大数据、大算力’需求下,对GPU算力管理和分配带来的挑战。以及面对这些挑战,GPU算力需要从单卡算力管理、单机多卡算力管理、多机多卡算力管理等多个方面发展出来的业界通用的技术。
1173 165
进行GPU算力管理
|
7月前
|
人工智能 自然语言处理 供应链
从第十批算法备案通过名单中分析算法的属地占比、行业及应用情况
2025年3月12日,国家网信办公布第十批深度合成算法通过名单,共395款。主要分布在广东、北京、上海、浙江等地,占比超80%,涵盖智能对话、图像生成、文本生成等多行业。典型应用包括医疗、教育、金融等领域,如觅健医疗内容生成算法、匠邦AI智能生成合成算法等。服务角色以面向用户为主,技术趋势为多模态融合与垂直领域专业化。
|
8月前
|
机器学习/深度学习 XML 监控
使用A10单卡24G复现DeepSeek R1强化学习过程
本文描述DeepSeek的三个模型的学习过程,其中DeepSeek-R1-Zero模型所涉及的强化学习算法,是DeepSeek最核心的部分之一会重点展示。
1031 184
使用A10单卡24G复现DeepSeek R1强化学习过程
|
8月前
|
人工智能 安全 API
大模型推理主战场:通信协议的标配
DeepSeek加速了模型平权,大模型推理需求激增,性能提升主战场从训练转向推理。SSE(Server-Sent Events)和WebSocket成为大模型应用的标配网络通信协议。SSE适合服务器单向推送实时数据,如一问一答场景;WebSocket支持双向实时通信,适用于在线游戏、多人协作等高实时性场景。两者相比传统HTTPS协议,能更好地支持流式输出、长时任务处理和多轮交互,满足大模型应用的需求。随着用户体量扩大,网关层面临软件变更、带宽成本及恶意攻击等挑战,需通过无损上下线、客户端重连机制、压缩算法及安全防护措施应对。
1076 176
大模型推理主战场:通信协议的标配
|
11月前
|
存储 Web App开发 JavaScript
你的object可能没别人的快/小
本文深入探讨了JavaScript对象在V8引擎中的内存管理和优化策略,特别是在处理大规模数据时可能出现的性能和内存问题。
398 56
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
QwQ-32B为襄阳职业技术学院拥抱强化学习的AI力量
信息技术学院大数据专业学生团队与UNHub平台合作,利用QwQ-32B模型开启AI教育新范式。通过强化学习驱动,构建职业教育智能化实践平台,支持从算法开发到应用的全链路教学。QwQ-32B具备320亿参数,优化数学、编程及复杂逻辑任务处理能力,提供智能教学助手、科研加速器和产教融合桥梁等应用场景,推动职业教育模式创新。项目已进入关键训练阶段,计划于2025年夏季上线公测。
238 10
QwQ-32B为襄阳职业技术学院拥抱强化学习的AI力量
|
7月前
|
人工智能 边缘计算 自然语言处理
Google 发布其开源模型系列最新模型 Gemma 3
Google 发布了其开源模型系列的最新成员 Gemma 3,这是一款轻量级、高性能的 AI 模型,支持多语言和复杂任务。它具备 140+ 语言支持、128K-token 上下文窗口、增强的多模态分析能力以及函数调用功能,适用于聊天 AI、代码生成等多种场景。Gemma 3 在性能上超越 Llama 3-8B 和 Mistral 7B,且仅需单 GPU 即可运行,大幅降低计算成本。提供 1B 至 27B 不同参数规模版本,满足多样化需求,并优化了量化模型以适应边缘计算和移动设备。其多模态设计整合了 SigLIP 图像编码器,扩展上下文窗口至 128k token,显著提升了视觉和文本理解能力。
383 3
Google 发布其开源模型系列最新模型 Gemma 3
|
7月前
|
供应链 算法 搜索推荐
从公布的前十一批其他算法备案通过名单分析
2025年3月12日,国家网信办发布算法备案信息,深度合成算法通过395款,其他算法45款。前10次备案中,深度合成算法累计3234款,其他类别647款。个性化推送类占比49%,涵盖电商、资讯、视频推荐;检索过滤类占31.53%,用于搜索优化和内容安全;调度决策类占9.12%,集中在物流配送等;排序精选类占8.81%,生成合成类占1.55%。应用领域包括电商、社交媒体、物流、金融、医疗等,互联网科技企业主导,技术向垂直行业渗透,内容安全和多模态技术成新增长点。未来大模型检索和多模态生成或成重点。
从公布的前十一批其他算法备案通过名单分析