AI成本革命:DeepSeek-R1与OpenAI的颠覆性突破重构企业智能新范式

简介: AI成本革命:DeepSeek-R1与OpenAI的颠覆性突破重构企业智能新范式

来源:企业网D1net


AI领域的发展日新月异,如果你跟不上步伐,就会落后。


近期的两项进展正在重塑开发者和企业的格局:DeepSeek发布R1模型,以及OpenAI推出新的Deep Research产品,它们共同重新定义了强大推理模型的成本和可及性,这一点已被广泛报道,然而,较少被讨论的是,它们将如何推动公司采用蒸馏、有监督微调(SFT)、强化学习(RL)和检索增强生成(RAG)等技术,来构建更智能、更专业的AI应用。


在DeepSeek惊人成就的初步兴奋感逐渐平息后,开发者和企业决策者需要考虑这对他们意味着什么。从定价、性能到幻觉风险以及干净数据的重要性,以下是这些突破对当今构建AI的任何人来说意味着什么。


更便宜、透明、行业领先的推理模型——但通过蒸馏实现


DeepSeek-R1的亮点很简单:它以OpenAI的o1模型一小部分的成本,提供了行业领先的推理模型。具体来说,它的运行成本大约便宜30倍,而且与许多封闭模型不同,DeepSeek对其推理步骤提供了完全的透明度。对于开发者而言,这意味着你现在可以构建高度定制的AI模型,而无需花费巨资——无论是通过蒸馏、微调还是简单的RAG实现。


特别是蒸馏,正在成为一种强大的工具。通过使用DeepSeek-R1作为“教师模型”,公司可以创建更小、针对特定任务的模型,这些模型继承了R1卓越的推理能力。事实上,这些小型模型是大多数企业公司的未来。完整的R1推理模型对于公司的需求来说可能过于庞大——思考过多,而无法为公司特定的领域应用采取果断行动。“主流媒体中肯定没有人真正在讨论的一点是,实际上,推理模型在像智能体这样的应用上表现并不那么好,”专注于AI智能体的ML开发者Sam Witteveen表示,AI智能体在企业应用中的协调作用日益凸显。


作为其发布的一部分,DeepSeek将其推理能力蒸馏到多个小型模型中,包括Meta的Llama系列和阿里巴巴的Qwen系列的开源模型,如其论文所述,这些小型模型随后可以针对特定任务进行优化,这种向更小、更快的模型以满足定制需求发展的趋势将加速:将会涌现出大量这样的模型。“我们现在正开始进入一个人们使用多个模型的世界,他们不再只是一直使用一个模型,”Witteveen说。这也包括来自Google和OpenAI的低成本、小型封闭源模型。“这意味着像Gemini Flash、GPT-4o Mini这些非常便宜的模型,实际上在80%的使用场景中表现都非常好。”他表示。


蒸馏步骤之后,企业公司有几个选项来确保模型已准备好用于其特定应用。如果你是一家处于非常特定领域的公司,该领域的细节不在网络上或书籍中——即大型语言模型(LLM)无法对其进行训练——你可以通过一个称为有监督微调(SFT)的过程,注入你自己的领域特定数据集。一个例子是集装箱建造行业,其规格、协议和法规并不广为人知。


DeepSeek表明,你可以通过“数千”个问答数据集来很好地完成这一任务。关于其他人如何将此付诸实践的一个例子是,IBM工程师Chris Hay演示了他如何使用自己的数学特定数据集对一个小型模型进行微调,以实现闪电般的响应速度——在同一任务上超越了OpenAI的o1。


此外,希望训练模型以更好地符合特定偏好(例如,使客户支持聊天机器人既简洁又富有同情心)的公司,可能希望对模型进行一些强化学习(RL)。如果公司希望其聊天机器人能够根据用户反馈调整语气和建议,这同样很有用。随着每个模型都变得无所不能,“个性”将变得越来越重要,沃顿商学院AI教授Ethan Mollick昨天在X上表示。


然而,对于公司来说,要很好地实施这些SFT和RL步骤可能很棘手。如果用来自特定领域的数据喂养模型,或将其调整为以某种方式行动,它突然就会变得无用,无法执行该领域或风格之外的任务。


对于大多数公司来说,RAG已经足够好


然而,对于大多数公司来说,检索增强生成(RAG)是最简单、最安全的前进道路。RAG是一个相对直接的过程,它允许组织通过其自有数据库中包含的专有数据来为其模型提供基础——从而确保输出准确且特定于领域。在此过程中,大型语言模型将用户的提示输入到向量和图形数据库中,以搜索与该提示相关的信息。RAG过程在查找最相关内容方面已经变得非常擅长。


这种方法也有助于抵消与DeepSeek相关的一些幻觉问题。根据帮助公司进行RAG过程的供应商Vectara进行的一项研究,DeepSeek目前产生幻觉的比例为14%,而OpenAI的o3模型为8%。


对于大多数公司来说,模型的蒸馏加上RAG将产生神奇的效果。即使对于那些数据科学或编码专业知识有限的人来说,这也变得非常容易。我个人下载了DeepSeek蒸馏的1.5b Qwen模型,这是最小的一个,这样它就可以很好地安装在我的MacBook Air上,然后,我将一些求职者的简历PDF加载到向量数据库中,并让模型查看这些求职者,告诉我哪些人有资格在VentureBeat工作。(总的来说,我只用了74行代码就完成了这一切,这些代码我基本上是借鉴了其他做同样事情的人。)


我喜欢Deepseek蒸馏模型展示其推荐或不推荐每位求职者的思考过程——这种透明度在Deepseek发布之前是很难获得的。


在我最近关于DeepSeek和RAG的视频讨论中,我展示了在实际应用中实施RAG已经变得多么简单,即使对于非专家来说也是如此。Sam Witteveen也通过分解RAG管道的工作原理以及为什么企业越来越依赖它们而不是完全微调模型,为讨论做出了贡献。


OpenAI Deep Research:拓展RAG的能力——但有所保留


DeepSeek正在降低推理模型的成本并提高其透明度,而OpenAI周日宣布的Deep Research则代表了一种不同但互补的转变,它可以通过爬取网络来创建高度定制化的研究,从而将RAG提升到新的水平,然后,可以将这项研究的输出作为输入插入到公司可以使用的RAG文档中,与其自有数据一起使用。


这种功能通常被称为智能体RAG,它允许AI系统自主地从互联网上寻找最佳上下文,为知识检索和奠基带来新的维度。


OpenAI的Deep Research与Google的Deep Research、Perplexity和You.com等工具相似,但OpenAI试图通过强调其卓越的链式思维推理使其更准确来区分其产品。这些工具的工作原理如下:公司研究人员要求大型语言模型在一份经过深入研究和引用的报告中查找关于某个主题的所有可用信息。大型语言模型随后会要求研究人员回答另外20个子问题,以确认所需内容,然后,研究用的大型语言模型会进行10次或20次网络搜索,以获取最相关的数据来回答所有这些子问题,随后提取知识并以有用的方式呈现。


然而,这项创新也并非没有挑战。Vectara的首席执行官Amr Awadallah警告说,过度依赖Deep Research等模型的输出存在风险。他质疑这种方法是否真的更准确:“这一点尚不清楚,”Awadallah指出:“我们在各种论坛上看到的文章和帖子都说不是,他们仍然遇到很多幻觉,Deep Research只是和市场上其他解决方案差不多好。”


换句话说,尽管Deep Research提供了颇具前景的能力,但企业在将其输出整合到知识库中时仍需谨慎行事。Awadallah表示,模型的基础知识应来自经过验证、人类认可的来源,以避免级联错误。


成本曲线正在崩溃:为何这很重要


DeepSeek发布的最直接影响是其激进的价格降低。科技行业预计成本会随着时间的推移而下降,但很少有人预料到这一过程会如此迅速。DeepSeek已经证明,强大且开放的模型既可以负担得起,又高效,为广泛的实验和成本效益高的部署创造了机会。


Awadallah强调了这一点,并指出,真正的改变游戏规则者不仅仅是训练成本,还有推理成本,DeepSeek的推理成本约为OpenAI的o1或o3每token推理成本的1/30。“OpenAI、Anthropic和Google Gemini之前能够获得的利润现在将不得不压缩至少90%,因为他们无法以如此高的定价保持竞争力,”Awadallah说。


不仅如此,这些成本还将继续下降。Anthropic的首席执行官Dario Amodei最近表示,开发模型的成本每年继续以大约4倍的速度下降。由此可见,大型语言模型(LLM)提供商的收费也将继续下降。“我完全预计成本将降至零,”Intuit的首席数据官Ashok Srivastava说,该公司一直在其税务和会计软件(如TurboTax和Quickbooks)中大力推动AI的应用。“……延迟也将降至零,它们将成为我们能够使用的通用能力。”


这种成本降低不仅对开发者和企业用户有利,它还表明,AI创新不再局限于拥有数十亿美元预算的大型实验室。进入门槛已经降低,这激励着小型公司和个体开发者以之前难以想象的方式进行实验。最重要的是,Srivastava表示,这些模型如此易于访问,以至于任何商业专业人士都将使用它们,而不仅仅是AI专家。


DeepSeek的颠覆:挑战“大型AI”在模型开发上的主导地位

最重要的是,DeepSeek打破了只有大型AI实验室才能创新的迷思。多年来,OpenAI和谷歌等公司将自己定位为先进AI的守门人,传播这样一种信念:只有拥有丰富资源的顶尖博士才能构建出有竞争力的模型。


DeepSeek颠覆了这种叙事。通过使推理模型开放且负担得起,它赋予了一波新的开发者和企业公司实验和创新的能力,而无需数十亿美元的资金支持。这种民主化在训练后的阶段(如强化学习和微调)尤其重要,因为这些阶段正发生着最令人兴奋的发展。


DeepSeek揭露了AI领域出现的一个谬误,即只有大型AI实验室和公司才能真正创新,这一谬误迫使许多其他AI构建者被边缘化,DeepSeek已经阻止了这种情况,它给了每个人启发,表明在这个领域有很多创新的方式。


数据当务之急:为何干净、精选的数据是企业公司的下一个行动项


虽然DeepSeek和Deep Research提供了强大的工具,但它们的最终有效性取决于一个关键因素:数据质量。整理数据多年来一直是一个重要主题,并在AI时代的过去九年中加速发展,但在GenAI领域,这一点变得更为重要,而现在随着DeepSeek的颠覆性影响,这一点绝对是关键。美国运通首席技术官Hilary Packer昨天在接受记者采访时强调了这一点:“对我们来说,说实话,数据是‘啊哈’时刻。你可以选择世界上最好的模型……但数据是关键。验证和准确性现在是GenAI的圣杯。”


这是企业必须集中精力的地方。虽然追逐最新的模型和技术很诱人,但任何成功的AI应用的基础都是干净、结构良好的数据。无论你是使用检索增强生成(RAG)、有监督微调(SFT)还是强化学习(RL),数据的质量将决定你模型的准确性和可靠性。


虽然许多公司都渴望完善其整个数据生态系统,但现实是完美难以实现。相反,企业应该专注于清理和精选其数据中最关键的部分,以启用能够提供即时价值的点式AI应用。


与此相关的是,关于DeepSeek用于训练其模型的确切数据存在很多疑问,这引发了对其模型权重中存储的知识固有偏见的质疑,但这与其他开源模型(如Meta的Llama模型系列)所面临的问题并无不同。大多数企业用户已经找到了对模型进行微调或利用RAG等方法进行落地的方法,以减轻这种偏见带来的任何问题。这已经足以在企业公司内部形成接受开源、甚至以开源为主导的强劲势头。


同样,毫无疑问的是,许多公司都将使用DeepSeek模型,尽管有人担心该公司来自中国。不过,同样真实的是,在金融或医疗等高度监管的行业中,许多公司在短期内至少会对在任何直接与客户交互的应用中使用任何DeepSeek模型持谨慎态度。


结论:企业AI的未来是开放的、负担得起的和数据驱动的


DeepSeek和OpenAI的Deep Research不仅仅是AI武器库中的新工具,它们还标志着一种深刻转变的信号,即企业将大量推出专门设计、价格极其实惠、功能强大且基于公司自身数据和方法的模型。


对企业而言,信息很明确:构建强大、领域特定AI应用的工具触手可及。如果你不利用这些工具,就有落后的风险,但真正的成功将取决于你如何整理数据、如何利用RAG和蒸馏等技术,以及如何在预训练阶段之后进行创新。


正如AmEx的Packer所说,能够正确处理数据的企业将成为引领下一波AI创新的佼佼者。


版权声明:本文为企业网D1net编译,转载需在文章开头注明出处为:企业网D1net,如果不注明出处,企业网D1net将保留追究其法律责任的权利。


(来源:企业网D1net)

相关文章
|
6天前
|
消息中间件 人工智能 运维
事件驱动重塑 AI 数据链路:阿里云 EventBridge 发布 AI ETL 新范式
“一个简单的数据集成任务,开始时总是轻松愉快的,但随着业务扩展,数据源越来越多,格式越来越乱,整个数据链路就会变得一团糟。”陈涛在演讲中指出了当前 AI 数据处理的普遍困境。扩展难、运维难、稳定性差,这三大挑战已成为制约 AI 应用创新和落地的关键瓶颈。针对这些痛点,在2025云栖大会期间,阿里云重磅发布了事件驱动 AI ETL 新范式,其核心产品 EventBridge 通过深度集成 AI 能力,为开发者提供了一套革命性的解决方案,旨在彻底改变 AI 时代的数据准备与处理方式。
|
17天前
|
存储 机器学习/深度学习 算法
​​LLM推理效率的范式转移:FlashAttention与PagedAttention正在重塑AI部署的未来​
本文深度解析FlashAttention与PagedAttention两大LLM推理优化技术:前者通过分块计算提升注意力效率,后者借助分页管理降低KV Cache内存开销。二者分别从计算与内存维度突破性能瓶颈,显著提升大模型推理速度与吞吐量,是当前高效LLM系统的核心基石。建议收藏细读。
193 8
|
2月前
|
存储 人工智能 NoSQL
阿里云表格存储 Tablestore 全面升级 AI 能力,存储成本直降 30%
近日,阿里云表格存储 Tablestore 宣布全面升级 AI 场景支持能力,正式推出 AI Agent 记忆存储功能,在保障高性能与高可用的同时,整体存储成本降低 30%,标志着 Tablestore 在构建 AI 数据处理和存储的技术内核能力上,迈出关键一步。
212 5
|
1月前
|
人工智能 JSON 搜索推荐
当AI遇上VR:个性化内容创作的“新次元”革命
当AI遇上VR:个性化内容创作的“新次元”革命
95 0
|
2月前
|
人工智能 安全 算法
四位大咖齐聚 《AI 进化论》第二期揭秘专有云 OS 安全信任基石重构之道
《AI 进化论:智算时代操作系统的破局之路》系列直播第二期「重构专有云操作系统安全信任基石」将于 8 月 13 日 14:00 开始。
|
2月前
|
人工智能 IDE 开发工具
通义灵码 AI IDE使用体验(2)项目重构
本文介绍了如何使用灵码IDE将一个简单的CS架构项目重构为BS架构,涉及项目依赖修改、功能迁移、自动开发Web页面等内容,验证了灵码在复杂开发任务中的能力。尽管界面美观度不足,但核心功能已实现。
319 66
|
14天前
|
机器学习/深度学习 人工智能 自然语言处理
AIGC技术深度解析:生成式AI的革命性突破与产业应用实战
蒋星熠Jaxonic,AI技术探索者,深耕生成式AI领域。本文系统解析AIGC核心技术,涵盖Transformer架构、主流模型对比与实战应用,分享文本生成、图像创作等场景的实践经验,展望技术趋势与产业前景,助力开发者构建完整认知体系,共赴AI原生时代。
|
18天前
|
存储 人工智能 关系型数据库
阿里云AnalyticDB for PostgreSQL 入选VLDB 2025:统一架构破局HTAP,Beam+Laser引擎赋能Data+AI融合新范式
在数据驱动与人工智能深度融合的时代,企业对数据仓库的需求早已超越“查得快”这一基础能力。面对传统数仓挑战,阿里云瑶池数据库AnalyticDB for PostgreSQL(简称ADB-PG)创新性地构建了统一架构下的Shared-Nothing与Shared-Storage双模融合体系,并自主研发Beam混合存储引擎与Laser向量化执行引擎,全面解决HTAP场景下性能、弹性、成本与实时性的矛盾。 近日,相关研究成果发表于在英国伦敦召开的数据库领域顶级会议 VLDB 2025,标志着中国自研云数仓技术再次登上国际舞台。
117 0

热门文章

最新文章