科技云报道:开源才是大模型的未来?

简介: 快速超越还是平分秋色?

科技云报道原创。

一年前,ChatGPT横空出世;7个多月后,Meta宣布开源LLaMA 2,并且可免费商用。

这一天,也成为大模型发展的分水岭。短时间内,LLaMA 2对一些闭源的大模型厂商造成了致命性的打击。

随后,全球头部厂商和创业公司纷纷加入开源浪潮中。目前,国内也有近一半的大模型选择了开源的方式:

今年7月,智谱AI宣布开源大模型ChatGLM-6B和ChatGLM2-6B,这两个模型的下载量已经先后超过300万和120万。

8月,阿里宣布开源通义千问70亿参数模型Qwen-7B,一个多月下载量破100万;12月,阿里持续开源通义千问720亿参数模型Qwen-72B、18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio。

9月,百川智能宣布开源Baichuan-7B、13B两款大模型,其下载量目前已经突破500万,200多家企业申请部署开源大模型。

11月,元象XVERSE宣布开源650亿参数高性能通用大模型XVERSE-65B;

11月底,浪潮信息发布完全开源且可免费商用的源2.0基础大模型,包含1026亿、518亿、21亿不同参数规模......

仅仅在过去的一个月内,国内最大开源模型的参数纪录就已经被刷新了N次。性能参数、性价比、可靠性,正成为抢占先机的关键词,而开源似乎也成为大模型发展的主流趋势。

10191.jpg

有业内人士认为,未来90%的企业会倾向基于开源大模型发展。那么,开源是否真的是大模型的未来?

开源大模型快速赶超

开源大模型的核心理念是开放源代码,允许公众访问、使用、修改和分发模型的源代码。

面对市场竞争,开源大模型的免费使用是非常有吸引力的获客手段;同时,低成本的试错也有助于开源大模型更快触达潜在用户群体,降低企业认知和决策难度,加速创新。

从技术角度看,大模型涉及许多技术问题,单靠一家企业很难解决。开源大模型鼓励全球开发者社区的参与和贡献,这种集体智慧能够加速技术的迭代和创新,如GitHub上的众多AI项目就证明了这一点。

不仅如此,开源代码使得研究人员和用户能够审查模型的工作原理和决策过程,从而提高大模型的透明度和可信赖性。这对于解决AI的公平性、偏见和伦理问题至关重要。

事实上,自从LLaMA 2开源后,业界开始意识到大模型技术没有任何护栏。

基于成本的考虑,许多企业选择放弃支付上千万元的调用闭源大模型API的费用,转而部署和微调LLaMA 2。

创业者们的目光从解构、增强LLaMA 2转向了构建行业专有大模型,又掀起了一波LLaMA 2+司法、LLaMA 2+医疗等一系列的行业开源大模型。据不完全统计,LLaMA 2开源后,国内就涌现出了十几个开源行业大模型。

一份从谷歌内部泄露出来的备忘录(标题是《我们没有护城河》)证实了这种观点:

“我们无法赢得这场军备竞赛,OpenAI 也一样。当我们争吵不休的时候,第三个派系(开源)却在悄悄地吃掉我们的午餐”。

谷歌备忘录作者发现,自从LLaMA开源后,立刻出现了大量的创新,重大开发成果之间的间隔也在缩短。

Meta是一个明显的赢家,他们有效地获得了整个星球的免费劳动力,大多数开源创新都发生在他们的架构之上,没有什么能阻止他们将其直接整合到他们的产品中。

“当免费、不受限制的替代品在质量上具有可比性时,人们就不会为受限制的模型付费”,备忘录里写道。

最近,Meta首席AI科学家Yann LeCun转发了方舟投资(ARK Invest)制作的一张趋势图,描绘了开源社区与闭源模型在生成式AI上的发展。

“开源人工智能模型正走在超越专有模型的路上”,他感概道。

有网友甚至表示,我们正在接近一个临界点。以目前开源社区项目的发展速度,开源大模型将在未来12个月内达到GPT-4的水平。

未来1-2年,开源力量可能在与闭源大模型分庭抗礼。

开源大模型的商业化挑战

尽管开源已成为现阶段大模型发展的一种主流趋势,开源大模型的发展速度也远快于封闭生态系统,但并非所有的厂商都选择开源路线,也并不代表厂商会一直开源所有的大模型。

比如,以开源切入大模型赛道的百川智能,在发布完Baichuan-7B、Baichuan-13B开源大模型后,参数更大的Baichuan-53B大模型则选择了闭源。

由此可见,开源或闭源并非大模型的唯一发展路径。在当下,能够闭源的大模型一定是可以提供足够高的价值,帮用户更好地完成高性能的大模型训练、推理和部署,通过调用API的方式来帮助用户降低门槛。

这也是OpenAI等AI巨头闭源的思路,因其自身技术的绝对领先优势,使得其价值也非常的大。

相比之下,开源大模型除了快速迭代、证明自己的价值,还面临着更多的挑战,比如:

由于源代码的公开性,开源大模型可能更容易受到恶意攻击或滥用,确保数据安全和用户隐私需要额外的努力和监管。

同时,来自商业模式的不确定性,如何在保持开放的同时实现可持续的商业发展,始终是开源需要解决的重要问题。

回顾历史,红帽在开源商业化成功的道路上已做出了示范。作为最早通过提供企业级 Linux 发行版和相关服务的公司,红帽通过订阅模式为客户提供技术支持、更新和定制化服务。

红帽的商业化路径具体而言:在最上游的开源社区,参与开源技术贡献,做大做强生态;提取开源社区中的上游技术产品,沉淀到自己小开源社区;再将其认为最有价值的技术检验、测试、打包,形成新的产品组合,完成闭源出售给客户。

同样将开源成功商业化的公司还有MongoDB, Databricks, Cloudera, GitLab, Docker, MySQL AB......这些案例都表明,开源软件可以通过提供增值服务、技术支持、企业级特性、云服务等方式实现商业化,同时保持与开源社区的互动和合作。

尽管珠玉在前,但并不代表开源大模型商业化是一件容易的事。

在如此多的开源大模型竞争压力下,如何提高自身大模型在用户中的知名度和接受度,让用户从免费使用转向付费服务,同时还要防止竞争对手可能基于相同的代码库创建自己的产品或服务,都考验着开源大模型厂商的能力和速度。

开源与闭源大模型的协同演化

实际上,开源大模型和闭源大模型各有优劣,且在不同的应用场景和需求下各有其适用性,两者并非绝对的对立面,而是可以在某些方面相互借鉴和融合。

开源是为了保持社区的繁荣和多样性,能够保证技术、产品能够源源不断补充新鲜的血液和产生新的变化。

闭源的商业化版本是用来满足商业化的需求,即安全、低成本、高效、持续有价值的服务。对比商业版本,开源版本一定是滞后的,包括技术的迭代、维护等等。

因此,两者的优势并不在同一个位置,也很难断言哪一个模式将完全主导大模型的未来。相反,可以预见的是,开源和闭源大模型将在以下几个方面实现协同演化:

一是,共享与竞争并存。

开源大模型和闭源大模型将在某些领域展开激烈的竞争,如自然语言处理、计算机视觉等。同时,它们也可能在其他领域共享成果和技术,推动整个AI行业的进步。

二是,混合模式的出现。

为了兼顾创新速度、透明度、安全性和商业利益,一些公司可能会选择采用混合模式,即开放基础模型的源代码,但保留高级功能或特定应用的闭源。

这种模式既可以吸引开发者和用户的参与,又可以保护公司的核心竞争力。

三是,标准化与监管的加强。

随着AI技术的发展和应用的普及,政府和行业组织可能会加强对开源和闭源大模型的标准化和监管工作,以确保模型的安全、公平和透明。

这将进一步规范市场行为,促进开源和闭源大模型的健康发展。

结语

当然,无论是开源还是闭源,重要的是持续创新、提升透明度和安全性,以及实现AI技术的社会价值和经济价值的最大化。比起断定谁会是大模型的未来,不如去关注如何合理利用这两种模式,去塑造一个更加智能、开放、安全和可持续的AI未来。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

相关文章
|
3月前
|
分布式计算 测试技术 Spark
科大讯飞开源星火化学大模型、文生音效模型
近期,科大讯飞在魔搭社区(ModelScope)和Gitcode上开源两款模型:讯飞星火化学大模型Spark Chemistry-X1-13B、讯飞文生音频模型AudioFly,助力前沿化学技术研究,以及声音生成技术和应用的探索。
277 2
|
4月前
|
人工智能 算法 开发者
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
343 10
开源VLM“华山论剑”丨AI Insight Talk多模态专场直播预告
|
3月前
|
机器学习/深度学习 数据采集 人工智能
通义实验室Mobile-Agent-v3开源,全平台SOTA的GUI智能体,支持手机电脑等多平台交互
近日,通义实验室MobileAgent团队正式开源全新图形界面交互基础模型 GUI-Owl,并同步推出支持多智能体协同的自动化框架 Mobile-Agent-v3。该模型基于Qwen2.5-VL打造,在手机端与电脑端共8个GUI任务榜单中全面刷新开源模型性能纪录,达成全平台SOTA。
815 2
|
4月前
|
数据采集 机器学习/深度学习 编解码
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
530 0
小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
|
3月前
|
人工智能 Java 开发者
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
JManus是阿里开源的Java版OpenManus,基于Spring AI Alibaba框架,助力Java开发者便捷应用AI技术。支持多Agent框架、网页配置、MCP协议及PLAN-ACT模式,可集成多模型,适配阿里云百炼平台与本地ollama。提供Docker与源码部署方式,具备无限上下文处理能力,适用于复杂AI场景。当前仍在完善模型配置等功能,欢迎参与开源共建。
1466 58
阿里出手!Java 开发者狂喜!开源 AI Agent 框架 JManus 来了,初次见面就心动~
|
4月前
智谱发布GLM-4.5V,全球开源多模态推理新标杆,Day0推理微调实战教程到!
视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外,逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。
690 0
|
4月前
|
编解码 算法 测试技术
MiniCPM-V4.0开源,多模态能力进化,手机可用,还有最全CookBook!
今天,面壁小钢炮新一代多模态模型 MiniCPM-V 4.0 正式开源。依靠 4B 参数,取得 在 OpenCompass、OCRBench、MathVista 等多个榜单上取得了同级 SOTA 成绩,且 实现了在手机上稳定、丝滑运行。此外,官方也正式开源了 推理部署工具 MiniCPM-V CookBook,帮助开发者面向不同需求、不同场景、不同设备,均可实现开箱即用的轻量、简易部署。
613 0
|
4月前
|
人工智能 算法 测试技术
轻量高效,8B 性能强劲书生科学多模态模型Intern-S1-mini开源
继 7 月 26 日开源『书生』科学多模态大模型 Intern-S1 之后,上海人工智能实验室(上海AI实验室)在8月23日推出了轻量化版本 Intern-S1-mini。
644 50

热门文章

最新文章