AI战略丨开源开放,构建 AI 时代的创新引擎

简介: 技术开源和产业开放彼此衔接、相互支撑,构建全产业链合作模式和无边界产业生态圈,日益成为数字时代全球分工体系的主流模式。

image.png

历史不会简单重复,但总会以相似的方式重演。上世纪 90 年代,在美国“自由软件运动”的启蒙下,开源的全球性思潮就此掀起。其中,Linux、MySQL、Hadoop 等开源技术彻底重塑了全球技术生态,其影响力远超代码本身,渗透到经济、社会和创新模式的深层结构。例如,Linux 打破了操作系统垄断,Statista 2025 年数据显示,全球 95% 的公有云实例、99% 的 TOP500 超级计算机基于 Linux 运行;MySQL 则是改变了数据库天价授权的局面,根据 Slintel 网站的统计,在全球关系数据库市场中,MySQL 的市场份额较高,达到 43.04%,而 Oracle 只有 16.76%;Hadoop 突破了大数据技术封闭体系,让中小企业以 1/10 成本获得 PB 级数据处理能力。

从操作系统、芯片到数据库和大数据,从云计算到 AI、大模型,几乎所有的关键科技领域,全球的企业和开发者都曾或正在拥抱开源,争相从开源的技术创新中获益。

AI 时代,技术开源、产业开放正成为科技创新发展的关键引擎。

数字文明的沃土

今年,“开源”首次被明确列入国民经济和社会发展五年规划纲要,文中特别提到,要“支持数字技术开源社区等创新联合体发展,完善开源知识产权和法律体系,鼓励企业开放软件源代码、硬件设计和应用服务”。可见,“开源”已经从国家战略层面得到充分的支持,相关技术的发展与落地应用已是大势所趋。

开源生态中,创新的效率被无限激活——它让技术突破不再受限于壁垒,让每个创意都能在协作中快速生长。开放的开源社区,正在构建完整的 AI 产业图谱,推动中国 AI 产业打破垄断、健康崛起,走向全球价值链的核心。以深度学习框架为例,一些早期开源项目如 Google Brain 的 TensorFlow,和 Facebook AI Research 的 PyTorch 等的出现,深受深度学习开发者广泛欢迎。

根据 2023 年 GitHub 年度报告,PyTorch 已成为最活跃的开源项目之一,拥有超过 6 万名贡献者。这些框架提供了完整的 API 文档、教程和社区支持,使得即使是资源有限的小团队也能开展 AI 研发。

开源可以有效打破 AI 企业的垄断局面,技术分权也让 AI 从大公司集中化转化为按需分配的基础设施。

大模型公司最近几年的发展充分证明了这一点。

当 OpenAI 发布 GPT-3 时,其技术细节并未完全公开。 2024 年 4 月 18 日,Meta 开源 80 亿和 700 亿参数规模的 LLaMA3 系列大模型,为初创企业和科研机构等主体提供了一个强大的免费选择,作为 OpenAI 专有模型的补充。

截至目前,阿里巴巴已开源 300 余款通义大模型,通义千问衍生模型突破 14 万个,超越 Meta 的 Llama 系列成为全球第一的开源模型家族,通义也是开发者和企业使用最广泛的大模型。

如今,开源开放已成为 AI 发展的沃土,它通过降低门槛、加速创新、打破垄断和促进协作,推动着 AI 技术的民 主化进程,并进一步推动 AI 应用不断深入。

红帽 2024 调查报告中,83% 企业认为开源是 AI 战略的核心,混合商业模式(开源 + 云服务)成主流。

点燃 AI 的火花

所谓开源,传统认知上是“软件开源”,即对软件源代码进行开源,开发者可以通过开源平台访问、获取、修改以及分发其中的代码。但如今的 AI 大模型由于其组成部分众多,单纯的软件开源定义无法囊括其范畴,除了广泛意义上的源代码开源,还涉及到模型权重、模型工具、库的开源,以及开放的开发和产业生态。

2025 年,大模型的开源闭源之争在某些特定领域开始出现地位上的互换。

一方面,尽管闭源仍保持领跑优势,但当开源模型与闭源模型质量相当,且差距不大的情况下,客户并不会为受限制的模型而付费。相反,开源模型与闭源模型的平均能力差距正在急剧缩小,顶尖开源模型能力已经比肩OpenAI 的 GPT 等闭源模型。结合影响力和技术代差等关键维度,Qwen、DeepSeek 等国产开源大模型在全球大模型竞争中开始占据领先地位。

另一方面,开源模型之间的竞争也同样取决于开放程度。 因为全球的企业和个人开发者会在不同的环境和场景中 选择适合的开源模型,进一步推动技术快速创新迭代。

在数量和迭代速度上,近年来,全球发布的基础模型中,开源模型的占比呈现出显著的增长趋势,从 2021 年的 33% 大幅提升至 2024 年的 73%。Gartner 预测, 2025 年 70% 新 AI 项目将基于开源模型开发。

image.png

阿里云研究院的调研数据也印证了这一趋势:2024 年 12 月中国企业在大模型的应用中,仅开源模型的采用比例接 近 35%,同时使用开源与闭源模型的企业占比达 51%,显著高于仅使用闭源模型的 14%。到 2025 年 3 月,仅采用开源模型的比例更是提升 12 个百分点接近 47%。

对于企业而言,使用同等质量的开源大模型其优势可不只是“免费”,而在于以下三方面好处:一是场景更灵活, 可以自行定制最适合业务场景的模型;二是数据更自主,自有隐私数据不出域;三是供给更可控,避免被闭源模 型供应商锁定。

企业对开源模型的采用率不断上升的同时,我们看到大量开源大模型正进一步提升竞争优势,除了继续投入技术研发实现快速迭代和性能突破外,还对开源社区生态大力扩张。随着大模型开源框架、推理引擎以及活跃的开源社区不断涌现,它们将为大模型的技术创新与广泛应用提供坚实有力的支持。

image.png

阿里云的开源战略与实践

阿里云一直是开源路线的坚定践行者。早先,阿里云就在 OpenAnolis 龙蜥操作系统、云原生等云计算产品上持续开源。

阿里巴巴集团董事长蔡崇信曾在公开访谈中表示,“技术进步的意义不在于中国是否拥有比美国更好的 AI,而是在于开源能够普惠地帮助人们掌握 AI 的力量。”

在大模型领域,阿里云是国内最早、也是全球唯一一家自主研发先进 AI 模型且全方位开源的云计算厂商。阿里云研发的通义大模型已率先实现“全尺寸、全模态、多场景”开源,基于魔搭社区、HuggingFace 及 GitHub 等平台 Apache2.0 协议,成为受企业和开发者欢迎的大模型之一。

通义大模型的开源起点可以追溯到 2023 年,彼时全球开源大模型市场仍由 Meta Llama 等海外产品主导。同年 8月,阿里云开源了首个基础模型 Qwen-7B,以中英双语支持和 70 亿参数规模打破技术垄断。此后通义千问 Qwen1.5、Qwen2、Qwen2.5、Qwen3,以及通义万相 Wan 2.1 相继开源,囊括大语言模型、多模态模型、数学模型、代码模型、推理模型以及视频生成大模型等数十款,多次登上国内外权威大模型榜单,不断为国产大模型生态添砖加瓦。

相较于动辄千亿参数的大模型,阿里云起初就开发了从轻量级到超大规模的完整模型矩阵,用户可根据实际需求灵活选择。对于开发者而言,不同版本则适合于不同场景和硬件设备。例如小尺寸的模型,可以在移动端上 运行;而大尺寸的模型,需要高端 GPU 部署,适用于大企业做科研或商业服务。

另外,通义千问在性能表现上展现出显著优势,以Qwen 3 为例,在基准测试中,与 DeepSeek-R1 相当,远胜于 o1-mini 及相同尺寸的 R1 蒸馏模型,实现了“更小尺寸、更高性能”的技术突破。斯坦福大学人工智能研究所于 2025 年 4 月发布的最新报告《2025 年人工智能指数报告》显示,中美顶级 AI 大模型性能差距大幅缩至 0.3%,接近抹平。其中,阿里巴巴重要模型贡献度位列全球第三。

年初 DeepSeek-R1 推理模型的横空出世曾在全球 AI 领域引发广泛关注,据其官方开源的 6 个蒸馏小模型中就有 4 个基于 Qwen 构建。这一现象背后,凸显了通义千问作为全球最受欢迎开源基座模型的核心竞争力。

而开源模型的灵活性又能使得开发者可根据自身需求进行定制和开发。3月,多个中科院研究机构接入阿里通义千问 QwQ-32B,国家超算互联网平台接入通义千问大模型,对外提供千问 QwQ-32B API 服务,这均足以证明其开源模型在千行百业已经可以实现落地生根。

2025 年 4 月 29 日,阿里通义千问 Qwen3 系列模型发布并开源,其参数量仅为 DeepSeek-R1 的 1/3,成本大幅下降,且性能与 R1、OpenAI-o1 等全球顶尖模型相当,标志着国产大模型实现了从技术追赶者到全球领先大模型的跨越。

在模型开源之外,阿里云也在不遗余力构建开源社区繁荣生态。

魔搭社区自 2022 年 11 月初成立以来,历经两年多高速发展,截至 6 月,已汇聚超 500 家贡献机构,托管的开源模型数量已超 7 万个,增长超 200 倍,用户数量从 2023 年 4 月的 100 万扩展至如今 1600 万,增长约16倍。

魔搭社区已成长为中国最大的 AI 开源社区,业界头部模型均在魔搭社区率先开源,广大的模型开发者在此可以迅速获取到最新最好的模型;与此同时,魔搭也为这些模型提供了迅速触及潜在的用户以及下游生态的桥梁,模型贡献者与模型使用者在魔搭上的双向奔赴,使得模型应用的无限可能,得以被激发。

目前,魔搭社区已形成全链路服务,支持开发者体验、下载、调优、训练、推理、部署模型,覆盖 LLM、对话、 语音、文生图、图生视频、AI 作曲等多个领域,并提供 4000+MCP 服务和调试工具,已支持开发者超过 1 亿次的调用。

结语

AI 时代,开源开放的浪潮正扑面而来,不仅推动技术在产业应用普惠,也反哺 AI 技术创新。技术开源和产业开放彼此衔接、相互支撑,构建全产业链合作模式和无边界产业生态圈,日益成为数字时代全球分工体系的主流模式。

中国数字技术、数字产业的发展既得益于加入全球开源技术体系和开放产业体系,也为全球开源技术体系和开放产业体系的发展作出了重要贡献。

随着开源开放理念深入人心,大模型开源成为不可逆转的大势所趋。坚持开源也是在承担社会责任,阿里云将通过持续的技术开源、生态开放,与全球开发者共同构建,以开放的 AI 云能力服务千行百业。

开源为创新提供底层动力,开放为产业搭建无界生态。中国数字技术的成长,既受益于全球开源开放体系,也以自主创新反哺这一浪潮。

相关文章
|
7天前
|
机器学习/深度学习 人工智能 自然语言处理
大语言模型:理解与构建下一代AI交互
大语言模型:理解与构建下一代AI交互
162 99
|
7天前
|
机器学习/深度学习 人工智能 自然语言处理
Transformer架构:重塑现代AI的核心引擎
Transformer架构:重塑现代AI的核心引擎
268 98
|
9天前
|
人工智能 运维 安全
|
11天前
|
存储 人工智能 关系型数据库
阿里云AnalyticDB for PostgreSQL 入选VLDB 2025:统一架构破局HTAP,Beam+Laser引擎赋能Data+AI融合新范式
在数据驱动与人工智能深度融合的时代,企业对数据仓库的需求早已超越“查得快”这一基础能力。面对传统数仓挑战,阿里云瑶池数据库AnalyticDB for PostgreSQL(简称ADB-PG)创新性地构建了统一架构下的Shared-Nothing与Shared-Storage双模融合体系,并自主研发Beam混合存储引擎与Laser向量化执行引擎,全面解决HTAP场景下性能、弹性、成本与实时性的矛盾。 近日,相关研究成果发表于在英国伦敦召开的数据库领域顶级会议 VLDB 2025,标志着中国自研云数仓技术再次登上国际舞台。
95 0
|
11天前
|
人工智能 安全 API
HiMarket 正式开源,为企业落地开箱即用的 AI 开放平台
我们发起 HiMarket 的初心:帮助用户从 80% 开始构建 AI 开放平台。
|
11天前
|
人工智能 监控 数据可视化
如何破解AI推理延迟难题:构建敏捷多云算力网络
本文探讨了AI企业在突破算力瓶颈后,如何构建高效、稳定的网络架构以支撑AI产品化落地。文章分析了典型AI IT架构的四个层次——流量接入层、调度决策层、推理服务层和训练算力层,并深入解析了AI架构对网络提出的三大核心挑战:跨云互联、逻辑隔离与业务识别、网络可视化与QoS控制。最终提出了一站式网络解决方案,助力AI企业实现多云调度、业务融合承载与精细化流量管理,推动AI服务高效、稳定交付。
|
11天前
|
人工智能
四大公益场景,20万奖金!AI开源公益创新挑战赛邀你一起「小有可为」
四大公益场景,20万奖金!AI开源公益创新挑战赛邀你一起「小有可为」
76 8
|
11天前
|
人工智能 前端开发 Docker
从本地到云端:用 Docker Compose 与 Offload 构建可扩展 AI 智能体
在 AI 智能体开发中,开发者常面临本地调试与云端部署的矛盾。本文介绍如何通过 Docker Compose 与 Docker Offload 解决这一难题,实现从本地快速迭代到云端高效扩容的全流程。内容涵盖多服务协同、容器化配置、GPU 支持及实战案例,助你构建高效、一致的 AI 智能体开发环境。
151 0
从本地到云端:用 Docker Compose 与 Offload 构建可扩展 AI 智能体
|
11天前
|
存储 消息中间件 人工智能
【03】AI辅助编程完整的安卓二次商业实战-本地构建运行并且调试-二次开发改注册登陆按钮颜色以及整体资源结构熟悉-优雅草伊凡
【03】AI辅助编程完整的安卓二次商业实战-本地构建运行并且调试-二次开发改注册登陆按钮颜色以及整体资源结构熟悉-优雅草伊凡
40 3

热门文章

最新文章