面向世界的智能编程引擎——Qwen3-Coder开源并发布!
其中首发的旗舰版本 Qwen3-Coder-480B-A35B-Instruct ,是一个拥有 480B 参数、35B 有效参数的 MoE(混合专家)模型,在编程能力与自主决策能力上实现全面突破。
该模型在 Agentic Coding(代理式编程)、Agentic Browser-Use(浏览器智能操作)和基础编码任务(Foundational Coding Tasks)上,均刷新了开源模型的 SOTA(State-of-the-Art)纪录!
Qwen3-Coder 性能对比
不止于模型,我们还同步开源了一整套工具链:
- Qwen Code :专为 Qwen3-Coder 优化的命令行编程工具(CLI)
- 无缝集成 Claude Code 与 Cline(VS Code 插件)
- 支持通过阿里云 DashScope 平台调用 API
Qwen3-Coder 亮点速览
1、最强开源 Agentic 编程模型:在 SWE-Bench Verified 等真实软件工程任务中,达到开源模型 SOTA。
2、超长上下文 + 高质量训练:原生支持 256K 上下文,可扩展至 1M,专为“仓库级代码理解”设计。
3、全链路工具支持:从 CLI 到 IDE 插件,开箱即用,轻松接入现有开发流程。
一.预训练
从数据到上下文全面升级,为了让 Qwen3-Coder 更懂代码、更懂工程,我们在预训练阶段从三个维度进行了系统性扩展。
1、数据扩展:7.5T 高质量代码
代码数据占比高达 70%,这不仅让模型在编程能力上出类拔萃,也确保了其在通用知识和数学推理方面保持强大实力。
2、上下文扩展:256K 原生支持,最高可达 1M
模型原生支持 256K 的上下文长度,并可通过 Yarn 等技术扩展至 1M 。这意味着它能一次性“消化”整个代码仓库、PR 提交历史和项目文档,实现真正的“全局视角”编程。
3、合成数据优化:用 Qwen2.5-Coder 清洗数据
为确保数据质量,我们创新性地利用前代模型 Qwen2.5-Coder ,对海量低质量代码数据进行自动清洗与重写。这一“以模治模”的方法,显著提升了训练数据的准确性与可执行性。
二.后训练
Qwen3-Coder 的突破不仅在于“写代码”,更在于“解决问题”。我们通过两大强化学习技术,赋予模型真正的“代理思维”。
Qwen3-Coder 的训练表现
1.Scaling Code RL:执行驱动,越练越准
我们聚焦于“难解易验”(Hard to Solve, Easy to Verify)的真实编码任务,通过自动扩展多样化测试用例,构建高质量的反馈信号,让模型在“生成-执行-反馈”的强化学习循环中不断优化,显著提升了代码的执行成功率,更意外地增强了其在非执行任务上的泛化能力。
2.Scaling Long-Horizon RL:多轮交互,自主决策
在真实软件工程任务(如 SWE-Bench)中,模型需要通过多轮交互与环境深度沟通,包括规划、调用工具、接收反馈并调整策略。这正是长周期强化学习(Long-Horizon RL)的典型应用场景。
在 Qwen3-Coder 的后训练阶段,我们引入了 Agent RL ,鼓励模型像人类工程师一样“边做边学”,通过多轮交互的方式解决复杂问题。
为支撑大规模训练,我们构建了可并行运行 20000 个独立环境 的系统,依托阿里云实现高效反馈与评估。如下图所示,Qwen3-Coder 在 SWE-Bench Verified 上达到 69.6% 的高分(支持 500 轮交互),仅次于 Claude-Sonnet-4,位居开源模型榜首。
Qwen3-Coder 在 SWE-bench Verified 上的表现
三.如何使用 Qwen3-Coder?
我们为开发者准备了灵活的接入方式,无论你是 CLI 爱好者,还是 VS Code 忠实用户,都能快速体验 Qwen3-Coder 的强大能力。
1.使用 Qwen Code(命令行工具)
Qwen Code 是基于 Gemini CLI 改造的命令行编程助手,专为发挥 Qwen3-Coder 的“代理能力”而生。
👉 三步上手
1、安装:确保已安装 Node.js 20+,然后克隆并全局安装。
git clone https://github.com/QwenLM/qwen-code cd qwen-code && npm install && npm install -g .
2、配置:创建 .env文件,填入你的 DashScope API 信息。
export OPENAI_API_KEY="your_api_key_here" export OPENAI_BASE_URL="your_api_base_url_here" export OPENAI_MODEL="your_api_model_here"
3、使用:在项目目录下,直接输入 Qwen,开始与你的智能编程搭档对话。
四.API调用
如果你想要通过百炼 API 平台调用 Qwen3-Coder,欢迎使用以下示例代码进行测试。
import os from openai import OpenAI client = OpenAI( api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", ) prompt = "Help me create a web page for an online bookstore." # Send request to qwen3-coder-plus model completion = client.chat.completions.create( model="qwen3-coder-plus", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": prompt} ], ) # Print the response print(completion.choices[0].message.content.strip())
Qwen3-Coder 的发布只是一个开始。未来,我们将持续推出更轻量、高效的版本,并深入探索 Agent 的自我进化能力,最终让它在真实的企业研发场景中独当一面。
立即体验