通义千问Qwen3-Coder重磅开源:代码与Agent能力刷新SOTA,开启智能编程新纪元

通义千问Qwen3-Coder开源,AI编程大模型能力SOTA,赋能开发者。

原文标题:Qwen3-Coder开源:面向世界的智能编程引擎

原文作者:阿里云开发者

冷月清谈:

通义千问近日正式开源了Qwen3-Coder,一款强大的AI编程大模型,它在Agentic Coding、Agentic Browser-Use和Foundational Coding Tasks上均达到了开源模型的SOTA水平。其最强版本Qwen3-Coder-480B-A35B-Instruct拥有480B参数(激活35B),原生支持256K上下文,并可通过YaRN扩展至1M,专为处理仓库级代码和动态数据优化。

模型在预训练阶段通过扩展总计7.5T的数据(其中代码占比70%)和上下文长度,并利用Qwen2.5-Coder对低质数据进行清洗与重写,显著提升了编程能力。后训练则侧重于真实世界编程任务,通过大规模执行驱动的强化学习,尤其是Agent RL。通义团队通过自动扩展测试样例和可验证环境系统,在SWE-bench Verified上实现了开源模型SOTA,表明其在多轮交互和工具使用方面的卓越表现。这种结合大规模强化学习和真实环境模拟的训练方法,是该模型取得突破的关键。

为方便开发者使用,团队同步开源了Qwen Code命令行工具,并支持与Claude Code、Cline等现有工具协同工作。Qwen3-Coder已在魔搭社区、HuggingFace等平台免费提供,并将接入通义灵码及阿里云百炼API。文章还展示了多项代码生成Demo,并展望未来将继续提升Coding Agent处理复杂任务的能力,探索模型的自我改进(self-improving)潜力,并提供更多尺寸的模型以降低部署开销。

怜星夜思:

1、文章里提到Qwen3-Coder在“Agentic Coding”和“Agentic Browser-Use”方面能力卓越。大家觉得,AI Agent在未来实际软件开发流程中,具体能扮演哪些更深入的角色?它会彻底改变我们写代码的方式吗,还是更多作为一种高效的辅助工具?
2、Qwen3-Coder在训练时投入了7.5T的代码数据,并且原生支持256K上下文,通过YaRN还能扩展到1M。这么大的数据量和上下文窗口,对我们日常使用AI编写代码或者调试复杂项目时,到底有哪些具体的好处?相比于一些小模型,它的优势体现在哪里?
3、文章提到通义团队在后训练阶段进行了“Agent RL”,并且通过构建可验证环境系统,在SWE-bench Verified上取得了开源模型SOTA。这种强化学习在AI编程领域的应用,未来还有哪些想象空间?它会是AI实现“自我改进”的关键路径吗?

原文内容

刚刚,通义千问最新的AI编程大模型Qwen3-Coder正式开源。


全新的Qwen3-Coder模型拥有卓越的代码和Agent能力,在Agentic Coding、Agentic Browser-Use 和 Foundational Coding Tasks 上均取得了开源模型的 SOTA 效果。



Qwen3-Coder 拥有多个尺寸,今天率先开源当前最强大版本:Qwen3-Coder-480B-A35B-Instruct 模型。它是一个MoE模型,拥有 480B 参数,激活 35B 参数,原生支持 256K 上下文,并可通过 YaRN 扩展到 1M 长度。


为方便开发者更好地使用 Qwen3-Coder,通义团队还开源了一款命令行工具 Qwen Code,可充分发挥 Qwen3-Coder 在代理式编程上的潜力。此外, Qwen3-Coder 的 API 也可以和 Claude Code、Cline 等工具协同使用。


目前,Qwen3-Coder 已在魔搭社区、HuggingFace 等平台开源,全球开发者都可以免费下载使用。Qwen3-Coder 很快将接入阿里的AI编程产品通义灵码,API也已上线阿里云百炼。


  • 魔搭社区:https://modelscope.cn/models/Qwen/Qwen3-Coder-480B-A35B-Instruct


  • Hugging Face:https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507


  • Qwen Code GitHub:https://github.com/QwenLM/qwen-code


Qwen-Coder技术亮点


预训练


通义团队在预训练阶段上仍然在努力,这次 Qwen3-Coder 从不同角度进行 Scaling,以提升模型的代码能力:


  • 数据扩展:总计 7.5T(代码占比 70%),在保持通用与数学能力的同时,具备卓越的编程能力;


  • 上下文扩展:原生支持 256K 上下文,借助 YaRN 可拓展至 1M,专为仓库级和动态数据(如 Pull Request)优化,助力 Agentic Coding;


  • 合成数据扩展:利用 Qwen2.5-Coder 对低质数据进行清洗与重写,显著提升整体数据质量。


后训练



与当前社区普遍聚焦于竞赛类代码生成不同,通义团队认为所有的代码任务天然适合执行驱动的大规模强化学习。因此通义团队选择在更丰富的真实代码任务上扩展 Code RL 训练。


通过自动扩展测试样例,通义团队构造了大量高质量的训练实例,成功释放了强化学习的潜力:不仅显著提升了代码执行成功率,还对其他任务带来增益。这将鼓励通义团队继续寻找 Hard to Solve, Easy to Verify 的任务,作为强化学习的土壤。



在真实世界的 Software Engneering Task,比如 SWE-Bench,模型需要在环境中不断交互,自主规划、选择工具调用、接受反馈不断做出新决策,这是一个典型的 Long-Horizon RL 任务。


通义团队在 Qwen3-Coder 的后训练阶段执行了 Agent RL,鼓励模型通过多轮交互的方式利用工具解决问题。Agent RL 的主要挑战在于 Environment Scaling,通义团队实现了可验证环境的扩展系统,借助阿里云的基础设施,实现同时运行 20k 独立环境。


这一套基础设施可以提供大规模的强化学习反馈和评测,最终通义团队在 SWE-bench Verified 上实现了开源模型 SOTA 的效果。


和Qwen3-Coder一起Coding


Qwen3-Coder 可以和社区优秀的编程工具结合,如 Claude Code、Cline 等,作为一款基础模型,我们期待在数字世界的任何角落都可以使用它,Agentic Coding in the World!


Qwen Coder


Qwen Code 是一个 CLI 工具,修改自 Gemini CLI,针对 Qwen3‑Coder系列的模型增强了解析器和工具支持。


确保已安装 Node.js 20 及以上版本,可以通过以下命令安装:

curl -qL https://www.npmjs.com/install.sh | sh


然后通过 npm 管理器安装 Qwen Code:

npm i -g @qwen-code/qwen-code


另一种方式是从源码安装:

 git clone https://github.com/QwenLM/qwen-code.git
 cd qwen-code && npm install && npm install -g


Qwen Code 支持 OpenAI SDK 调用 LLM,你可以导出以下环境变量,或者简单地将其放在 .envfile中。

export OPENAI_API_KEY="your_api_key_here"
export OPENAI_BASE_URL="https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
export OPENAI_MODEL="qwen3-coder-plus"


现在,你可以通过简单地输入 「qwen」来享受 Qwen-Code 和 Qwen 带来的编程体验。


Claude Code

除了 Qwen Code 之外,现在还可以将 Qwen3‑Coder 与 Claude Code 搭配使用。只需在阿里云百炼平台https://bailian.console.aliyun.com/申请 API Key,并安装 Claude Code,即可开始畅享编码体验。

npm install -g @anthropic-ai/claude-code


通义团队提供了两种接入方式,帮助你无缝地用 Qwen3‑Coder 进行编码。


方案一:使用dashscope提供的代理 API


只需要将Anthropic的base url替换成dashscope上提供的endpoint即可。

export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/api/v2/apps/claude-code-proxy
export ANTHROPIC_AUTH_TOKEN=your-dashscope-apikey


方案二:使用 claude-code-config 自定义路由


claude-code-router 是一个第三方的路由工具,用于为 Claude Code 灵活地切换不同的后端 API。dashScope平台提供了一个简单的扩展包 claude-code-config,可为 claude-code-router 生成包含 dashScope 支持的默认配置。

npm install -g @musistudio/claude-code-router
npm install -g @dashscope-js/claude-code-config


生成配置文件和插件目录:

ccr-dashscope


该命令会自动生成 ccr 所需的配置文件和插件目录。你也可以手动调整 ~/.claude-code-router/config.json 和 ~/.claude-code-router/plugins/ 中的配置。


最后,通过 ccr 开始使用 Claude Code:

ccr code


至此,你即可通过 ccr 使用 Claude Code 畅享 Qwen3‑Coder 的强大编码能力。祝开发顺利!


Cline



配置 Qwen3-Coder-480B-A35B-instruct 以使用 cline:


‒ 进入 cline 的配置设置

‒ 选择“OpenAI Compatible”模式

‒ 在 OpenAI Compatible API tokens处,输入从 Dashscope 获取的密钥

‒ 勾选“使用自定义基础 URL”,并输入:https://dashscope.aliyuncs.com/compatible-mode/v1

‒ 输入模型名称:qwen3-coder-plus


Demo展示

以下是使用Qwen3-Coder制作的动画与小游戏。

Demo:烟囱拆迁

图片


Demo:本地开发端中生成烟花动画

图片


Demo:打字测速演示

图片


Demo:小球沿立方体轨迹旋转

图片


Demo:模拟太阳系行星运转

图片


Demo:二重奏游戏


API调用

如果你想要通过百炼 API 平台(https://bailian.console.aliyun.com/)调用 Qwen3-Coder,欢迎使用以下示例代码进行测试。

import os
from openai import OpenAI

client = OpenAI(
    api_key=os.getenv(“DASHSCOPE_API_KEY”),
    base_url=“https://dashscope.aliyuncs.com/compatible-mode/v1”,
)

prompt = “Help me create a web page for an online bookstore.”

Send request to qwen3-coder-plus model

completion = client.chat.completions.create(
    model=“qwen3-coder-plus”,
    messages=[
        {“role”: “system”, “content”: “You are a helpful assistant.”},
        {“role”: “user”, “content”: prompt}
    ],
)

Print the response

print(completion.choices[0].message.content.strip())


未来展望


通义团队仍在继续努力提升 Coding Agent 的效果,希望它能承担更多复杂软件工程中的繁琐任务,解放人类的生产力。Qwen3-Coder 仍有更多尺寸在路上,在保证良好效果的同时降低部署的开销。另外通义团队也在积极探索 Coding Agent 是否能够实现 self-improving,这是一个令人激动的话题。




哇塞,Agent RL?这不就是让AI学会“碰壁开悟”嘛!以前AI是“书呆子”,光看书写程序。现在它能自己把写的代码跑起来,发现报错了,然后自己琢磨怎么改,直到跑通为止。未来?那可就厉害了,AI估计能自己偷偷接私活,比如帮公司开发个新产品,然后自己赚了钱,再用赚来的钱给自己升级,最后实现“AI自由”!至于自我改进,我看它就差给自己发绩效奖金了!:joy: 想象一下,一个AI根据用户反馈不断优化自己的代码,最后比最初的版本强悍百倍,那画面太美我不敢看!

最大的好处就是能处理更复杂的任务!大上下文意味着它能一次性理解整个项目的上下文,而不仅仅是零散的代码片段。比如说,我们团队最近在做大规模的代码重构,涉及到几十个文件,以前小模型根本帮不上忙,只能写个简单的函数。现在Qwen3-Coder可以根据上下文,智能地给出重构建议,甚至直接生成重构后的代码。对于跨模块的bug排查,或者分析一个巨型PR(Pull Request)的潜在影响,大模型能帮你理解整个系统,大大提升效率和准确性,这绝对是小模型望尘莫及的优势。

关于“Agent RL”以及它对AI“自我改进”的影响,我觉得这是AI编程领域最令人兴奋的进展之一。Agent RL的突破性在于让模型从静态知识学习转变为动态环境交互学习,这模拟了人类解决复杂工程问题时的试错和反馈循环。未来,其想象空间巨大:我们可以设想AI不仅能编写代码,还能自主部署、监控其性能,并在运行中根据反馈(比如用户报错、性能瓶颈、甚至安全漏洞)自动迭代优化代码,甚至在发现新漏洞时自我修复。这无疑是迈向真正“自我改进”AI的关键一步,因为它提供了AI从经验中学习和进化的机制。但要达到完全的“自我改进”,仍需解决泛化能力、创造力以及伦理边界等深层挑战。

Agent RL在实际应用中,我认为首先能极大地提升自动化测试和自动化运维的智能化水平。不再是简单的脚本执行,而是AI能根据实际运行情况,动态调整测试策略或故障排除步骤。比如发现某个测试用例总是失败,它可能会尝试自己生成新的测试数据或调整代码。至于是否是“自我改进”的关键路径,我觉得它会是其中一个非常重要的组成部分。比如,一个Bug修复方案被AI生成并测试通过后,这些解决问题的经验就会被强化学习循环吸收,让它下次遇到类似问题时能更快更准确地处理。但目前还谈不上完全自主的“自我改进”,更像是“经验复用与优化”,离科幻里的自我意识还远着呢。

问得好!AI Agent嘛,我看以后就是“甲方爸爸”的救星了。开发流程?那不就是AI坐你旁边,你喝着咖啡,它把代码写好,顺便帮你把浏览器里的bug都试一遍?改变写代码方式?那可不,以后程序员的核心竞争力可能变成“写prompt写得好”和“调试AI Agent的心情”。我感觉啊,它是让你从“码农”变成“AI管家”,以后只需要在旁边看着AI干活,时不时提点意见就行了,听起来是不是很爽?

想象一下,你以前问AI一个编程问题,它就像个只看过百科全书的小学生。现在Qwen3-Coder就像是把整个Stack Overflow、GitHub上所有高质量的开源项目和所有权威技术文档都倒进了脑袋里,而且它还能把这些知识点都串起来!你给它一个超长的需求文档,或者把整个项目代码扔进去,它能记住更多细节,给出更“全局”的解决方案。以前小模型可能只能告诉你“这里有个语法错误”,现在它能告诉你“你这个模块跟隔壁那个模块数据结构不一致,会导致内存泄露”。这不就是传说中的“高维打击”嘛!让你感受什么是真正的“智能辅助”。

关于文中提到Qwen3-Coder那7.5T的代码数据和超大上下文窗口(256K原生,1M扩展)的好处,从技术角度看,这简直是质的飞跃。这么大的数据量意味着模型拥有更广阔的知识面和更深的泛化能力,它见过的代码模式、解决方案和错误类型远超小模型,所以生成代码的质量会更高,解决问题的适用性也更强。而超大上下文窗口在处理大型项目时至关重要。举个例子,当你在一个复杂的代码仓库里修改一个bug时,小模型可能只能“看到”你当前正在编辑的单个文件或者函数,但Qwen3-Coder能“理解”整个项目结构、多个相关文件之间的调用关系,甚至历史提交记录和文档说明,这就能大大提高它生成符合上下文的代码、定位和修复深层bug的准确性。这对于跨文件、跨模块甚至跨语言的复杂工程任务,简直是福音。