阿里云Coding Plan集结四大国产模型,开发者迎来“Token 自由”时代

阿里云Coding Plan集齐四大国产模型,助力开发者低成本体验各类AI模型,实现“Token自由”。

原文标题:阿里云 Coding Plan 集齐四大国产模型最强版本,开发者迎来“Token 自由”

原文作者:AI前线

冷月清谈:

阿里云百炼Coding Plan全面上线Qwen3.5、智谱GLM-5、MiniMax M2.5、Kimi K2.5,成为首家集齐四大国产顶尖大模型订阅服务的云厂商。用户订阅后,可在Qwen Code、Claude Code、Cline、OpenClaw等主流AI工具上无缝切换模型。阿里云通过强大的基础设施,解决Coding API服务不稳定、推理效率低的问题,提升大模型推理效率,降低开发者的成本,提供更多的选择和更稳定的服务。Coding Plan以远低于单独订阅的价格打包提供,对于需要大量消耗token的Agent场景而言,是一大利好。阿里云正在成为AI流量的超级分发站,让不同模型的开发者都能够在其平台上找到最适合自己的工具和服务。

怜星夜思:

1、你认为阿里云的这种“集齐”策略,对国产大模型生态会产生什么影响?是会促进百花齐放,还是加剧头部效应?
2、文章提到“Token 自由”,你觉得目前国内大模型Token的收费如何?如果让你来设计一个更合理的收费模式,你会怎么做?
3、阿里云Coding Plan集齐了多家国产模型,你会因为这个原因选择它吗?你更看重AI服务的哪些方面?

原文内容

作者 | 杨过

"我将把工资收入中,排除个人生活必须支出之外的所有收入,都用来购买 token。"一位做 Agent 的朋友最近对我说。

这句话道出了当下对技术热情的开发者的两难处境:想做的东西太多,但 token 实在太贵。这也迫使许多国内外开发者寻找用国产开源模型接入 Claude Code 等编程工具的替代方案。

在此背景下,云厂商的订阅服务成为了一种新的探索方向。

今天,阿里云百炼 Coding Plan 宣布全面上线 Qwen3.5、智谱 GLM-5、MiniMax M2.5、Kimi K2.5,成为 首家集齐千问、GLM、Kimi、MiniMax 四大国产顶尖大模型订阅服务的云厂商。用户订阅后,可在 Qwen Code、Claude Code、Cline、OpenClaw 等主流 AI 工具上无缝切换模型。

在今年 1 月智谱 GLM Coding Plan 限售的情况下,阿里云也成为第一家上线 GLM-5 服务的云厂商。

值得注意的是,在目前国内云厂商中,阿里云是首家在 Coding Plan 中包含自家模型之外,还集齐智谱、Kimi、MiniMax 这些国产开源模型最新、最强版本(GLM-5、MiniMax M2.5、Kimi K2.5)的服务商。

更为关键的是,基于阿里云强大的基础设施,可以直接解决 Coding API 服务不稳定、推理效率低的问题,这是云厂商的天然优势。

阿里云向 InfoQ 透露,为了提供更好的 Coding Plan 用户体验,阿里云在多个工程方面进行了优化。在基础设施层,阿里云不仅提供稳定的弹性资源保障,还通过自研芯片与云服务的紧密结合,显著提升了大模型的推理效率,从而更好地服务于企业和开发者。例如,真武芯片针对主流 MoE 架构模型进行了大量优化,能够满足大规模计算的需求。

这次入驻阿里云 Coding Plan 的四款模型,最近都在技术社区获得了很好的风评。根据 OpenRouter 统计,MiniMax M2.5、Kimi K2.5 和 GLM -5 的 Token 调用量都进入了近期“LLM 排行榜”前 5,Qwen3.5 则在 Hugging Face 公布新一期开源大模型榜单登顶榜首。

值得一提的是,此次推出的 Coding Plan 是阿里云百炼旗下面向个人开发者的服务。

开发者的需求相对明确,但很多时候都没有被主流厂商照顾到。他们既需要便宜的 AI 模型,又希望保留 Claude Code 等工具的强大能力,同时避免重复购买多个国产大模型账号,倾向于“哪个好用用哪个”的灵活策略。

阿里云 Coding Plan 以远低于单独订阅的价格打包提供,对于需要大量消耗 token 的 Agent 场景而言,无疑是一大利好。

此前大众对阿里云百炼的认知更多是"一站式大模型开发与应用平台"——它集成了千问及主流第三方模型,为开发者提供兼容 OpenAI 的 API 及全链路模型服务,同时提供可视化应用构建能力,让业务人员能快速创建智能体、知识库问答等 AI 应用。

而这次,通过 Coding Plan 的性价比套餐,阿里云直接切入了程序员的日常编程场景。

对于阿里云来说,这一计划不仅仅是推出一项服务,更是其在国产 AI 模型生态中的布局。通过引入智谱、MiniMax 等模型公司的旗舰模型,阿里云不仅解决了开发者的成本难题,也通过降低准入门槛,为开发者提供了更丰富的选择。

阿里云正在成为 AI 流量的超级分发站,让不同模型的开发者都能够在其平台上找到最适合自己的工具和服务。

目前,除了阿里云 Coding Plan 上线的 8 款顶尖编程模型之外,阿里云百炼平台还上线了 100 多款国内外主流模型 API 和 400 多个 AI 硬件、短视频及广告内容等领域的 Agent 模板与服务,可满足更多企业场景的模型需求。

对于开发者而言,这意味着更低的成本、更多的选择、更稳定的服务,也更接近"token 自由"。

会议推荐

2026,AI 正在以更工程化的方式深度融入软件生产,Agentic AI 的探索也将从局部试点迈向体系化工程建设!

QCon 北京 2026 已正式启动,本届大会以“Agentic AI 时代的软件工程重塑”为核心主线,推动技术探索从「AI For What」真正落地到可持续的「Value From AI」。从前沿技术雷达、架构设计与数据底座、效能与成本、产品与交互、可信落地、研发组织进化六大维度,系统性展开深度探索。开往 2026 的 Agentic AI 专列即将启程!汇聚顶尖专家实战分享,把 AI 能力一次夯到位!

今日荐文

图片

你也「在看」吗?👇

Token收费这事吧,其实本质上是算力成本的问题。如果算力成本降下来,Token收费自然也能降下来。所以,与其在收费模式上做文章,不如从技术上入手,提高模型的效率,降低算力消耗。比如,可以研究更高效的模型压缩算法、优化推理引擎等等。当然,这些都需要投入大量的人力物力,不是一朝一夕就能完成的。

我认为这将加速大模型市场的洗牌。原本小厂商还指望靠差异化或者低价来吸引用户,现在阿里云直接把所有玩家都拉到同一平台,比拼的就是硬实力了。那些技术不过硬、服务跟不上的小厂,很快就会被淘汰。最终,可能就剩下几家头部厂商在阿里云上“神仙打架”,用户倒是可以坐收渔翁之利。

我会考虑的。一站式服务,省心省力。我最看重的是API的易用性。如果API文档写得乱七八糟,调用起来非常麻烦,那我就算免费也不想用。好的API应该简单易懂,最好还有各种编程语言的示例代码,让我能快速上手。另外,技术支持也很重要,如果遇到问题能及时得到解答,那我就更愿意选择它了。

我可能不会完全因为这个原因选择它。虽然模型多是好事儿,但关键还是看模型本身的质量和性能。如果阿里云只是简单地把模型堆在一起,但没有对它们进行优化和整合,那用户体验可能不会很好。我更看重的是平台的整体解决方案能力,比如它能否提供完善的开发工具、强大的数据处理能力、以及智能化的模型管理功能。只有这样,才能真正帮助我提高开发效率,降低开发成本。

这问题问得好!我觉得短期来看,这种策略肯定是对开发者有利的,大家能以更低的成本体验到更多模型。但长期来看,就不好说了。如果大家都习惯在阿里云上用模型,那小厂的模型可能就更难被发现了,头部效应可能会更明显。不过,如果阿里云能做好流量分发,让不同特点的模型都能找到用户,那就能促进百花齐放了。关键还是看平台怎么运营,怎么平衡各方利益。

我觉得可以借鉴一下云计算的按需付费模式。大模型的Token收费也可以按需计费,用户可以根据自己的实际使用量来付费,避免浪费。另外,还可以提供一些预付费套餐,让用户可以提前购买一定量的Token,享受更优惠的价格。这样既能满足用户的不同需求,也能提高模型的利用率。

说实话,集齐多家模型确实挺吸引我的,毕竟我可以方便地尝试不同的模型,找到最适合自己的。不过,我更看重的还是服务的稳定性。如果模型不稳定,动不动就崩,那再多模型也没用。另外,价格也很重要,如果价格太贵,我肯定不会考虑。所以,对我来说,稳定性和价格是两个最重要的因素。

Token收费嘛,现在确实有点让人肉疼。特别是对于我们这些小开发者来说,跑个实验都得精打细算。要是我来设计,我会考虑分层收费,根据用户的调用量、模型复杂度、服务等级等因素来定价。比如,提供一个免费的“体验版”,让大家可以免费试用一些基础模型;再提供一个“开发者版”,针对中小开发者,提供更优惠的价格和更灵活的计费方式;最后是“企业版”,针对大型企业,提供更专业的服务和更稳定的性能。

从我的角度看,这就像一个应用商店。初期肯定能吸引更多开发者,大家都来“上架”自己的模型。但时间长了,用户肯定会更关注头部几个模型,毕竟资源有限。除非阿里云能推出一些差异化的服务,比如针对不同行业、不同场景的模型推荐,或者提供更个性化的模型训练服务,这样才能让更多中小模型有机会崭露头角,形成一个健康的生态。