Claude Sonnet 4 上下文大幅扩增至百万 Tokens:API 能力跃升,分级定价与竞品对比解析

Claude Sonnet 4 上下文达百万 Token,处理海量代码和文档更轻松,但价格不菲。

原文标题:Claude Sonnet 4 支持百万 Tokens 上下文:容量提升 5 倍,支持 7.5 万行代码一键处理

原文作者:AI前线

冷月清谈:

Anthropic 宣布其 Claude Sonnet 4 模型现已支持 100 万 tokens 的上下文长度,比之前提升了五倍。这项升级允许用户通过一次请求处理超过 7.5 万行代码或多篇科研论文,极大简化了大规模代码库和文档的分析与处理流程,甚至为整体应用重构创造了可能。此举补齐了 Sonnet 在上下文限制上的“致命短板”,尤其适用于项目架构识别、跨文件依赖分析和整体优化建议。值得注意的是,该功能目前仅 面向 API 累计消费达 400 美元的 Tier 4 用户开放,且 Anthropic 首次根据上下文长度实行分级定价。尽管价格相较于竞争对手 Gemini 略高,但有用户反馈 Sonnet 4 在响应速度、表达简洁性和细节处理上表现更佳,非常适合作为 AI 代理使用。这一升级标志着 Anthropic 在追赶业界百万级 token 模型方面迈出了重要一步,为开发者提供了更强大的工具。

怜星夜思:

1、Claude Sonnet 4 的百万 token 上下文虽然功能强大,但价格也涨了一倍。大家觉得这个价格涨幅合理吗?对于普通开发者来说,是更倾向于性价比高的 Gemini,还是追求 Sonnet 的高性能?
2、文章提到百万 token 上下文能处理7.5万行代码,甚至重构整个应用。除了代码,你还能想到哪些实际场景能真正利用到这么大的上下文窗口?这对我们日常工作会带来哪些具体改变?
3、只有 Tier 4 用户(消费累计达 $400)才能用上这个新功能。大家觉得这种按消费分级的策略对中小企业或个人开发者公平吗?它会不会拉大不同用户群体在使用AI工具上的差距?

原文内容

作者 | Tina

Anthropic 宣布,Claude Sonnet 4 现已支持 100 万 tokens 上下文长度,将此前 20 万 tokens 的上限直接提升 5 倍。这使得你可以通过一次请求处理超过 7.5 万行代码 的完整代码库,或多篇科研论文。

对于开发者而言,这一升级是 Claude Code 的“猛兽级”增强,能够通过 API 一次性处理海量代码库或文档,不再需要繁琐的内容拆分与分批上传,甚至有可能用它来重构整个应用。

Anthropic 表示,基于这个上下文长度,开发者可以用 Claude 来进行大规模代码分析,比如一次性加载完整代码库,涵盖源代码、测试文件和文档,从而识别项目架构与跨文件依赖,提供整体优化建议。

值得注意的是,20 万 tokens 上下文窗口曾被视为 Claude Sonnet 的“致命弱点”,而如今这一短板终于补齐。目前,该功能仅向 Tier 4 用户(即 API 消费累计达到 400 美元以上的账户)开放。根据官方文档,要启用 100 万 tokens 上下文窗口,开发者需要在 API 请求中添加 context-1m-2025-08-07 beta 标头。

更有意思的是,这次更新也是 Anthropic 首次根据上下文长度分级定价:

  • ≤ 200K tokens:输入 $3 / 百万 tokens,输出 $15 / 百万 tokens

  • > 200K tokens:输入 $6 / 百万 tokens,输出 $22.50 / 百万 tokens

事实上,在此之前,Gemini 和 OpenAI 已率先推出百万 token 级模型。其中,Gemini 早已实施类似分级,Gemini 2.5 Pro 在 200K 以下的价格为 $1.25 / $10,以上则为 $2.50 / $15。从实际效果来看,有用户表示,Sonnet 4 相较于 Gemini 2.5 Pro,响应更快、表达更简洁,同时对细节把握更到位,非常适合用作 AI 代理,缺点就是价格太贵。

会议推荐

首届 AICon 全球人工智能开发与应用大会(深圳站)将于 8 月 22-23 日正式举行!本次大会以 “探索 AI 应用边界” 为主题,聚焦 Agent、多模态、AI 产品设计等热门方向,围绕企业如何通过大模型降低成本、提升经营效率的实际应用案例,邀请来自头部企业、大厂以及明星创业公司的专家,带来一线的大模型实践经验和前沿洞察。一起探索 AI 应用的更多可能,发掘 AI 驱动业务增长的新路径!


今日荐文

图片

你也「在看」吗?👇

回答关于“只有 Tier 4 用户才能用上新功能,对中小企业和个人开发者公平吗?” 公平?什么是公平?商业公司又不是慈善机构,肯定是要把最好的资源先给VIP啊!就像你去高档餐厅,肯定先服务那些开卡、消费多的老主顾嘛,散客就得等等。话说回来,这也算是一种“饥饿营销”吧,先吊着胃口,等大家用习惯了、需求大了,可能就会逐渐放开或者出个更亲民的方案,不然怎么收割下一波呢?别急,好东西总会降维打击的,时间问题。

从业务角度看,如果你的项目真的需要处理超大量代码或者文档,并且能从中带来可观的效率提升或商业价值,那多出来的这点钱跟节省的人力成本比起来根本不算啥。但如果只是尝鲜或者处理中小项目,那肯定还是Gemini划算。个人觉得,这种定价策略是Anthropic在区分高端市场和大众市场,打个比方就是奢侈品和快消品的区别。

针对 “这对我们日常工作会带来哪些具体改变?” 最大的改变就是“懒”!以前那种要手动拆分文件、分段上传、然后拼凑结果的笨办法,现在直接可以“一锅端”了。比如说,我们团队以前要做一个大型项目的Code Review,每个人负责一部分,最后再汇总。现在直接把整个代码仓扔给AI,它能从全局视角给出优化建议,省心多了。再比如写商业报告,以前得来回翻好几个文档找数据,现在能把所有报告都喂进去,让AI直接整理出你想要的洞察,简直是解放生产力!

回到关于“按消费分级对中小企业和个人开发者公平吗?” 的讨论:虽然能理解大公司从商业角度的考量,但这确实对我们个人开发者或者初创团队不太友好。我们可能没有那么高的预算去“烧”API,但一样有创新的想法和项目需要这些先进工具。长远来看,如果头部模型都采取这种门槛,那可能会迫使中小玩家转向开源模型或者价格更亲民但性能稍弱的模型,甚至自己想办法做一些优化或压缩。希望能有更多针对性的优惠或者更灵活的付费方案,别让技术红利只集中在少数人手里。

针对 “你还能想到哪些实际场景能真正利用到这么大的上下文窗口?” 我觉得以后写小说是不是特方便?把全套人设、世界观、几百万字的背景资料一股脑喂进去,AI就能帮你续写,而且还能记住前面埋的各种伏笔、前后呼应,就不会出现写着写着角色性格崩了、情节对不上的情况。或者做游戏开发,把所有剧情、任务、NPC对话都塞进去,AI直接帮你检查逻辑漏洞,甚至自动生成新的支线任务,那效率可就太高了!

基于大模型技术发展的趋势,上下文窗口的扩展往往伴随着更高的计算成本和模型训练难度。因此,Anthropic 采用分级定价策略,将百万级 token 的服务定价提高,在一定程度上反映了资源的稀缺性和技术的先进性。对于用户而言,选择哪个模型更多取决于具体应用场景对性能和成本的权衡,例如对精度和响应速度有极高要求的场景,Sonnet 4 的高价可能物有所值;而对于预算有限或对性能要求不那么极致的场景,Gemini 2.5 Pro 的性价比优势会更明显。

对于“只有 Tier 4 用户(消费累计达 $400)才能用上这个新功能。大家觉得这种按消费分级的策略对中小企业或个人开发者公平吗?它会不会拉大不同用户群体在使用AI工具上的差距?” 这种分级策略在商业上是可以理解的,它旨在优先服务高价值客户,并激励普通用户增加消费。然而,从普惠性的角度看,确实可能对中小企业和个人开发者造成一定限制,使他们在技术创新和效率提升方面处于劣势。这可能会导致“赢家通吃”效应,即资源充沛的大公司能更快享受到前沿AI技术带来的红利,从而进一步巩固其市场地位,而中小企业则更难追赶,从而拉大不同用户群体在AI应用上的差距。

哎呀,这不就跟买车一样嘛!经济型轿车(Gemini)虽然功能够用,但你开久了可能就痒痒想换个配置更高、跑得更快的(Sonnet 4)。虽然油费(API费用)贵了点,但开起来那感觉真不一样!看你兜里多少米,还有你跑的是赛道(高要求开发)还是买菜(日常小项目)咯!

关于 “文章提到百万 token 上下文能处理7.5万行代码,甚至重构整个应用。除了代码,你还能想到哪些实际场景能真正利用到这么大的上下文窗口?这对我们日常工作会带来哪些具体改变?” 除了代码分析和重构,百万级上下文窗口在金融分析中可以一次性处理数年间的公司财报、新闻公告和行业报告,进行更全面的趋势预测;在法律领域,能够消化大量案例法文件和法规条文,辅助律师进行复杂案件的准备和风险评估;在科研方面,可集成多个领域的顶尖论文,加速交叉学科的知识发现和假说形成。对日常工作而言,这意味着我们可以将更多的注意力从繁琐的资料筛选和整理中解放出来,专注于高价值的决策和创新性思考,真正将AI用作强大的“知识助理”或“决策支持系统”。