Anthropic获1300亿美元巨额融资,估值飙升至1830亿

Anthropic获130亿美元巨额融资,估值达1830亿美元,尽管争议不断。

原文标题:刚刚,Anthropic在质疑声中获130亿美元融资,估值达1830亿

原文作者:机器之心

冷月清谈:

AI初创公司Anthropic宣布完成F轮130亿美元融资,投后估值高达1830亿美元,成为科技行业第二大规模的私募融资。公司在短短八个月内,AI助手Claude和Claude Code的年度化营收已从10亿美元增长至超50亿美元,创造了惊人的增长记录。新资金将主要用于深化安全研究、满足日益增长的企业需求和国际市场扩张。然而,Anthropic近期也面临多项争议,包括默认收集用户数据用于模型训练、收紧部分用户用量限制、模型体验被反馈“降智”以及多起版权数据诉讼。尽管争议不断,投资者对Anthropic未来发展的信心并未动摇,表明资本市场对AI核心技术和市场前景的持续看好。

怜星夜思:

1、像Anthropic这样的大模型公司,默认收集用户数据用来训练模型,你们是怎么看的?是觉得为了模型进步可以理解,还是认为侵犯了用户隐私,必须选择退出才行?
2、大模型更新后,有些用户会吐槽说模型“变笨了”或者“降智”了。你觉得这究竟是用户的主观感受,还是真的为了新模型发布,老模型性能被压低了?有没有别的可能性?
3、Anthropic在争议声中还能拿到这么大一笔融资,还估值这么高,大家觉得说明了什么?是资本根本不在乎短期争议,只看好AI的未来,还是说这些争议其实没我们想的那么严重?

原文内容

机器之心报道

编辑:Panda


Anthropic 宣布已经完成了新一轮 130 亿美元融资,投后估值达 1830 亿美元,约为这家人工智能初创公司 3 月份上次融资时的三倍。



这也是目前科技行业第二大规模的私募融资,仅次于 2025 年 3 月 OpenAI 历史性的 400 亿美元融资。


这最新一轮融资为 Anthropic 的 F 轮融资,由 Iconiq、富达管理研究公司 (Fidelity Management & Research Co.) 和光速创投 (Lightspeed Venture Partners) 领投。Anthropic 表示,Altimeter、General Catalyst 和 Coatue 等其他多方投资者也参与其中。



Anthropic 财务总监 Krishna Rao 在声明中表示:「此次融资表明投资者对我们财务业绩的极大信心,并展现了他们与我们合作的力度,这将继续推动我们前所未有的增长。」


自 2023 年 3 月推出 AI 助手 Claude 以来,Anthropic 的估值一路飙升。


2025 年初,即推出 Claude 不到两年,Anthropic 的运行收入已增长至约 10 亿美元。到 2025 年 8 月 —— 仅仅八个月后,该公司的年度化营收(run-rate revenue)就超过 50 亿美元,使 Anthropic 成为历史上增长最快的科技公司之一。


此外,该公司还在声明中重点提到了 Claude Code:「对于企业而言,我们的 API 和行业特定产品使其能够轻松地将强大的 AI 添加到其关键应用程序中,而无需进行复杂的集成工作。自 2025 年 5 月全面发布以来,Claude Code 已成为开发者的首选工具。Claude Code 迅速发展,已创造超过 5 亿美元的运营收入,使用量在短短三个月内增长了 10 倍以上。


Vibe Kanban 发布的动态统计图也佐证了其优势,不过也看得出来,OpenAI 推出的竞品 Codex Cli 增长明显。


图片

https://x.com/LouisKnightWebb/status/1962870556631478401


Anthropic 表示,已为超过 30 万家企业客户提供服务,并且其大型客户(每个客户的运营收入超过 10 万美元)数量在过去一年中增长了近 7 倍。


Anthropic 还表示,将利用新资本深化安全研究,满足日益增长的企业需求,并支持国际扩张。


高估值背后,Anthropic 最近引发的争议也不少:


  • 默认收集用户数据并用于训练(消费者端):Anthropic 宣布将把用户的聊天与编码会话用于模型训练,除非用户主动选择退出;同时把允许训练的数据最长留存 5 年(未允许者仍为 30 天)。该变更覆盖 Claude Free/Pro/Max 与 Claude Code,但不适用于企业 / 政府 / 教育或 API(Bedrock / Vertex)等场景。并设置了 9 月 28 日 2025 年 的最后决定期限与弹窗默认「接受」设计,引发争议。

  • 「用量限制」收紧,重度用户受影响。7 月底起,Anthropic 面向 Pro/Max(尤其 Claude Code 重度用户)推出按周的用量上限,并出现按小时计量的新配额方式(5 小时重置);官方称仅影响 <5% 订阅者,但社区反弹明显。

  • 模型体验波动的社区争议。随着新模型 / 快照上线,有用户反馈顶级模型表现阶段性下滑(降智)、为了新模型发布而压低之前模型性能等,相关吐槽在社区持续发酵(虽属主观体验,但讨论热烈)。

  • 模型「自我保护/结束对话」的设定也引发讨论。Anthropic 表示最新较大的模型在极端、持续的辱骂 / 有害情景下可主动结束对话,被一些用户质疑「把 AI 放在用户之前」。

  • 多条权/数据诉讼战线:作者案、音乐出版方案、Reddit 起诉。


不过,看起来这些争议并没有对投资者对 Anthropic 的信心产生显著影响。


Anthropic 由包括 CEO Dario Amodei 在内的多位前 OpenAI 研究高管创立。现如今,OpenAI 和 Anthropic 已经成为 AI 市场里的激烈竞争对手。


OpenAI 于 2022 年发布 AI 聊天机器人 ChatGPT 后迅速成为主流,据报道,OpenAI 正准备出售股票,作为二次出售的一部分,此举将使公司估值达到约 5000 亿美元。今天,OpenAI 还宣布以 11 亿美元收购了产品分析创业公司 Statsig,并任命其 CEO Vijaye Raji 为 OpenAI 的产品 CTO—— 向应用 CEO Fidji Simo 报告。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

哎,这个问题其实挺复杂的。站在AIGC公司的角度,没有海量高质量的数据,模型就没法进步,这是硬道理。如果所有用户都Opt-in,那可能数据量就大打折扣了。市场竞争这么激烈,谁的模型跑得快、迭代好,谁就有机会活下来。所以他们可能觉得默认收集是效率最高的方式。但站在用户角度,肯定不爽啊,谁愿意自己的聊天记录被随便拿去训练?所以我理解公司有难处,但用户有权利保护自己,希望能找到一个平衡点,比如更明确的告知,或者给用户更多具体的控制权,比如可以部分提供数据而不是全部。

我觉得“降智”这件事,主观感受肯定占一部分。人类天生就是会比较的嘛,当你习惯了以前某个版本做得很好,突然发现它在一个你常用的场景表现不如以前了,就会觉得它“退步”了。而且每次更新,公司都会宣传新模型的各种厉害之处,大家的期望值自然也水涨船高。但也不能完全排除是模型调整带来的。就好比一个学霸,可能有时候为了钻研某个新领域,暂时在一些基础题上反应慢了点,但整体能力还是在提升的。不过说归说,如果真的影响用户体验了,厂商还是得重视,毕竟用户是用脚投票的。

针对“默认收集用户数据”这个问题,我个人认为,从伦理和用户隐私保护的角度来看,“选择加入”(Opt-in)而非“选择退出”(Opt-out)的模式是更负责任的做法。虽然数据对于模型迭代进步至关重要,但用户对其个人数据拥有首要的控制权。默认开启意味着将信息不对称的压力转嫁给用户,很多普通用户可能根本不会注意到或者理解这项条款,从而无意间放弃了自己的部分权益。长期来看,这可能侵蚀用户信任,对整个AI行业的健康发展造成负面影响。透明度和用户选择权应放在首位。

关于模型“降智”的讨论,这背后可能有多重原因。从技术层面看,虽然听起来阴谋论,但“为了新模型发布而压低旧模型性能”并非完全没有可能性,尤其是在商业竞争中,这可能是一种策略。更普遍的解释是,模型更新往往伴随着参数调整、数据重新训练甚至架构变化。这些改动在提升模型某些方面能力(如特定任务的处理效率、安全性)的同时,可能会在其他方面出现“能力漂移”,即对一些通用能力或特定旧任务的表现产生负面影响。此外,用户对模型能力提升的认知曲线并非线性,期望值也会随着每次更新而提高,导致对微小退步的感知更加敏感,这确实包含一定主观成分。最后,上下文窗口管理、token使用效率的优化也可能被用户误判为“降智”。

我觉得这可能说明这些争议主要集中在消费者端和普罗大众的认知层面。像“数据收集”、“用量限制”、“模型降智”这些,大部分是针对C端用户的Pro/Max订阅或者免费版。但Anthropic同时强调其企业级API和行业特定产品,很多企业客户可能更看重其模型的稳定性和定制化能力,而不是这些消费者层面的政策调整。企业客户有更明确的商业需求和更高的付费能力,且通常有自己的数据规范和合同约束,可能并不直接受这些大众争议的影响。所以,资本看好的是它在B端市场的巨大潜力和变现能力,而这些争议对B端业务的影响可能远小于C端用户的反馈。

说白了,羊毛出在羊身上呗。你用它的免费服务,总得付出点什么。无非就是拿你的数据去喂它家AI,让AI变得更聪明,然后它再卖更好的服务赚钱。只要别太过分泄露我的隐私就行,反正网上我的信息也不是少这一块。不过如果牵扯到很敏感的东西,比如商业秘密或者私密聊天,那肯定要选退出的,不然不是给自己找麻烦嘛。所以还是得看服务场景和个人容忍度。

哈哈,“降智打击”这是大厂的常规操作啦!就像手机更新,总觉得越更新越卡,然后你就想换新手机了。大模型也一样啊,旧模型太好用,新模型谁买单?所以略微降智,让你体验不好,然后推你更新Pro版、Max版,或者直接期待下一代模型,完美闭环!开个玩笑,但也不是完全没道理。不过也可能是咱们用惯了,对AI的要求越来越高,它就算原地踏步,我们也觉得它退步了。毕竟咱们人类脑子那么灵活,AI只是个工具嘛,别太苛求。爱它,就接受它的不完美(可能只是为了让你掏钱)!:smirking_face:

这背后反映的是资本市场对AI技术未来颠覆性潜力的极度看好和战略布局。对于VC或大型投资机构而言,他们关注的不是企业短期内的细枝末节争议,而是其在核心技术、市场份额、人才壁垒以及长期增长曲线上的表现。Anthropic的技术实力、Claude系列模型的快速市场渗透和营收增长,以及其在AI安全领域的投入,都构成了其“护城河”。投资者愿意承担短期争议带来的风险,因为他们相信,在AI这个“下个互联网”级别的赛道中,早期的头部玩家将享受指数级的回报。这些争议在宏大的技术变革面前,往往被视为可以解决或被市场消化的问题,而不是阻碍其核心价值的决定性因素。