AI 发展新趋势:模型即产品,警惕应用层同质化

AI 领域迎来新变局:模型即产品。过度押注应用层或存风险,自研模型或成破局关键。

原文标题:自己训练模型才能掌握未来?一股脑押注应用层或许值得警惕

原文作者:机器之心

冷月清谈:

Alexander Doria 在文章中犀利地指出,当前 AI 领域的投资热潮集中在应用层,大量企业依赖 OpenAI、Anthropic 等公司的 API 提供服务,这种模式存在巨大风险。他认为,通用模型的 scaling 正在停滞,而强化学习等新方法效果超预期,推理成本也在急剧下降,这意味着模型本身将成为核心产品。大型 AI 实验室如 OpenAI 和 Anthropic 正通过 DeepResearch 和 Claude Sonnet 3.7 等产品,展示了其进军应用层的野心。Doria 警告说,这些公司未来可能停止销售 API,转而直接提供应用服务,这将使依赖其 API 的集成商们面临生存危机。他建议集成商应考虑自己训练模型,或者与专注强化学习的 AI 训练公司合作,避免沦为大型实验室的免费劳动力。文章还提到了 DeepSeek 将模型视为通用基础设施层的战略,强调技术创新才是当前阶段的关键。

怜星夜思:

1、文章里说,现在很多公司都在用 OpenAI、Anthropic 的 API 做应用,如果这些大公司以后停止提供 API,自己做应用,这些公司该怎么办?除了自己训练模型,还有什么其他的出路吗?
2、文章提到“强化学习尚未被定价”,这句话怎么理解?强化学习在AI的未来发展中会扮演什么角色?
3、文章最后提到DeepSeek将模型视为通用基础设施层,而不是简单的产品。这种思路会对AI产业的未来发展产生什么影响?

原文内容

选自Vintage Data

作者:Alexander Doria 

机器之心编译

模型即产品? 


「所有投资者都在押注应用层…… 对训练能力存在强烈的负面偏见…… 我担心这是一场冒险赌注和市场误判。」这是一篇标题为「The Model is the Product(模型即产品)」的文章的主要观点。



文章指出,当前很多企业都以集成商的形式在提供 AI 服务,也就是调用 OpenAI、Anthropic 等大公司模型的 API。未来,这将是一种非常危险的做法,因为这些大公司掌握了模型更新的主动权,未来他们也将进入应用层,并有可能在未来 2-3 年内停止销售 API。如果按照这种趋势发展,这些公司将拿走大部分利润,而现在的集成商实际上在为他们做免费的市场调研,甚至是免费的数据设计和生成服务。


他还举了一些例子来证明自己的观点,比如 OpenAI 的 DeepResearch 和 Claude Sonnet 3.7。DeepSearch 不通过 API 提供,只用于为高级订阅创造价值。Claude 3.7 在 Claude Code 中能完美运行,但 Cursor 却在集成它时遇到困难,已经有一些高端用户因此取消了他们的 Cursor 订阅。


因此,集成商们现在面临一个艰难选择:到底是自己训练模型,还是用别人已经训练好的模型。作者显然更倾向于前者。但现在的投资现状是:选择自己训练模型没有那么容易融资。


文章作者 Alexander Doria 是 AI 科技公司 Pleias 的联合创始人,同时也是一位专注于大语言模型(LLM)研究的机器学习工程师。


以下是博客原文: 


模型即产品


过去几年里,关于 AI 发展下一个周期会是什么,人们有很多猜测:Agent(智能体)?Reasoner(推理器)?真正的多模态?


我认为是时候下定论了:模型即产品。当前研究和市场发展的所有因素都指向这个方向。


  • 通用模型的 scaling 正在停滞。这正是 GPT-4.5 发布背后传达的信息:能力在线性增长,而计算成本却呈几何曲线增长。即使过去两年训练和基础设施效率的提升不小,OpenAI 也无法部署这个巨型模型 —— 至少定价远远不是用户能承受的。
  • 某些已有方法的训练效果远超预期。强化学习和推理的结合意味着模型突然开始学习任务。这不是机器学习,也不是基础模型,而是一种秘密的第三种东西。甚至是小模型的数学能力也突然变得好得吓人。这让编程模型不再仅仅生成代码,而是自己管理整个代码库。这能让 Claude 在上下文信息很少且没有专门训练的情况下玩《宝可梦》游戏。
  • 推理成本急剧下降。DeepSeek 最近的优化意味着所有可用的 GPU 加起来可以支撑全球用户每天让前沿模型输出 10k token。我们现在还远没有这么大的需求。对模型提供商来说,卖 token 赚钱的思路不再有效了:他们必须向价值链的更高处移动。


这也是一个令人不安的方向。所有投资者都在押注应用层。在 AI 进化的下一阶段,应用层可能是最先被自动化和颠覆的。 


未来模型的形态


过去几周,我们看到了两个「模型即产品」的重要新案例:OpenAI 的 DeepResearch 和 Claude Sonnet 3.7。


我读到了很多关于 DeepResearch 的误解,而这些误解并没有因为开源和闭源版本的克隆增多而得到澄清。OpenAI 并没有在 O3 之上构建一个包装器。他们训练了一个全新的模型,能够在内部执行搜索,无需任何外部调用、提示或编排:

 

该模型学习了核心浏览能力(搜索、点击、滚动、解释文件)(...)以及如何通过这些浏览任务的强化学习训练来推理综合大量网站,找到特定信息或撰写全面报告。


DeepResearch 不是标准的 LLM,也不是标准的聊天机器人。它是一种新形式的研究语言模型,专为端到端执行搜索任务而设计。对认真使用它的人来说,区别立即变得明显:模型生成具有一致结构和底层源分析过程的长篇报告。相比之下,正如 Hanchung Lee 强调的,所有其他 DeepSearch—— 包括 Perplexity 和 Google 的变体只是你通常的模型加上一些调整: 


Google 的 Gemini 和 Perplexity 的聊天助手也提供「Deep Research」功能,但两者都没有发表任何关于他们如何优化模型或系统来完成任务的文献,也没有任何实质性的定量评估(...)我们将假设所做的微调工作并不重要。 


Anthropic 一直在更清晰地阐述他们当前的愿景。在 12 月,他们引入了一个有争议但在我看来是正确的智能体模型定义。类似于 DeepSearch,智能体必须在内部执行目标任务:它们「动态指导自己的处理过程和工具使用,保持对如何完成任务的控制」。 


大多数智能体初创公司目前正在构建的不是智能体,而是工作流,即「通过预定义的代码路径编排 LLM 和工具的系统」。工作流仍可能带来一些价值,尤其是在垂直领域的适应性方面。然而,对于那些在大型实验室工作的人来说,一个显而易见的事实是,所有关于自主系统的重大进展都将首先通过重新设计模型本身来实现


我们在 Claude 3.7 发布时看到了这方面的一个非常具体的演示,这是一个主要为复杂代码用例而训练的模型。所有像 Devin 这样的工作流适应在 SWE 基准测试上都有了重大提升。


再举一个规模小得多的例子:在 Pleias,我们目前正在研究如何自动化 RAG。现有的 RAG 系统是由许多相互关联但又脆弱的工作流组成的,比如路由、分块、重排序、查询解析、查询扩展、来源上下文化、搜索工程化等。随着训练技术栈的不断发展,我们真的有可能将所有这些流程整合到两个相互关联但又独立的模型中,一个用于数据准备,另一个用于搜索 / 检索 / 报告生成。这需要一个精心设计的合成数据管道,以及为强化学习设计的全新奖励函数。这才是真正的训练,真正的研究。


这一切在实践中意味着什么?转移复杂性。训练过程会预先考虑广泛的行动和边缘情况,从而使部署变得更加简单。但在这一过程中,大部分价值是在训练阶段创造的,并且最终很可能会被模型训练者所捕获。简而言之,Claude 的目标是破坏和取代当前的工作流,比如 llama index 中的这个基本「智能体」系统:



取而代之的是:



自己训练模型,还是用别人训练好的模型?  


重申一下:大型实验室不是带着隐藏议程前进的。虽然他们有时可能不透明,但他们公开地展示了一切:他们将捆绑,他们将进入应用层,他们将尝试在那里捕获大部分价值。商业后果相当明确。Databricks 的 Gen AI 副总裁 Naveen Rao 很好地表达了这一点:


所有闭源 AI 模型的提供商在未来 2-3 年内将停止销售 API。只有开源模型将通过 API 提供(...)闭源模型提供商正试图构建非商品能力,他们需要出色的 UI 来提供这些能力。它不再只是一个模型,而是一个具有特定目的 UI 的 APP。



所以,现在发生的一切只是大量的否认而已。模型提供商和集成商(基于大模型 API 构建应用的公司)之间的蜜月期已经结束。事情可能会朝两个方向发展:


  • Claude Code 和 DeepSearch 是这个方向的早期技术和产品实验。你会注意到 DeepSearch 不通过 API 提供,只用于为高级订阅创造价值。Claude Code 是一个极简的终端集成。奇怪的是,虽然 Claude 3.7 在 Claude Code 中运行完美,但 Cursor 却在集成它时遇到困难,我已经看到一些高端用户因此取消了他们的订阅。真正的 LLM 智能体不关心预先存在的工作流:它们直接替代它。
  • 最高调的集成商现在正在争相成为混合 AI 训练公司。它们确实有一些训练能力,尽管很少宣传。Cursor 的主要资产之一是他们的小型自动补全模型。WindSurf 有他们内部廉价的代码模型 Codium。Perplexity 一直依赖自家的分类器进行路由,最近转向为搜索目的训练自己的 DeepSeek 变体。
  • 对于较小的集成商,情况可能没有太大变化,除非大型实验室完全放弃这一市场,否则它们可能会更多地依赖于中立的推理服务提供商。我也预计会看到对用户界面(UI)的更多关注,因为 UI 仍然被严重低估。随着更通用的模型可能会整合常见的部署任务,尤其是在 RAG 领域,这种情况可能会更加明显。


对于大型 AI 实验室将停止销售 API 的说法,有人提出了不同意见。


简而言之,大多数成功集成商的困境很简单:是自己训练模型,还是依赖于模型提供商的训练成果。目前,他们实际上在为大型实验室做免费的市场调研,甚至是免费的数据设计和生成服务,因为所有最终的输出都是通过模型提供商生成的。


接下来会发生什么,谁也说不准。成功的集成商确实有其优势,比如他们对自己的垂直领域非常了解,并积累了大量宝贵的用户反馈。然而,根据我的经验,从模型层面转向应用层面相对容易,而从头开始构建全新的训练能力则要困难得多。集成商的投资者可能也没有给予他们足够的帮助。据我听到的消息,投资者对训练能力存在如此强烈的负面偏见,以至于集成商几乎不得不隐藏其最具价值的部分:例如,cursor small 和 codium 目前都没有得到适当的文档记录。


强化学习尚未被定价 


这让我来到了真正痛苦的部分:目前,所有的人工智能投资都是相互关联的。基金都在以下假设下运作:


  • 真正的价值完全在于一个与模型层无关的应用层,而这一层最有潜力颠覆现有的市场格局。
  • 模型提供商只会以不断降低的价格出售 token,这反过来又会使集成商变得更加有利可图。
  • 闭源模型的集成将满足所有现有需求,即使是在对外部依赖有长期担忧的受监管领域。
  • 建立任何训练能力都只是浪费时间。这不仅包括预训练,还包括所有形式的训练。


我担心这愈发像是一场冒险赌注和市场误判,未能准确评估最新技术发展的价值,特别是在强化学习(RL)领域。在当前的经济生态系统中,风险投资基金本应寻找低相关性的投资组合 。它们可能无法超越标普 500 指数,但这并不是大型机构投资者所追求的:他们希望分散风险,确保在糟糕的一年里至少有一些投资能够取得成功。


模型训练就是一个教科书般的完美例子:在大多数西方经济体走向衰退的背景下,它具有巨大的颠覆潜力。然而,模型训练公司却难以筹集资金,或者至少无法以传统的方式筹集。Prime Intellect 是少数几家具有明确潜力成为前沿实验室的西方新晋 AI 训练公司之一。然而,尽管他们取得了包括训练第一个去中心化大语言模型(LLM)在内的成就,他们仍然难以筹集到比普通集成商更多的资金。


除了这些大型实验室,当前的模型训练生态系统规模极小。几乎可以掰指头数清这些公司:Prime Intellect、Moondream、Arcee、Nous、Pleias、Jina、HuggingFace 预训练团队(实际很小)... 还有一些更学术性的机构(Allen AI、Eleuther 等),他们共同构建并支持了大部分当前开放的训练基础设施。在欧洲,我了解到至少有 7-8 个 LLM 项目将采用 Common Corpus 和我们在 Pleias 开发的预训练工具 —— 其余项目将使用 fineweb,以及可能来自 Nous 或 Arcee 的后训练指令集。 


当前的融资环境存在严重问题。就连 OpenAI 现在也意识到了这点。最近,他们对硅谷创业生态中缺乏「垂直强化学习」表示不满。我相信这一信息直接来自 Sam Altman,这可能会影响下一批 YC 孵化公司的选择,但更指向一个更大的转变:不久之后,大型实验室选择的合作伙伴将不再是 API 客户,而是参与早期训练阶段的技术承包商。 


如果模型即产品,单打独斗的开发方式将不再可行。搜索和代码领域是容易摘取的果实:作为过去两年的主要应用场景,市场已接近成熟,你可以在几个月内推出新的 cursor 产品。然而,未来许多最具盈利潜力的 AI 应用场景尚未发展到这一阶段 —— 想想那些仍然主导全球经济大部分的基于规则的系统。拥有跨领域专业知识和高度专注的小型团队可能最适合解决这些问题 —— 最终在完成基础工作后成为潜在的收购对象。我们可能会在 UI 领域看到类似的发展路径:一些优先合作伙伴获得闭源专业模型的独家 API 访问权,前提是他们为未来的业务收购做好准备。 


至今我还没有提及 DeepSeek 或中国的实验室。原因很简单,DeepSeek 已经更进一步:它不仅是作为产品的模型,而是作为通用基础设施层。与 OpenAI 和 Anthropic 一样,梁文锋公开了他的计划:


我们认为当前阶段是技术创新的爆发期,而不是应用的爆发期 (...)如果能形成完整的产业上下游,我们就没必要自己做应用。当然,如果需要,我们做应用也没障碍,但研究和技术创新永远是我们第一优先级。


在这个阶段,仅专注于应用开发就像是「用上一场战争的将军打下一场战争」。恐怕许多人甚至还没意识到,上一场战争已经结束了。 


原文链接:https://vintagedata.org/blog/posts/model-is-the-product


© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]


以后会不会出现“AI自来水公司”?想用AI,交钱就行,多方便!

“强化学习尚未被定价”意味着强化学习的价值还没有被市场充分认识到,相关的技术和人才都被低估了。在AI的未来发展中,强化学习将扮演非常重要的角色,它能够让AI在与环境的交互中不断学习和优化,从而实现更智能、更自主的决策。比如,自动驾驶、智能推荐、机器人控制等领域,都离不开强化学习。

这就好比早期的互联网,大家都觉得是泡沫,但后来呢?强化学习就是AI界的“互联网+”,它能让AI更聪明,更适应复杂环境,现在入场,妥妥的潜力股!说不定下一个AI独角兽就出自强化学习领域!

DeepSeek的思路很像云计算时代的AWS,将模型变成一种基础设施服务,可以降低AI的应用门槛,加速AI的普及。未来,越来越多的企业可以直接调用这些基础设施,而无需自己训练模型,这会极大地提高效率,降低成本。但同时,也可能会加剧AI领域的垄断,强者恒强。

我觉得除了自研模型,还可以考虑寻找更垂直、更专业化的模型服务商,或者与开源社区深度合作,基于开源模型进行定制化开发。另外,提升用户体验,打造差异化竞争优势也很重要,毕竟API只是工具,最终还是看谁能更好的满足用户需求。还可以考虑转型做AI方案提供商,而不仅仅是应用集成商。

这个问题问的好!其实除了文章里提到的自研模型,我觉得可以考虑几个方向:

1. 开源拥抱者: 积极参与开源社区,基于开源模型进行二次开发和优化,打造具有自身特色的应用。这样可以降低对闭源API的依赖。
2. 垂直领域深耕: 专注于特定行业或领域,积累行业Know-How和数据,打造行业领先的AI解决方案。即使底层模型发生变化,也能凭借行业优势保持竞争力。
3. API Broker: 成为API市场的中间商,整合不同模型的API,为客户提供一站式服务。通过规模效应和优化路由,降低API使用成本。
4. 战略联盟: 与其他公司建立战略联盟,共同应对风险。例如,与硬件厂商合作优化模型推理性能,或与数据提供商合作获取高质量数据。

总之,鸡蛋不要放在一个篮子里,多元化发展才是王道!

格局小了啊,既然大厂要做应用,那我就做大厂应用的渠道!类似于现在的应用商店,整合各家AI应用,做流量分发,躺着收钱岂不美哉?

这句话的意思是说,当前市场对强化学习的价值认识不足,投入不够,导致其潜力远未被挖掘。为啥这么说?

首先,强化学习能让AI像人一样通过试错来学习,这对于解决很多复杂问题至关重要。比如,在游戏领域,AlphaGo 就是强化学习的杰作。未来,强化学习将在自动驾驶、机器人、推荐系统等领域大放异彩。

其次,强化学习需要大量的数据和计算资源,以及专业的算法工程师。这些门槛导致强化学习的研发成本较高,但一旦突破,其带来的回报也将是巨大的。

所以说,“强化学习尚未被定价”,意味着这是一个潜力巨大的蓝海市场,等待着有远见的投资者和技术人员去开垦。

这就相当于把AI变成了一种“水电煤”,随用随取,大大降低了使用门槛。以后,小公司也能用上最先进的AI技术,创新速度肯定会更快!