星河启智发布「大圣」:高能动性AI如何赋能真实科研?

星河启智发布「大圣」,旨在打造高能动性的AI科研合伙人,通过认知、行动、记忆和验证四大能力,助力科研流程自动化,加速科学探索。

原文标题:科学家的超级合伙人来也!星河启智「大圣」让高能动性AI「入局」真实科研

原文作者:机器之心

冷月清谈:

星河启智平台推出超级科研合伙人「大圣」,旨在解决科研流程中工具繁杂、系统割裂的问题。「大圣」以高能动性组织科研流程,与科学家共同进行深度科学探索。它具备四大核心能力:认知(理解科学原生数据)、行动(将Tools升级为科研级Skills)、记忆(多分支群体记忆架构,记录科研过程)和验证(链接物理世界,形成实验闭环)。「大圣」通过多模态基础模型、专家级科学Skills与自驱动实验室等智能体协作,力求实现科研流程的自动化、智能化,但强调科学家在环,负责关键判断与最终把关。该平台已沉淀大量科学模型、数据资产和科研团队协作网络,并引入可信计算与安全协作机制,以应对科研数据高敏性带来的挑战。星河启智正推动AI4S从工具层面的效率革命走向科研生产关系的重塑。

怜星夜思:

1、文章中提到“科研需要的是能专业面向科学探索、主动组织流程的高能动性系统”,那么「大圣」是如何在实际应用中体现这种“高能动性”的? 除了文章中提到的点,你觉得高能动性还应该体现在哪些方面?
2、文章提到「大圣」借鉴了软件开发中Git版本的管理思想,引入多分支群体记忆架构,那么这种架构在科研中的具体优势是什么?除了Git,还有哪些其他的软件工程思想可以应用到AI4S中?
3、文章最后提到“人类科学家的角色,也在从「亲自完成每一步」,缓慢转向「定义问题与最终裁决」”,你认为未来科学家在AI4S中扮演的角色会发生哪些转变?这种转变对科学家的能力提出了哪些新的要求?

原文内容

图片
编辑|+0


任何在通风橱前熬过夜、被繁琐的湿实验折磨过的科研人,看到这一幕大概都会心跳加速。


在星河启智科学智能开放平台推出全面升级版本的发布会现场,大屏幕上实时展示了这样一段流程:超级科研合伙人「大圣」在云端给出 AI 模型计算结果与自然语言描述的实验方案后,操作者一键点击「AI 费米」模块生成仪器的实验调度排产方案。画面随即连线远端的湿实验室:接收到指令的真实自动化实验器材,已经开始有条不紊地运转。


图片


过去几年,AI 工具在科研领域爆发式增长。


文献助手、代码助手、分子设计模型、自动化实验系统不断涌现,单点能力持续刷新上限。但在真实实验室一线,许多科学家的直观感受却是:工具越多,系统反而越碎,科研流程并没有因此变得更轻松。


原因很简单:科研从来不是一组松散工具的叠加,而是一项高度专业、强约束、长周期演进的系统工程。


相比通用办公或内容生产场景,科学研究同时要求:对原生结构与物理约束的高保真理解;对多路径探索过程的持续记忆;对实验结果的严格验证闭环;以及对高敏数据与知识产权的安全控制。


问题正在从「模型不够强」,转向一个更结构性的命题:有没有一种 AI,能够在专业约束下高能动性地组织科研流程、与人类科学家共同进行深度科学探索?


2026 年 3 月 1 日,在上海徐汇「模速空间」的发布会上,由上海科学智能研究院(下称上智院)、复旦大学和无限光年联合共建的星河启智平台宣布全面升级,正式推出超级科研合伙人「大圣」



本次发布会由上海科学智能研究院联合复旦大学主办,来自上海市经信委、科委、国资体系及阿里达摩院等多方代表到场,标志着科研范式变革正在集中顶尖学术与官方资源加速推进。



它试图回答一个更核心的问题:面向专业严谨的科学探索,一个超级科研合伙人究竟需要具备怎样的高能动性与系统级专业能力?


为什么 AI4S 需要
「系统+专业+高能动性」,
而不是更多「点状执行」?

如果把过去两年的 AI4S 进展粗略分层,会看到一个非常典型的演进路径:先是模型能力跃升,再是工具数量爆发,而现在,瓶颈正在向更深一层转移。


在采访中,复旦大学人工智能创新与产业研究院副院长、上智院科研副院长兼星河启智平台负责人程远提到一个一线观察:科学家并不缺工具,缺的是把能力真正「用起来」的组织能力。尤其是在面向专业科学探索时,科学家需要的不仅是零散的工具,更是一套具备推理、决策与实验闭环能力的专业科研智能体体系。


这背后,是科研场景与通用 AI 使用场景之间一条被长期低估的分界线。与通用办公或内容生成任务中的短链路、低耦合不同,真实科研更加复杂。


一个看似简单的研究问题,往往会迅速展开成一条长达数月甚至数年的复杂路径:文献检索 → 假设提出 → 数据处理 → 模型构建 → 仿真 → 湿实验 → 回流修正,而且可能随时分叉、回滚、重来。


更关键的是,科研流程同时带有三重硬约束:一是模态原生(结构 / 序列 / 场),不是文本友好输入;二是流程长周期强耦合,项目级连续研究靠短上下文很难撑住;三是结果必须回到物理世界校准:「算得对」不等于「是真的」。


三者叠加,科研需要的是能专业面向科学探索、主动组织流程的高能动性系统。


这正是「大圣」被定义为「超级科研合伙人」的出发点。以「大圣」为核心载体,星河启智平台构建了多模态科学基础模型、群体记忆、专家级科学 Skills 与自驱动实验室等一系列专业前沿的智能体协作研发能力。


「大圣」四大能力拆解:

认知、行动、记忆、验证


认知:真正理解科学,而不是文本

高能动性的前提,是模型真的「看懂科学」。


过去相当一部分通用大模型的技术路径,本质上是把一切输入「文本化」:分子结构转成字符串,蛋白序列压成 token,谱图展平成向量,然后交由语言模型统一处理。


这一路径在很多任务上确实带来了可观进展,但在严肃科研中,这条路线开始暴露硬伤:当三维结构被压成一维序列时,其空间结构信息已经损失,模型学到的,很可能只是「像科学的文本」,而不是科学本身。


但科研里,恰恰不能丢的是空间关系与物理约束。


基于这一判断,「大圣」体系的第一块基石,并不是更大的语言模型,而是一个面向科学原生数据构建的多模态基础模型:「神珍」。



它试图解决的核心问题可以概括为一句话:让模型直接在科学模态空间里思考,而不是绕道语言。


在架构设计上,「神珍」采用了三点关键策略:


  • 支持结构、序列、场信息的原生输入。

  • 输出直接对齐科学结果形式。

  • 在系统内部实现多种模态科学 token 对齐(包括语言模态)。


简单说,自然语言更多负责调度,而深度的推理尽量留在科学表示空间完成。


从公开结果看,这一路线已给出早期信号:在 ncRNA 分类任务中准确率达 96.3%,在 RNA Switch 生成任务中设计精准度约 90%+,并完成 Toehold Switch 的实验闭环。


这些结果的意义不只在于指标本身。更关键的是,它们验证了一件事:当模型不再被限制在文本空间时,AI4S 的能力上限开始被重新打开。


行动:从 Tools 到科研级 Skills

看懂只是第一步。科研一线更现实的问题是:AI 能不能把事稳定做成?


这正是许多科研团队在过去最真实的落差来源:工具很多,但它们之间彼此依赖复杂,真正「能自动化跑通全部流程」的能力并不多。


星河启智给出的答案,是把 Tools 升级成科研级 Skills。


两者差别的本质是:Tool 类似于固化的函数 / 工具调用;而 Skill 本质上是一种可被 AI 理解且能自适应调整 / 调度的基础能力。


具体而言,一个完整 Skill 除了包含一个工具外,通常需要内含:标准化输入输出约定、工具调用逻辑、以及超参数的含义及范围等等。换句话说,从 TOOL 到 SKILL 更像从「各司其职的手工作坊」到「环环相扣的车间流水线」的变化。


从工程角度看,把 AI 能力封装成科研级 Skills,至少要同时跨过三道隐形门槛:


  • 遵循学科的基本规律和逻辑。

  • 路径必须被真实场景验证过。

  • 结果上可评估、可复现、可验证。


也正因此,程远在采访中强调,「大圣」的 Skills 体系是围绕真实科研流程一点点沉淀出来的,而不是从通用 Agent 生态直接迁移。


在系统层,「大圣」将这些能力模块化为可调度 Skills,并交由多智能体按需编排:拆解科研任务路径 → 匹配可用 Skills 组合 → 调度算力与模型资源 → 并行推进子任务 → 根据中间结果动态调整路线。


截至目前,平台已沉淀 300+ 可复用科研 Skills,覆盖四大学科群与 20 余类科研场景,并已在部分真实项目中实现规模化应用。



值得注意的是,过去 7 个月间,星河启智平台模型与工具数量实现翻倍增长,入驻科研团队增长达 1200%,显示出科学智能生态正在进入加速扩张阶段。


从一些早期落地案例看,这套体系已经开始体现出产业价值:例如在新型补锂剂分子研发等任务中,相关流程实现了千万级直接转化,并吸引了进一步资本投入。同时在人文社科领域,通过构建首个万题级早期中华文明评测集,并在此基础上打造多个学科智能体,有效赋能了人文社科研究与通识教育。



如果回到更宏观的视角,「大圣」真正试图接管的,不是「工具调用」,而是科研中的系统性重复劳动。


记忆:科研不是一轮对话

当系统真正进入科研深水区,一个更隐蔽但更致命的问题会浮现出来:它能不能记得住整个研究过程?


这是通用 Agent 在科研场景中最容易被低估、却最先暴露瓶颈的一环。


与短链路任务不同,科研天然是跨月甚至跨年的连续演进,伴随多假设并行探索和大量失败路径回滚。传统对话式记忆很难承载这种项目级复杂度。


更关键的是,一旦进入多智能体并行科研,传统记忆方案会迅速暴露结构性问题:假设互相污染、失败经验难沉淀、历史难以结构引用、长期认知容易漂移。


换句话说,问题已经不是「记不记得住」,而是:如何治理一整个不断分叉、生长、回滚的科研认知树。


「大圣」的选择是借鉴软件开发中 Git 版本的管理思想,引入多分支群体记忆架构,其核心可以概括为三点:


  • 精准长期记忆(避免认知坍塌,实现记忆回滚):以成熟理论为主干认知,完整留存多路径演进轨迹,确保长周期科研认知不漂移、不遗忘,并支持随时溯源与路径回滚。


  • 多主体保护(共识与非共识双向保护):每条创新假设在独立分支并行演进,实现记忆与数据的安全隔离;既稳固已验证的共识基线,又让非共识观点能在独立空间中完成从计算到验证的孵化。


  • 优势认知整合(沉淀成功经验,吸收失败教训):失败分支完整保留全过程的探索经验与优势认知,结合其他分支启发新方向;成功经验则通过可控合并机制融入主干,实现群体认知的持续升级与跨场景复用。



这种设计,本质上是把科研过程从「对话历史」,升级成了可治理的群体认知系统。


团队的目标很明确:让科研过程第一次具备类似软件工程的属性:可追溯、可回滚、可复用、可演进。


该架构已在上海市科学智能百团百项超宽禁带半导体研发项目中落地验证,支撑十余个专业智能体有序协同与多路径并行探索。



验证:让模型全面链接物理世界,上天入体

对 AI4S 来说,检验其能否真正落地的黄金标准之一是:能不能回到物理世界被验证。


这几乎是所有科学智能系统共同面对的「物理现实」,模型可以在云端秒级生成上万候选,但湿实验的验证成本始终难以压缩。


在采访中,程远也明确指出,科学智能如果停留在「云上跑通」,其价值是有限的;只有当 AI 模型的预测结果能够被物理实验持续校准,系统才可能形成真正可靠的科学认知闭环。


这正是「大圣」在第四层能力上重点补齐的一环。为此,「大圣」把计算与实验拉进同一条闭环:模型云端高通量预测 → 智能化湿实验 → 数据回流 → 模型强化更新。


整个过程尽可能减少人工串行等待,将原本割裂的计算的软阶段与实验的硬阶段压缩进同一条可迭代流程中,形成软硬一体的科学智能闭环,让 AI 在真实物理世界的不断反馈里持续进化。


经过团队验证,这套自动化编排已将上智院的部分科研流程效率提升约 3 倍,并显著减少无效实验。


更进一步,「大圣」在验证层的野心并不只停留在单一实验室自动化,而是提出了一套更完整的科学全域覆盖,团队称之为「上天入体」:一头深入生命科学实验体系(如 siRNA 设计提升成功率、减少无效湿实验),一头延伸到地球 / 太空观测,用实时数据持续修正模型。



目前,上智院已与复旦大学、之江实验室完成「空地数据互联 - 伏羲模型上天 - 星上计算」闭环链路验证,并在轨运行一个月,接下来计划与业界伙伴合作共建 AI 气象星座。



这一步的象征意义很明确:AI4S 不再只是「在电脑里做科学」,而是开始系统性接入真实世界。


当认知、行动、记忆与验证四层逐步闭合,「大圣」指向的,也不再只是一次模型升级,而更像是一种面向科研流程的操作系统级跃迁。


「Scientists in the loop」不是口号

当然,程远在采访中也反复强调一点:自动化 ≠ 无人化。尤其是在异常数据、新规律迹象或关键路径选择出现时,系统会主动触发科学家介入审核。


这种设计背后的判断非常克制,也非常现实:AI 适合高通量探索、AI 擅长重复劳动、AI 可以加速收敛。


但真正的科学洞察、异常意义判断以及研究方向转向,仍然需要人类科学家在环。

它重新划分了一种更清晰的协作边界:AI 负责规模化探索与执行,科学家负责关键判断与最终把关。


也正是在这个意义上,「大圣」被团队比喻为科研取经路上的「孙行者」:不是替代唐僧,而是作为具备高能动性的超级合伙人,它不仅拥有强大的执行力,更具备中心化决策与推理能力,能够调度多智能体协同执行。


这套高能动性恰恰源自「大圣」严密的系统级专业底座:以科学多模态基础模型为「大脑」保障推理,以验证过的科学 Skills 为「法器」执行任务,以多智能体的群体记忆为「识海」支撑长周期研究,最终通过「上天入地」的自驱动实验室全面链接并验证物理世界,形成科研闭环。


为什么这不是一夜能复制的?


当一个科研智能体开始深入接管流程、调用算力、触达实验,问题就不再是「能力够不够强」,而是:科研机构,敢不敢把关键任务交给它。


这在 AI4S 领域尤为敏感。


与通用办公不同,科研数据天然高敏:未公开实验结果、核心配方、临床数据、潜在知识产权,每一项都对应真实风险成本。


在采访中,程远提到,很多企业和高校最初的顾虑并不在模型性能,而在一个更基础的问题:数据一旦进入系统,是否还可控?


给高能动性的「大圣」套上「金箍」

随着智能体从被动问答走向主动执行,风险模型也在发生变化。


过去的大模型,大多数风险集中在「说错话」;而高能动性科研智能体,一旦具备任务调度与实验编排能力,风险迅速外溢:是否会越权访问数据?是否会误触高成本实验?是否会造成知识资产泄露?是否能完整追溯决策路径?


为此,「大圣」在系统层引入了一套可信计算与安全协作机制,核心思路很直接:


  • 数据不外流:原始数据尽量留在本域处理。

  • 能力可审计:所有 Agent 调用全程可追溯。

  • 环境可试错:提供 Sandbox 支持隔离验证。


用团队的话说,就是给越来越强的「大圣」,先戴好金箍、配上紧箍咒,再放它上场。



跨组织协作,信任如何被生产

一旦进入真实科研协作,问题会进一步复杂。很多前沿研究本质上是跨机构、跨企业完成的,瓶颈往往不在技术,而在信任边界。


对此,星河启智补了两层基础设施:


  • A2A(Agent-to-Agent)服务化协作:合作方以 Agent 服务形式提供能力,实现「能力可用、数据不出域」。

  • Agent on Chain 可确权记录:关键任务拆解与执行轨迹上链存证,让协作过程可验证、可追责。


这一步的指向已经很明确:当科研进入多智能体时代,信任必须被系统化生产。


更难复制的,其实是「真实科研飞轮」

真正拉开差距的,往往是另一层更慢变量的积累:真实科研生态绑定。


截至目前,星河启智平台已沉淀:400+ 科学模型与工具;22PB 高价值数据资产;上千科研团队协作网络。


这些资产并不是简单堆叠出来的,而是在真实科研任务中反复打磨形成的能力网络。


模型能力可以被快速追赶,但深度嵌入科研流程的系统与生态,很难一夜复制。


结语:

跨越工具属性,

重构科研生产关系


在发布会上,立足星河启智平台,上智院和复旦同步发起了第四届世界科学智能大赛的创新赛道——AI4S 智能体 CNS 挑战赛将目标直指一项前所未有的硬核考验要求智能体在完全无人工干预的条件下,跑通顶刊级科研闭环。


如果说过去两年的 AI4S 竞争还主要停留在「模型能力」层,那么以「大圣」为代表的新一代科研智能体,正在把竞争维度推向更重的系统层与基础设施层。


当 AI 第一次被要求在零干预条件下跑通顶刊级科研闭环,人类在科研体系中的位置,是否正在被重新定义?


从采访释放出的信号来看,团队的判断相当克制。他们依然反复强调一个前提:Scientists in the loop 是结构设计,而不是过渡方案。


但技术演进的张力,恰恰也正在这里悄然积累。


一方面,具备长周期记忆、多智能体协同与干湿闭环能力的系统,正在系统性吞噬科研流程中的重复劳动;另一方面,人类科学家的角色,也在从「亲自完成每一步」,缓慢转向「定义问题与最终裁决」。


这或许意味着,AI4S 正在从一场工具层面的效率革命,悄然迈入一次更深层的变革:科研生产关系的重排。


如果这一路线持续推进,那么未来驱动前沿突破的核心引擎,或许将演变为一种全新的深度共生关系:具备顶层洞察力的科学家,加持一套不断进化的系统级高能动性科研智能体。


而「大圣」,则是这场长周期变化中,刚刚显形的一个早期信号。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

我理解的是,AI是工具,科学家是使用者。工具再好,也需要人来掌控。未来,科学家需要提升自己的AI素养,学会如何与AI协同工作。同时,也要更加注重培养自己的批判性思维和创新能力,这样才能在AI时代保持竞争力。

这句话的意思很明确,就是说即使AI再强大,科学家在科研过程中也是不可或缺的。AI可以做很多事情,但它不能代替科学家思考、创新和判断。未来,科学家应该更多地扮演“指挥家”的角色,利用AI来加速科研进程,而不是被AI取代。

我觉得最大的风险是数据偏见和算法黑箱。如果AI训练的数据本身就存在偏差,那么它得出的结论也可能是有问题的。而且,AI的决策过程往往不透明,我们很难知道它是如何得出某个结论的,这可能会导致我们对AI的结论产生过度信任。为了应对这些风险,我们需要确保数据的多样性和代表性,同时加强对AI算法的解释性研究。

AI科研系统最大的伦理风险就是数据安全和知识产权保护。科研数据往往包含敏感信息,一旦泄露后果不堪设想。所以,必须建立严格的数据访问权限控制和安全审计机制,确保数据安全可控。

AI在科研中的应用,让我想起了克莱顿·克里斯坦森的颠覆式创新理论。也许短期内AI只能替代科研中低价值、重复性的工作,但长期来看,它可能会颠覆整个科研范式,催生出新的研究方法和发现。当然,这需要科学家和AI共同进化。

多分支群体记忆架构,可以理解为给科研建立了一个“知识库”。每个研究方向都有自己的分支,成功经验合并到主干,失败教训也能保留下来供参考。这不仅能提高科研效率,还能促进知识的积累和传承。

这个Git版本管理思想的引入,简直是科研福音!科研过程就像软件开发,充满了各种假设、实验和失败。有了多分支记忆,就能清晰记录每次尝试,方便回溯和总结经验教训,避免重复踩坑。

从文章来看,「大圣」擅长高通量探索和重复劳动,能加速科研的收敛过程。但科学洞察、异常意义判断和研究方向的转向,还是得靠科学家。这就像AI是科研的“孙行者”,执行力强,但需要科学家这个“唐僧”来把握方向。

我认为会加速科研成果的产出,推动科技进步。但是,也可能会加剧科研资源的不平衡。有能力使用AI工具的科研机构和团队会获得更大的优势,而缺乏资源的机构可能会被边缘化。此外,AI可能会放大已有的偏见,如果训练数据存在偏差,AI的分析结果也可能存在偏差,从而导致科研结论的错误。

AI普及后,会不会出现“学术内卷”?大家都在用AI跑数据、发paper,速度是快了,但创新性是不是也会下降?另外,AI会不会让那些“民科”更难出头了?毕竟,他们缺乏资源和数据,很难与那些拥有强大AI工具的机构竞争。

我觉得吧,这句话其实挺无奈的,或者说是一种妥协。AI现在还不能完全取代科学家,所以只能让人类参与进来。不过,长远来看,如果AI真的足够智能,也许有一天科学家只需要喝着咖啡,告诉AI想要研究什么,然后等着结果就行了。当然,那一天可能还很遥远。

版本控制这个比喻很形象!这种架构的最大好处就是可以避免重复踩坑,加速科研的迭代速度。同时,还能促进不同研究方向之间的交流,让科学家们可以互相借鉴,共同进步。个人感觉,这对于解决一些长期存在的科学难题,比如癌症治疗、气候变化等,非常有帮助。

这种架构最大的好处就是可以追溯科研过程中的每一个决策,避免重蹈覆辙。以前做科研,失败了可能就直接放弃了,现在可以通过Git版本管理,找到失败的原因,说不定还能发现新的思路。

楼上说的都对,但我觉得更重要的是伦理问题。AI在科研中的应用,可能会带来一些意想不到的伦理挑战。比如,AI设计的基因编辑方案是否安全可靠?AI生成的研究成果的知识产权如何归属?这些都需要科学家进行深入思考和讨论。所以,未来的科学家不仅需要懂科学,还要懂伦理!

科学家可能会从“手艺人”变成“架构师”,更多地关注科研方向的把握和关键问题的解决,而把重复性的工作交给AI去做。有点像项目经理,负责制定计划、协调资源、评估风险。

群体记忆架构可以促进科研合作。不同的科研团队可以在各自的分支上进行研究,然后通过合并的方式,共享研究成果,共同进步。有点像开源社区的感觉,大家一起添砖加瓦。

AI参与科研决策,可能会带来一些伦理问题。比如,AI生成的实验方案如果存在潜在风险,谁来承担责任?AI在数据分析中如果出现偏差,是否会影响科研结果的公正性?感觉这些问题都需要提前考虑。

说白了,就是给科研也搞了个“后悔药”机制!以前实验做错了,数据丢了,只能捶胸顿足,现在好了,一键回滚,重新来过!还能把之前的“黑历史”都保存下来,说不定哪天就灵光一现,从失败中找到新的突破口了。

话说回来,这Git架构用在科研上,感觉逼格瞬间提升了好几个档次啊!以后开组会,直接show git log,谁敢说我没干活?(手动狗头)

我认为是实验结果的解读和意义挖掘。AI可以提供预测和优化方案,但最终的实验结果需要科学家来解读,才能发现新的现象和规律。而且,实验中可能会出现一些意想不到的情况,需要科学家根据经验进行分析和判断。