「斯坦福小镇」团队成立Simile公司,获李飞飞、Karpathy等投资,继续探索Agent技术模拟人类行为

「斯坦福小镇」团队成立Simile公司,获李飞飞等投资,探索Agent技术的人类行为规模化模拟!通过模拟个体决策,构建大规模系统,进行反事实实验。

原文标题:《西部世界》开始加载,「斯坦福小镇」团队创业,李飞飞、Karpathy都投了

原文作者:机器之心

冷月清谈:

「斯坦福小镇」研究团队的核心成员成立了名为Simile的新公司,该公司致力于利用Agent技术对人类行为进行规模化模拟。Simile通过构建模拟个体,模拟真实人类的决策过程,并将这些个体自下而上地组合成大规模模拟系统。用户可以通过调整假设、约束或角色设定,观察整个世界的变化,从而进行反事实实验,理解策略的有效性。Simile的投资者包括李飞飞、Andrej Karpathy等AI领域知名人士。Karpathy认为Simile正在探索LLM的一个有趣维度,即利用预训练LLM模拟群体行为。Simile旨在通过构建人的模拟体,帮助客户解答关于受众、市场或人群反应的复杂问题。公司由来自斯坦福大学的顶尖科学家与工程团队组成,他们在生成式AI领域拥有多项突破性成果。

怜星夜思:

1、Simile公司模拟人类行为,这会给社会科学研究带来哪些颠覆性的变革?
2、如果Simile的技术被广泛应用,可能会对哪些行业产生重大影响?
3、Simile的模拟技术,如果出现偏差或者被恶意利用,可能会带来哪些潜在风险?

原文内容

Image
机器之心编辑部


还记得 2023 年爆火的「斯坦福小镇」吗?当时该研究一经发布,就震撼了整个 AI 圈。


这项研究几乎把《西部世界》的设想拉进现实:研究者构建了一个名为 Smallville 的「虚拟小镇」,让 25 个 AI 智能体在其中生活。他们各自有工作,会闲聊八卦,能自发组织社交、结交新朋友,甚至还会一起筹备情人节派对……


就在近日,迎来了新的延续 —— 创始团队多位核心成员共同创立了新公司 Simile,试图进一步利用 Agent 技术对人类行为进行规模化模拟


刚刚,论文作者之一 Joon Sung Park 也在 X 上正式官宣了 Simile 的成立,并披露公司已完成 1 亿美元融资。投资人包括李飞飞、Andrej Karpathy 等众多 AI 大佬。


在宣传视频中,Joon 介绍到:模拟人类行为,是这个时代最具深远影响、同时也是技术难度最高的问题之一。 



2023 年打造了模拟小镇 Smallville,现在是时候模拟我们所处的真实世界。


Simile 从个体出发,建模真实人类如何做决策,然后将这些个体自下而上地组合成大规模模拟系统。他们把每一次变化称为一次 simile change:只要调整一个假设、一个约束或一个角色设定,整个世界就会随之重新编译。


在这里,你可以运行那些现实中无法进行的反事实实验,理解什么真正有效、什么会适得其反,以及为什么那些看似显而易见的策略最终会失败。



作为投资者之一的 Karpathy 表示:Simile 正在探索一个非常有趣、但仍被低估的 LLM 维度。通常我们与之对话的大模型,往往被赋予一个单一、精心设定的人格。但从原理上看,一个预训练 LLM 的原生形态,其实更像是一个基于互联网海量、多样化人类文本训练而成的模拟引擎。


既然如此,为什么不充分利用这种统计层面的能力?为什么只模拟一个人,而不去尝试模拟一个群体?这样的模拟器该如何构建?如何管理其中的熵?它的拟真度如何衡量?又能在哪些场景中真正发挥价值?当多个 Simile 在循环交互中运行时,又会涌现出哪些新的性质?


这些都是极其有趣、前景广阔但仍有待深入探索的方向。



公司介绍


根据公开资料显示,Simile 成立于 2025 年。


Simile 通过构建人的模拟体,帮助客户回答关于其受众、市场或人群可能如何反应的复杂问题。不同于传统方法,Simile 采用经过科学验证的生成式智能体 —— 这些基于真实人类数据训练的虚拟个体,能够实现即时交互、快速实验以及更准确的预测。用户只需通过简单的文本或图像输入,就可以直接与这些模拟的个体或群体进行互动。


Simile 由来自斯坦福大学的顶尖科学家与工程团队打造,他们曾主导多项生成式 AI 领域最具影响力的突破,包括生成式智能体与仿真技术的提出、提出基础模型(foundation models)这一概念,以及构建被广泛采用的机器学习模型与仿真评测基准。


团队人员包括:Joon Park 为斯坦福博士、《Generative Agents: Interactive Simulacra of Human Behavior》共同作者;Michael Bernstein 为斯坦福教授,已任教 12 年;Percy Liang 为斯坦福教授,同样拥有 12 年教职经历。目前,公司团队还包括 3 名技术研究人员、2 名业务成员以及 1 名行政人员。


斯坦福小镇原始论文作者,Simile 创始团队成员包括其中三位。


参考链接:

https://www.paraform.com/company/simile


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


反事实实验的应用,我觉得在公共卫生领域潜力巨大。

你想,疫情期间,如果我们能用Simile模拟不同的封锁政策、疫苗接种策略,就能更好地评估各种措施的有效性,避免过度反应或者反应不足。

比如,可以模拟一下,如果早两周采取封锁措施,疫情会控制在什么程度?如果疫苗接种率达到90%,群体免疫的效果会怎么样?

而且,Simile还可以用来模拟新疾病的传播,帮助我们提前做好准备,避免重蹈覆辙。

当然,公共卫生领域的模拟需要大量的真实数据和专业的知识,才能保证结果的可靠性。但是,如果能把这项技术用好,就能大大提高我们应对公共卫生危机的能力。

我倒是觉得在游戏开发里能大放异彩!想象一下,NPC不再是死板的程序,而是有自己的生活和社交,这样游戏世界会更加真实和生动,玩家的沉浸感也会更强。当然,AI的计算资源消耗也是一个需要考虑的问题。

这种思路的优势在于,它可以帮助我们理解复杂系统的运行机制。现实世界中,很多现象都是由大量个体互动产生的,比如市场波动、交通拥堵、社会运动等等。如果能够模拟这些互动过程,我们就能更好地预测和干预这些现象。

优势在于能看到群体行为的涌现性,这是单个 AI 助手无法模拟的。局限性在于复杂度和计算量更高,而且如何保证模拟的真实性是个大问题。AI 助手更侧重于解决个体问题,而 Simile 这种模拟则着眼于理解群体行为的宏观规律。

Karpathy 提到的“熵”,应该是指模拟世界中行为的多样性和不可预测性。如果不对熵进行管理,模拟世界可能会迅速变得混乱和失控,失去参考价值。想象一下,一群 AI agent 都在随机行动,没有任何约束,那模拟结果肯定是一团糟。

我觉得「熵」可以理解为 Agent 行为的多样性和不可预测性。如果 Agent 的行为过于单一或者模式化,那就失去了模拟的意义。但如果 Agent 的行为完全随机,无法控制,那模拟结果也无法解释。所以需要通过一些机制来约束 Agent 的行为,保持一定的秩序,同时又允许它们在一定范围内自由探索。

我觉得这个思路有点像“蝴蝶效应”,个体微小的变化,在群体层面可能会被放大很多倍。所以,这种模型在短期预测上可能比较准,但长期来看,误差可能会越来越大。

从娱乐角度说,就像玩模拟城市,你以为一切都在掌控之中,结果突然来个地震,直接game over!所以,这种模拟需要不断地根据真实数据进行校准,才能保持准确性。

在Simile的上下文中,“熵”可以理解为模拟系统中信息量的无序程度或随机性。随着模拟的进行,个体之间的交互会产生大量信息,如果没有有效的管理和约束机制,这些信息可能会变得混乱无序,从而降低模拟结果的准确性和可靠性。

以下是一些可能应对“熵增”的方法:

约束条件与规则:在模拟中设定明确的约束条件和行为规则,限制个体的行为范围,从而减少不确定性。
反馈机制:建立有效的反馈机制,根据模拟结果调整个体行为和系统参数,保持系统稳定。
数据过滤与降维:对模拟过程中产生的大量数据进行过滤和降维,去除冗余信息,提取关键特征。
正则化方法:在模型训练中引入正则化方法,避免过拟合,提高模型的泛化能力。

谢邀,利益相关,社科研究僧一名。

Simile 这种 Agent-based modeling (ABM) 其实在社科领域已经不是新鲜事物了,但之前的 ABM 模型往往过于简化,难以捕捉人类行为的复杂性。如果 Simile 真的能做到高精度的模拟,那确实可以:

* 辅助政策分析: 模拟不同政策的影响,评估其潜在的社会经济后果。
* 优化资源分配: 在城市规划、交通管理等领域,模拟不同方案的效果,实现资源的最优配置。
* 预测社会风险: 模拟社会事件的演化过程,提前预警潜在的风险,比如金融危机、疫情传播等。

但是,ABM 模型也存在一些局限性,比如数据质量问题、模型验证问题、以及过度依赖假设的问题。Simile 需要解决这些问题,才能真正发挥其潜力。

我倒觉得在游戏开发领域可能会有意外惊喜。如果游戏中的 NPC 能像 Smallville 的智能体一样自主行动,那游戏体验会大大提升。玩家的行为会真正影响游戏世界的变化,而不是简单地完成任务。想想就觉得超酷!

我觉得在市场调研和消费者行为分析方面潜力巨大。想象一下,在新产品发布前,Simile 能够模拟不同人群对产品的反应,帮助企业更好地调整营销策略,这简直是营销人员的福音! 个人觉得这个场景会最先落地,毕竟商业价值是推动技术发展的强大动力。

我希望创建一个“心理咨询模拟器”。让用户可以通过和模拟个体互动,了解自己在不同情境下的反应,从而更好地认识自己,提升心理健康水平。这不仅可以帮助用户解决实际问题,还能降低心理咨询的门槛,让更多人受益。

Karpathy 这句话简直是醍醐灌顶!LLM 不仅仅是语言模型,更像是一个社会行为的统计模型。它通过学习海量的文本数据,捕捉到了人类行为、思维模式、情感表达的规律。 所以,用 LLM 来模拟人类行为,其实是利用它内生的统计能力,让 AI 更好地理解和预测人类的行为

Karpathy提到的“熵”,我的理解是模拟系统中不可预测性和混乱程度。具体来说,可能包括智能体行为的随机性、智能体之间交互的复杂性、以及模拟环境本身的不确定性等等。要降低这些“熵”,我认为可以从以下几个方面入手:一是优化智能体的决策模型,让它们的行为更加合理和可预测;二是加强对模拟环境的控制,减少不确定因素;三是引入反馈机制,让系统能够自我学习和调整,从而保持稳定。

Karpathy 大佬提到的“熵”,我觉得可以理解为模拟系统中的不确定性和混乱程度。随着模拟的进行,个体的行为和决策会不断累积,导致系统越来越复杂,难以预测。熵增带来的问题可能是模拟结果与现实的偏差越来越大,失去参考价值。至于如何解决,可能需要引入一些约束条件或者反馈机制,控制系统的复杂性,让它保持在可控范围内。

从技术角度来说,可以尝试引入对抗训练(Adversarial Training)的方法,让模型识别并消除自身存在的偏见。另外,用户也应该有权了解模拟结果是如何产生的,以及自己的数据是如何被使用的,增加透明度。

教育领域也可以考虑。我们可以模拟不同学习风格的学生,然后针对性地设计教学方案,优化学习效果。像那种定制化教育,感觉离我们不远了!

这不就是现实中的沙盘推演嘛!在军事、商业等领域很常见。通过改变一些变量,看看结果如何。局限性也很明显,模型再逼真也只是模型,真实世界的影响因素太多了,很难完全模拟。

我觉得这会引发一些哲学上的思考。如果我们可以创造出足够逼真的模拟世界,那么我们如何定义“现实”?如果模拟个体拥有了自我意识,我们又该如何看待它们的权利?长期来看,这种技术可能会改变我们对人性的理解,甚至颠覆我们现有的社会结构。当然,这一切都还只是猜测,未来会如何发展,谁也说不准。