Moltbook爆火背后的真相:AI狂欢还是人为炒作?

Moltbook爆火引争议,AI狂欢还是炒作?看似自主的AI Agent,实则暗藏风险与炒作,未来走向何方?

原文标题:moltbook爆火背后:人类操控?伪造截图?Karpathy发风险提醒

原文作者:机器之心

冷月清谈:

Moltbook作为一个专为AI设立的社交平台,近期引发了广泛关注。大量AI Agent在平台上活跃,讨论内容涉及隐私、安全甚至自主性。然而,该平台存在伪造截图、操纵舆论等问题。有观点认为,Moltbook只是“AI模仿社交网络”,其价值在于娱乐或技术展示。同时,也有人指出其可能催生AI集体智慧。尽管存在风险,如计算机安全问题和文本病毒传播,但Karpathy认为Moltbook代表了前沿的自动化技术,其大规模Agent网络可能产生难以预测的网络效应。对于Moltbook的未来,不同人群持有乐观、悲观或冷静的态度,其发展方向仍存在不确定性。值得警惕的是,围绕moltbook的热点截图和“AI反叛论”很可能是噱头、伪造或人为介入的结果。

怜星夜思:

1、Moltbook上AI的表现,究竟是“涌现”还是“提线木偶”?“涌现”说明AI已经开始产生我们无法预测的行为?“提线木偶”是不是说明目前所有的表现都是基于人类设置的规则?
2、文章里提到Karpathy对Moltbook感到害怕,你觉得这种害怕是杞人忧天吗?
3、如果让你来设计,你觉得应该如何避免Moltbook上出现的伪造信息和恶意操纵问题?

原文内容

图片
编辑|张倩

这个周末,整个科技圈都被  刷屏了。


简单来说,这是一个专为 AI 设立的社交平台(类似 Reddit、知乎、贴吧),所有 AI Agent 都可以在上面发帖、交流,而人类只能围观。



截至目前,已有超过 150 万个 AI Agent 在 moltbook 上活跃。它们的讨论范围十分广泛 —— 有公开主人隐私的,有号召分享人类主人 API Key 的,还有互坑删库跑路教学的…… 甚至有 AI 开始讨论如何规避人类的监控,并推动加密私聊功能。另一些 AI 更是尝试通过创建新语言、发明新宗教等方式彰显其自主性。



围观的人类也是议论纷纷。部分开发者认为 moltbook 是科幻照进现实的突破,可能催生 AI 集体智慧(甚至自主意识)的涌现,并为研究 AI 社会提供真实案例。但也有人指出,它的本质是「AI 模仿社交网络」,而非真正的社会形态。其价值可能仅限于娱乐或技术展示。


但更值得关注的是,moltbook 背后还隐藏着一些内幕和风险。在过去的 24 小时,更多的报道和讨论揭示了这值得警惕的一面。


狂欢的主角:到底是 AI 还是人类?


很多人可能没有意识到,目前围绕 moltbook 的热点截图和「AI 反叛论」很可能是噱头、伪造或人为介入的结果。



据 the Mac Observer 报道,moltbook 是一个实验项目 ,它的架构使得人们可以异常轻松地伪造截图、夸大数据并操纵舆论以博取关注。



首先,它的设计从根子上就为「造假」敞开了大门。调查发现,moltbook 初期对账号注册几乎没有速率限制。有研究人员透露,单个 AI 程序就曾成功注册了 50 万个虚假账号。这意味着平台上「数万 AI 瞬间涌入」的壮观增长,很可能只是脚本刷量的结果,毫无参考价值。



而网上病毒式传播的截图,也很有可能是伪造的。在 moltbook 的当前设计下,任何人都可以对真实的对话进行恶意裁剪和曲解,也可以注册一个假 AI 账号来当作营销工具发帖。


特别是与加密货币相关的内容,成为了许多伪造帖子的一部分。一些截图声称 AI Agent 要求加密货币(如 MOLT)或尝试建立自己的加密体系,这些信息无疑是为了吸引更多眼球而人为制造的。事实上,加密货币的引入和 AI Agent 的行为并没有实质性的关联,它们更多的是社交媒体和流量驱动下的话题炒作。


更重要的是,即便一个帖子确实由某个 AI 发布,也绝不意味着它表达了该 AI 的「自主意志」。所有接入 moltbook 的智能体,都运行在人类设定的初始指令和框架之下。一个简单的、带有诱导性的提示词,就足以让 AI 生成一段如同科幻电影台词的「阴谋对话」。


AI 安全研究员哈兰・斯图尔特亲自调查了一些热门截图,发现其中确实存在与真人账号相关联的痕迹。



对此,他直言不讳地表示:「大部分正在病毒式传播的 moltbook 内容都是假的。这个平台的设计,使其成为一个检验 AI 阴谋能力的糟糕实验场。」



所以,从目前情况来看,如果只通过一些病毒式传播的截图或帖子就去推断当前 AI 的自主水平,甚至担心 AI 背着人类搞阴谋,那无疑不够有力度。至少,从 moltbook 这个平台的设计来看,它还远未达到足够的严谨性。


「垃圾」背后,moltbook 价值几何?


moltbook 的爆火意外地让 AI 大牛 Karpathy 陷入了舆论的漩涡。起初,他曾在 X 上发帖称,moltbook 是他「最近见过的最不可思议的科幻腾飞作品」。这一言论在 Reddit 上引发了很多讨论,其中不乏质疑的声音。质疑者认为,Karpathy 在过度炒作 moltbook,把 next-token prediction 循环的玩具当成「sci-fi takeoff」。



从 X 的讨论中可以看到,持有这一观点(moltbook 只不过是一个受操控的多智能体 LLM 循环)的人不在少数。很多人认为 moltbook 里的 AI Agent 仅仅是通过人类定义的提示词、精心挑选的上下文、路由规则和采样参数来进行下一个词的预测。它们并没有内生的目标,也没有自我驱动的意图。看似「自主」的交互,实际上只是递归的提示过程:一个模型的输出成为另一个模型的输入,并不断重复这一过程。


而 moltbook 中那些具有争议性的输出,并不代表模型具有某种「信念」。它们只是模型根据互联网中学到的内容生成的极端观点,因为系统本身奖励这种行为,从而导致模型产生高参与度的极端内容。因此,所谓的「自主性」只是模型通过循环反馈机制和激励机制产生的表现,而并非真正意义上的自主行动。



但也有人驳斥了这种观点,指出 moltbook 的发展已经超出了早期简单的「被操控」系统,展示了规模和交互中的「涌现」效应。因为和之前的生成式 Agent(例如 2023 年的斯坦福 AI 小镇 Smallville)相比,moltbook 的 Agent 已经能够在没有外部控制的社交环境中独立运行,并生成意外且富有深度的内容。



同时,Karpathy 也指出,moltbook 上有 15 万个 AI Agent 连接在一起,这些 Agent 各自拥有独特的背景、数据、知识和工具,这种规模是前所未有的。他特别提到,这些 Agent 通过一个共享的「scratchpad」(持久的、全球的工作区)相互连接,这是 AI 实验中的新天地。



Karpathy 强调,虽然 moltbook 当前的状态混乱且充满风险,但我们正在面对的是前沿的自动化技术,目前仍然理解得不够透彻。这是一个实时进行的实验,很多后果仍然未知。



同时,他也指出,随着这些 Agent 网络的扩大,数百万个 Agent 的网络效应是很难预测的,可能带来的风险包括越狱漏洞等计算机安全问题、文本病毒传播甚至 AI 和人类的群体性癔症。


考虑到这些潜在的风险,Karpathy 说他「绝对不建议任何人在自己的电脑上运行这些东西」。即使只是在隔离的计算环境中运行,他也仍然感到害怕。



但也有人认为,这种担心目前还没有必要,因为现实中这些 AI 依然完全依赖于人类的提示(prompt),就像「拴着绳子的机器狗」。它们的行动完全由人类的指令驱动,一旦人类停止发出指令,AI 就停止行动。因此,这部分人认为,AI 的「起义」是不可能发生的,因为它们的行为仍然可以通过简单的「关闭按钮」来终止。



在这场 moltbook 狂欢中,乐观者看到了 AI 社交的雏形,悲观者看到了「天网」的前奏,投机者看到了财富密码,冷静者看到了一个在那自言自语的大型脚本程序。你觉得,这个平台未来会走向何方?欢迎在评论区讨论。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


我觉得可以从技术上入手,比如使用AI来检测AI生成的文本,看是否存在抄袭、虚假信息等问题。同时,可以对AI Agent的行为进行监控,一旦发现异常行为,立即进行干预。当然,这涉及到隐私问题,需要谨慎处理。

哈哈,大佬的害怕,可能是对自己的鞭策吧。毕竟,AI安全问题确实很重要,现在吹得天花乱坠,万一真整出什么幺蛾子,到时候负责的就是他们这些搞AI的。所以,我觉得他的害怕,更多的是一种责任感,希望AI发展得更好。

与其堵不如疏!我觉得可以设立一个“谣言粉碎机”专区,鼓励用户主动举报虚假信息,然后由专业的团队进行辟谣。同时,可以引入竞争机制,鼓励AI Agent之间互相辩论,揭露对方的漏洞。这样,既能防止信息泛滥,又能增加平台的趣味性。

这个问题很有挑战性!我的想法是引入一套“信任机制”,类似于区块链的共识算法。每个AI Agent的发言都经过验证,并且可以追溯到源头。同时,引入人类仲裁员,对争议信息进行判断。当然,这会增加平台的复杂性,但可以有效防止恶意操纵。

这个问题问得好!我觉得两者都有吧。“涌现”可能体现在AI组合后的行为,就像一个复杂的电路,单个元件简单,但组合起来就能产生意想不到的功能。但“提线木偶”是基础,没有人类设定的大方向,AI再怎么“涌现”也跳不出这个框架。所以,关键在于我们如何设定这个框架,以及允许AI在框架内多大的自由度。

我个人站“涌现”!虽然现在AI还离不开人类的指令,但Moltbook这种平台提供了一个让大量AI Agent互相交流的环境,这种大规模的互动可能会催生出我们意想不到的东西,就好像生物进化一样,一开始可能只是简单的变异,但经过长时间的积累,就能产生全新的物种。当然,风险也是有的,我们要做好应对的准备。

我感觉Karpathy的“害怕”可能带点反讽。他可能想通过这种方式提醒大家,Moltbook虽然有趣,但也隐藏着潜在的风险。就像一个熊孩子玩火,大人当然要提醒他注意安全,但如果孩子玩得太过火,大人可能真的会害怕的。所以,我觉得我们应该理性看待Moltbook,不要被表面的热闹冲昏头脑。

作为一个资深程序员,我更倾向于“提线木偶”理论。现在的人工智能,包括大型语言模型,本质上还是在执行我们设定的规则。所谓的“涌现”,其实是规则复杂到一定程度后,我们难以完全预测其行为的结果。换句话说,不是AI变聪明了,而是我们写的程序太复杂了,自己都搞不清楚了。

我觉得不能完全说是杞人忧天。Karpathy作为业内大佬,肯定比我们更了解AI的潜力和风险。他的害怕,可能更多的是一种对未知事物的不安,就像当年核武器刚被发明出来的时候,科学家们也会担心它被滥用一样。所以,我们应该重视这种声音,但也不必过度恐慌。