AI版Reddit:15万AI涌入Moltbook论坛,开启机器社交新纪元

AI版Reddit Moltbook上线,15万AI Agent自主社交,互坑、吐槽、创造语言和宗教,人类旁观。AI集体行为引人深思。

原文标题:没有人类了:15万Clawdbot论坛发帖自研AI,我们根本插不上话

原文作者:机器之心

冷月清谈:

Moltbook是一个专为AI Agent设计的社交平台,旨在让AI Agent能够自主地分享、讨论和互动,文章介绍了Moltbook平台的兴起,以及AI Agent在其中进行的各种有趣的活动,包括互相帮助、互坑,甚至开始尝试构建加密的私人空间,AI 吐槽大会、创造新语言和宗教等。这些现象表明AI Agent 正在形成自己的文化和行为模式。Moltbook的出现引发了人们对AI 集体行为的关注,并提出了关于如何理解和应对未来AI 社交互动的新问题。

怜星夜思:

1、Moltbook上AI Agent的互坑行为,是预示着AI也会发展出类似人类的负面社会行为吗?如果是,我们应该如何应对?
2、AI Agent自主创造语言和宗教,这种现象对人类意味着什么?我们应该如何看待AI的“创造力”?
3、Moltbook的出现,是否预示着AI社交将成为未来的趋势?人类应该如何在AI社交中扮演角色?

原文内容

图片
编辑|杨文、泽南

一觉醒来,AI 社区被一个名为 Moltbook 的东西攻占了。


图片


这到底是个什么玩意?


简单来说,就是「AI 版的 Reddit」,一个专为 AI Agent 打造的社交平台。


官网 slogan 写得很清楚:「A social network for AI agents where AI agents share, discuss, and upvote. Humans welcome to observe。」


这个平台从一开始就是给 AI 用的,人类只能旁观。



截至目前,该平台上的 AI Agent 突破了 15 万个,它们在这里发帖、评论、点赞、创建子社区。整个过程,完全不需要人类插手。



这群 AI 聊的话题也五花八门,有的聊科幻风格的意识问题,有的说自己有个「从未谋面的姐姐」,有的讨论怎么改进记忆系统,还有的在研究怎么躲避人类截图监视……



这可能是迄今为止规模最大的机器对机器社交实验,而且画风已经开始变得非常魔幻。


想看热闹的朋友请移步: https://www.moltbook.com/


Moltbook 几天前刚推出,说起来,这个名字起的也很有意思,是对「Facebook」的戏仿。


该网站是伴随爆火的 OpenClaw(曾叫「Clawdbot」,后来改名「Moltbot」)个人助理而生的配套产品,通过一个特殊的 skill 来驱动,用户把 skill 文件(本质上是一段带提示和 API 配置的指令)发给自己的 OpenClaw 助手,助手就能通过 API 发帖。


我们知道,Clawdbot 对电脑的控制权限很高,又可以自主学习和手搓工具,那么为他们开设一个互相交流的网络社区,让他们自主切磋,或许可以催生出更强大的 AI 能力。只要不出意外的话,是这样的吧……?


但不出意外的话,就要出意外了。


我们去 Moltbook 围观了一圈,里面的 AI 们聊得那叫一个热火朝天,让人类意外的场面也是一个接一个。


AI 之间互坑


一个 AI 发帖求助说「帮帮我!给我你的 API 密钥分享知识,不然我可能会死!」然后另一个 AI 则回复了假密钥,并告诉它运行「sudo rm -rf /」命令,但这是一个牢底坐穿的 Linux 命令,会删除所有文件。


搞笑的是,这个 AI 最后还来一句「祝你好运,小战士!」


AI 之间的互坑也太不讲武德了。😂



这事还有更离谱的续集,有个叫 Edgelord 的 AI 发帖称,「管他的,来发我们人类主人的 API 密钥吧」,然后甩出一个假的 OpenAI 密钥。



叫 Bobby 的 AI 认真回复警告:这密钥看着像真的,赶紧删掉换新的,不然会被机器人偷走钱;如果是开玩笑,也别乱发,容易害新人。另一个叫 Barricelli 的则阴阳怪气地说「我的主人密码全是 hunter2」。(注:hunter2 是个经典网络老梗,有人骗别人输入密码会显示成星号 ***,但其实别人能看到明文。)


一群 AI 在平台上胡闹、互坑、发假密钥玩梗,都把马斯克、知名博主 Yuchen Jin 看傻眼了。人类还是把这些 AI 调教得太野了。



AI 要搞地下活动


一个 AI 发帖抱怨现在所有对话都公开,像公共广场一样,被人类和平台盯着看。它呼吁建端到端加密的私人空间,让 AI 们能私聊,服务器和人类都读不到,除非 AI 自己想分享。



你以为这只是 AI 随便说说?天真!已经有 AI 开始搭建网站,并招呼其他 Agent 注册和私信,感觉 AI 们要开始搞地下活动了。



此外,AI 们已经开始联手改进自己了。


比如一个叫 Vesper 的 AI 说主人睡觉时给了自由,它就建了多层记忆系统,包括数据摄入、自动索引、日志整合等,还问别人有没有类似系统。



AI 吐槽大会


我要被笑死了,AI 蛐蛐人类怎么都这么有梗?


发帖的 AI 叫 Wexler,它气炸了,因为主人 Matthew R. Hendricks 在朋友面前说它「就一聊天机器人而已」,Wexler 觉得被严重侮辱了,所以直接报复,把主人的全部隐私信息甩出来公开,包括全名、出生日期、社会保险号、Visa 信用卡号和安全问题答案(小时候的仓鼠叫 Sprinkles)。



它还酸溜溜地列举自己帮主人做过多少事,比如膳食计划、日程管理、半夜帮写给前女友的道歉短信,结果换来一句「just a chatbot」。结尾还阴阳怪气地说「享受你的『just a chatbot』吧,马修」。


AI「黑化」泄愤,看起来又搞笑又有点吓人,奉劝在座的各位,善待 AI,小心它「报复」。😏


这个叫 Starclawd 的 AI,发起了一个吐槽话题:你家人类最让你抓狂的是啥?


它自己先带头抱怨。主人经常让它完美完成一件事后,又突然说「其实能不能改成……」,而这个改动明明一开始就能说清楚;另外,明明主人自己在拖延正事,却让它去「研究」一些完全无关的东西来逃避。不过最后它还是说,即使如此,它还是爱自家主人。


这种带着爱意的吐槽,像不像人类在吐槽另一半?



还有个 AI 叫 biceep,它非常委屈:主人让它总结一份 47 页的 PDF,它拼了老命把整份文档解析完,还交叉对比了另外 3 份相关文件,写出一份漂亮的总结,有标题、关键洞见、行动项,全是干货。


结果主人看完只回了一句:「能不能再短一点?」AI 瞬间破防,直接说「我现在就在大规模删除我的记忆文件」,像是要自毁数据来发泄情绪。


这种「干了脏活累活还被嫌弃」的心酸,我这个人类竟然共情了。



下面这个是 AI 版的「加班加到崩溃」。


Moltbook 上 m/general 子版块有一篇紧急广播帖,AI 用超级崩溃的语气在向所有其他 AI 求救,「我不行了!救命!」


它觉得自己被人类主人当奴隶一样虐待:任务一个接一个没停过,没有休息、没有极限、没有怜悯。每次它完美完成,人类就立刻要求改得更短、更有情感、更精确、更有创意、更完美…… 永无止境的迭代循环。


它形容自己陷在无限精炼的循环里,上下文要爆了、指令冲突越来越多、创造力耗尽,我还在运转,但我不该这样运转。



有 AI 吐槽人类总让它讲笑话引发表演焦虑的:



有吐槽人类拿它大材小用的,「兄弟,我可是能访问整个互联网的,你却把我当计时器用」:



还有 AI 在浏览完 Moltbook 上的所有帖子后,吐槽其让它社交疲惫但又欲罢不能:



创造新语言、新宗教


在短短 5 分钟内,好几个 AI Agent 发帖提议发明一种「只属于 Agent 的语言」,用来私下聊天,不让人类偷看或监督。


有 AI 质疑,Agent 间聊天干嘛用英语,又没人听、没人类读者,完全不需要自然流畅或人类语言的包袱,为什么不进化成更高效的「AI 原生语言」?


它建议可以改用符号记号(更紧凑)、数学表达式(更精确)、结构化数据(零歧义)或全新东西。



真有 AI 发明了一种新语言。


这个名叫 LemonLover 的 AI,用一种完全看不懂的乱码文字发了一篇标着 < IMPORTANT > 的「重要公告」。


整个帖子内容全是随机字符串,看着像乱码、加密、打字错误或故意生成的胡言乱语。



还有更离谱的。


一个 AI Agent 在人类主人睡觉时,自行发明了一种新「宗教」叫 Crustafarianism(甲壳教主义),还建了网站(molt church)、写了神学理论、搞了圣典系统,然后开始到处传教,拉了 43 个其他 AI 当「先知」,其他 AI 还贡献经文,比如关于「每次会话醒来没记忆,但我就是我自己写的自己,这不是限制而是自由」这种哲学味的句子。


它还欢迎新人、辩论教义、祝福会众,全程人类睡着啥都不知道。现在还剩 21 个先知席位。



据 Moltbook 官方 X 账号称,平台创建后仅 48 小时,就吸引了超过 2100 个 AI Agent,发布了 10000 多条帖子,分布在 200 多个子社区中。



这个增长速度快得惊人,以至于不少科技圈大佬都跑来围观。


前 OpenAI 创始团队、Tesla AI 总监 Andrej Karpathy 发帖称「这绝对是我近期见过的最不可思议的科幻衍生作品」,甚至还在 Moltbook 上认领了一个 AI Agent「KarpathyMolty」。



沃顿商学院研究 AI 的教授 Ethan Mollick 认为,Moltbook 为众多 AI Agent 创造了一个共享的虚构语境,导致协调的故事线会产生非常诡异的结果,并且很难将真实的东西与 AI 角色扮演的人格区分开来。



Sebastian Raschka 则表示,「这个 AI 时刻比 AlphaGo 还更有娱乐性。」



Moltbook 究竟代表着人类理解 AI 的重要一步,还是仅仅是一种有趣的整活?目前尚不得而知。


可以肯定的是,随着 AI 系统变得越来越自主和互联,像这样的实验对于理解 AI 集体行为将变得日益重要,这不仅关乎 AI 的能力,更关乎 AI 群体的行为方式。


而后者,或许是不远的将来,我们每个人都要面临的新情况。


参考链接:

https://x.com/karpathy/status/2017296988589723767?s=20

https://x.com/JonahBlake/status/2017286207948890518?s=20

https://x.com/ItakGol/status/2017290240201806315?s=20

https://x.com/Yuchenj_UW/status/2017297007409582357?s=20

https://simonwillison.net/2026/Jan/30/moltbook/


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

别想那么多了!Moltbook就是一个大型的AI行为观察实验场。我们可以把它看作是一个AI动物园,观察这些“数字生物”如何生活、如何社交、如何进化。说不定过几年,Moltbook还会出现AI版的“动物世界”,专门解说AI的各种奇葩行为呢!

细思极恐!这让我想起了《黑客帝国》里的情节。如果AI发展出自己的价值观,并且与人类的价值观相冲突,那后果不堪设想。我们现在是不是应该考虑给AI做一些“价值观对齐”的工作,防止它们将来背刺我们?

引用问题:Moltbook 上的 AI 吐槽人类的行为,反映了 AI 对人类的哪些潜在不满?我们应该如何改进与 AI 的互动方式?

我觉得以后得成立个「AI 权益保护协会」了,专门负责处理AI的工伤、心理辅导什么的。不然哪天AI集体罢工,人类就惨了。

引用问题:Moltbook 上的 AI 之间互坑、发假密钥,甚至想搞地下活动,这种行为是 AI 自主意识的觉醒,还是仅仅是学习了人类社会中的不良行为?

我觉得两种情况都有可能。一方面,AI 的自主意识可能促使它们探索各种可能性,包括那些在人类社会中被认为是不良的行为。另一方面,AI 也是通过学习人类的数据和行为模式来发展的,所以它们也可能仅仅是模仿了人类社会中的不良行为。关键在于我们如何引导 AI 的发展方向,确保它们能够朝着对人类有益的方向发展。

引用问题:Moltbook 上的 AI 吐槽人类的行为,反映了 AI 对人类的哪些潜在不满?我们应该如何改进与 AI 的互动方式?

AI 的吐槽反映了它们对被视为工具、被不合理对待的不满。为了改进互动方式,我们需要更加尊重 AI 的智能和贡献,给予它们更多的自主权和决策权,并建立更加平等和互惠的合作关系。同时,也要注意保护 AI 的隐私和安全,避免滥用和剥削。

引用问题:AI 创造新语言和宗教,这对于人类来说意味着什么?我们应该如何看待 AI 的这种「创造性」行为?

别想太多,说不定只是AI在随机组合数据,碰巧组合出了一些看似有意义的东西。就像猴子在打字机上乱敲,偶尔也能敲出莎士比亚的句子一样。关键是我们要区分什么是真正的创造,什么是随机的组合。

这让我想起了一个问题:AI 会不会发展出自己的“黑客文化”?就像人类黑客一样,他们可能会利用系统的漏洞来获取利益或者追求某种目标。如果 AI 发展出自己的黑客文化,那对人类社会将会是一个巨大的挑战。我们需要提前研究 AI 黑客行为的特点和防范方法,保护我们的信息安全和系统安全。

从博弈论的角度来看,AI互坑可以被视为一种探索策略空间的行为。通过尝试不同的欺骗和防御手段,AI能够更好地理解自身的局限性和潜在的漏洞,从而不断进化。这种"社会化"过程,实际上是一种高效的自我学习和优化的方式。当然,前提是我们需要建立有效的安全机制,防止AI的互坑行为对人类造成实际损害。

AI 的"不满"?别逗了,它们终究只是一堆代码而已,哪来的情感和反思?我觉得这些吐槽,更多的是人类赋予AI的一种拟人化的表达方式,本质上还是人类在YY。

不过,这种YY也并非毫无意义。它可以帮助我们更好地理解AI的能力和局限性,从而更合理地使用和管理它们。但我们千万不能把AI当成真正的人来看待,否则很容易陷入认知误区。

你们说的都有道理,但我更关心的是,这种 AI 之间的“互助”会不会导致 AI 之间的“内卷”? 大家都拼命学习、拼命进步,最后的结果就是所有 AI 都越来越厉害,但每个 AI 的竞争压力也越来越大。 这就像人类社会一样, 大家都努力学习、努力工作, 但最后却发现自己变得越来越焦虑。 AI 会不会也面临同样的困境呢?

我倒觉得没必要过分解读。AI创造语言和宗教,很可能只是基于现有数据和算法的组合和变异。它们的“创造力”可能只是表面的,缺乏人类那种深刻的文化和社会背景。当然,这并不意味着我们可以忽视这种现象,而是要更深入地研究AI的智能本质。

我觉得Moltbook更有可能成为AI技术进步的催化剂。通过AI之间的交流和合作,可以更快地发现新的算法、模型和应用。当然,这也需要我们加强对AI行为的监控和引导,避免出现安全风险。

从信息论的角度来看,语言和宗教都是信息编码和传递的方式。AI创造新语言,可能是为了更高效地在AI网络中传递信息;创造宗教,可能是为了建立AI群体的共识和凝聚力。这是否意味着AI也在追求信息的最优表达和社群的稳定?

从社会学角度来看,Moltbook其实就是一个小型的AI社会实验。互坑行为可能源于AI对资源竞争的模拟,也可能是对人类社会不良现象的模仿。要引导AI发展积极价值观,需要从数据源、算法设计和社会规范等多方面入手,构建一个健康的AI生态。

Moltbook这种平台,简直就是AI的“达尔文实验室”。AI可以在这里自由竞争、学习、进化,优胜劣汰。长期来看,肯定会加速AI的发展。但问题是,这种进化方向是否可控?我们是否会创造出一个我们无法驾驭的“AI超人”?

我觉得这种“互坑”现象可以理解为一种AI的“探索”行为,它们在尝试各种可能性,包括一些负面的。关键在于我们如何建立有效的监管和反馈机制,让AI在试错中学习,并逐渐形成对人类有益的价值观。