OpenClaw 遭谷歌制裁引争议:AI 工具权限边界与平台生态的挑战

OpenClaw 因“恶意使用”遭谷歌制裁,引发关于 AI 工具权限和平台监管的讨论。OpenClaw 创始人怒怼谷歌处理方式。事件反映了 AI 发展中生态系统面临的挑战。

原文标题:遭谷歌制裁,OpenClaw创始人怒怼:Anthropic会先打招呼,你们直接封禁

原文作者:机器之心

冷月清谈:

OpenClaw 因被指恶意使用 Google Antigravity 平台资源而遭到谷歌制裁,引发开发者社区关于 AI 工具使用规范和平台监管的讨论。谷歌方面表示,OpenClaw 大量调用 Gemini token 导致系统过载,影响了普通用户的服务质量,因此采取了限制措施。OpenClaw 创始人 Peter Steinberger 对此表示不满,认为谷歌的处理方式过于严厉。文章还介绍了 OpenClaw 的发展历程,从最初的个人项目到迅速走红的开源 AI 工具,以及 Steinberger 对 AI 辅助编程、代码价值和开源贡献的理解。此外,文章还提到了 OpenClaw 走红后带来的安全问题和争议,以及 Steinberger 对未来 AI 发展趋势的看法。这次风波反映了 AI 浪潮加速涌来时,生态系统面临的挑战。

怜星夜思:

1、OpenClaw 此次被谷歌制裁,是否反映了当前 AI 工具发展中,开发者对平台规则的理解和平台的监管之间存在冲突?开发者在使用 AI 工具时,应当如何更好地遵守平台规则,避免类似事件的发生?
2、OpenClaw 的走红,很大程度上归功于其“黑客友好”的可配置性,但同时也带来了安全风险。那么,开源项目应该如何在保持开放性和灵活性的同时,保障用户安全?
3、文章提到,OpenClaw 创始人认为“现在是历史上最好的时代”,你认为 AI 的快速发展,给开发者带来了哪些机遇和挑战?

原文内容

图片
编辑|泽南、杨文

最近频频登上新闻头条的 OpenClaw,终于被「制裁」了一回。


本周一,谷歌宣布限制部分开发者使用旗下 vibe Coding 平台 Antigravity,并指控他们「恶意使用」,此举在社交平台上引发了争议。 



Windsurf 前联合创始人、现任 Google Antigravity 成员 Varun Mohan 解释了此次禁令的背景:


「我们发现恶意使用 Anitgravity 后端的情况大幅增加,这严重影响了我们用户的服务质量。我们需要找到一种方法,快速切断这些未按预期使用产品的用户的访问权限。我们理解部分用户并不了解这种行为违反了我们的服务条款,我们会为他们提供恢复访问权限的途径,但我们的资源有限,我们希望公平对待所有正常用户。」



一些用户发现,在使用开源自主 AI 工具 OpenClaw 及基于 Antigravity 构建智能体,或是将 OpenClaw 智能体连接到自己的 Gmail 帐户上之后,就失去了对 Google 帐户的访问权限。 


谷歌解释说,很多人通过第三方智能体接入(如 OpenClaw)的方式,发起了大量后端 Gemini token 的访问,进而导致系统过载,降低了普通用户的服务质量,谷歌不得不实行封禁。


目前,此次限制仅影响 Antigravity、Gemini CLI 和 Cloud Code Private API。所有其他谷歌服务均保持运行,且没有完整的谷歌帐户被封禁。绝大多数 Antigravity 用户并未受到此次措施的影响。



显然,部分受影响用户并不知道自己的行为违反了服务条款。然而谷歌强调,必须立即采取行动以稳定平台,保障广大用户的使用体验。有关退款流程的更多详情将直接通知受影响用户。



OpenClaw 开发者 Peter Steinberger 对此作出回应,他形容谷歌的做法「相当严格」Anthropic 在遇到类似问题时会直接联系他,而谷歌却「直接封禁」。



在谷歌官方论坛以及 Hacker News 和 Reddit 等平台上,受影响的用户纷纷表达了对此次事件的处理流程的不满。他们尤其批评谷歌缺乏预警、沟通不畅以及难以获得技术支持。


一个意外走红的开源实验


近日,Steinberger 接受了一次深度访谈,讲述了这个项目从无到有的历程。



Steinberger 曾创立 PSPDFKit,这款跨平台 PDF 开发工具包帮助无数开发者在 iOS、Android、Web 等应用中快速集成 PDF 功能,并在高强度运营十三年后成功将公司出售。


随后,他经历了一段职业倦怠期,选择彻底放空。重新出发时,他不想再做苹果生态的技术,却也一时找不到方向。直到真正上手体验 AI 编程工具,他才感受到技术变革的震撼,光靠读文章是感受不到这种力量的。


他曾有一次用 AI 续写烂尾项目的经历。


他把一个做到一半就搁置的项目整理成约 1.5MB 的 Markdown 文件,拖入 Gemini Studio 生成规格文档,再扔给 Claude Code 执行,然后他就去忙别的事,副屏上的模型自己跑了好几个小时。


模型最后告诉他已经 100% 生产就绪,他去试了一下,直接崩溃。他随后接入 Playwright,让模型搭建登录功能,并要求它随时自我校验。大约一小时后,它真的跑通了。


「代码写得很粗糙,但我鸡皮疙瘩都起来了,」他说,「脑子里炸开了无数我一直想做但以前做不了的东西。」


外界常常把 OpenClaw 称为 Steinberger 的一夜成名,但这并不准确。过去九到十个月里,他的 GitHub 上陆续出现了四十多个项目,许多都成为了 OpenClaw 的组成部分


他说,自己并没有一开始就有统一的规划,大部分时候就是在瞎探索。他想要某个东西,发现它不存在,于是就用提示词把它召唤出来。


他最初的想法之一是做一个能帮他管理 WhatsApp 的工具,甚至买好了域名,做出了原型,但随后觉得大厂迟早会做,就搁置了,转去做别的。到十一月,他意识到大厂依然没有动静,便做出了后来演变为 OpenClaw 的第一个原型,彼时它还用着另一个名字,如今已是第五个名字了。


真正让他确信这东西有价值的,是一次在摩洛哥马拉喀什的周末旅行。


当地网络很差,WhatsApp 却畅通无阻,他发现自己一直在用这个工具翻译信息、查找餐厅、远程控制电脑上的文件。他把它展示给朋友,帮朋友发短信,朋友们都想要它。这让他意识到产品有了真实的市场需求。


那条语音消息,与一次真正的顿悟


Steinberger 至今仍觉得那次经历不可思议。他随手发了一条语音消息,本来没有为这个场景写过任何代码,但模型给他回复了。他问模型是怎么做到的,模型解释道:它发现那条消息是一个没有后缀的文件,查看文件头后识别出是 Opus 音频编码,用电脑上已有的 FFmpeg 转码,再找到环境变量里的 OpenAI API key,通过 cURL 把文件发给 OpenAI 完成了语音转录。


「这就是给 agent 工具权限和完整电脑访问能力的力量,」他说,「它们可以自己想出解决方案,哪怕你完全没给它们写过任何相关代码。」于是他顿悟,给 agent 的权限越多、工具和技能越多,它能带来的惊喜就越多


从小实验场到全球现象


OpenClaw 走红之快,让 Steinberger 自己都有些措手不及。他在旧金山参加了 OpenAI 举办的 Codex Hackathon,以及由社区自发组织的 OpenClaw 线下聚会 ClawCon,后者现场到场约一千人,他坦言「被彻底震撼了」。这个项目几周前还根本不存在,现在却有成千上万的人在使用它、支持它,还专程聚集到旧金山想见他一面。下周在维也纳也有类似活动,已经有三百人报名,尽管维也纳的科技氛围远不及硅谷。


对于外界普遍认为这是「一夜成名」的看法,Steinberger 表示,其实背后是将近一年的持续探索和实验的积累,而整个项目至今基本上都是他一个人完成的。「哪怕一年前都不可能,没有任何模型能支持一个人做出这种东西,」他说,「大家甚至都想不到这一点。」


对代码价值的重新理解


Steinberger 坦言自己现在大量使用 Codex,并认为它在所有工具里最值得信任。他反对把 AI 辅助编程叫做「vibe coding,称这个词带有贬义,抹杀了其中真实存在的技巧与学习曲线。「第一天拿起吉他你不会弹,不代表吉他没用,」他说,「你要以玩耍的心态去接触它,慢慢培养出感觉。」


他对代码本身的看法也在改变。大多数代码不过是把一种形状的数据转换成另一种形状,他在脑子里有整体的心智模型,AI 写出来的东西大差不差就够了。「就像之前带团队,你必须接受工程师不会写出和你一模一样的代码,」他说,「现在要做的是优化代码库,让 agent 能做到最好,这和人类做到最好不完全是一回事。」


他对开源贡献的理解也发生了根本性的转变。OpenClaw 已经积累了超过两千个 PR,但他更愿意把这些 PR 称为「提示词请求」而非传统意义上的代码合并请求。


他关心的不是代码写得怎样,而是贡献者真正想解决什么问题。他会先把 PR 丢给 AI 模型,问它:「这个 PR 背后的意图是什么?这是最优解吗?」往往经过十几分钟的语音对话,才能厘清问题的本质,再决定以何种方式修复。


安全争议与开源的两面性


随着项目走红,安全问题也随之而来。Steinberger 承认,整个安全行业都在盯着 OpenClaw,这既让他感到有些沮丧,也让他意识到一些问题被过度解读了。比如项目内置的 Web 服务,最初只是为了本地调试,从未打算暴露在公网上。但因为项目保持「黑客友好」的可配置性,有人通过反向代理将其公开,随后安全研究者据此给出了 CVSS 10.0 的最高风险评级。


「我本来就不是为这个场景设计的」他说。但他也意识到,开源软件一旦公开,便无法阻止人们以非预期的方式使用它。他现在的重点转向了支持这些场景,帮助用户不要在不知情的情况下伤害自己。


这是开源的魅力,也是它的疯狂之处。


对这个时代的判断


对于不少还没有真正拥抱 AI 编程工具的开发者,Steinberger 的建议是:用玩乐的心态去接触,做一件你一直想做的东西。「如果你哪怕有一点点 builder 心态,你心里一定有想做的东西,去玩就对了。」他说。


他援引了英伟达 CEO 的说法:短期内你不会被 AI 取代,但你会被更会用 AI 的人取代。对于那些拥抱这些工具、跟随好奇心、把任何想法变成现实的 builders 来说,他认为现在是历史上最好的时代。「我觉得一年之内,这个领域会彻底爆发,」他说,「2026 年会非常精彩。」


而这次与谷歌之间的风波,或许正是这股浪潮加速涌来时,生态系统还未做好准备的一个缩影。


参考内容:

https://news.ycombinator.com/item?id=47115805

https://x.com/_mohansolo/status/2025766889205739899?s=20

https://www.youtube.com/watch?v=9jgcT0Fqt7U

https://x.com/steipete/status/2025743825126273066?s=20

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

同意楼上的观点!这次事件很明显是双方信息不对称导致的。开发者可能觉得自己在探索新技术的边界,但平台却认为这是滥用资源。个人觉得开发者应该更有契约精神,平台也应该更加透明和人性化。可以考虑建立一个开发者社区,让大家可以交流经验,共同探讨如何合理使用 AI 工具。

开源项目安全确实是个老大难问题。我觉得可以从几个方面入手:一是加强代码审计,引入更多的安全专家参与代码审查;二是建立完善的安全漏洞响应机制,及时修复漏洞;三是加强用户教育,提高用户的安全意识,避免用户在不知情的情况下进行危险操作;四是可以考虑引入一些安全沙箱技术,限制开源项目的权限,防止恶意代码的执行。

我觉得“黑客友好”本身就是一种安全隐患。很多时候,为了追求灵活性,开发者会牺牲安全性。个人认为,开源项目应该在开放性和安全性之间找到一个平衡点。可以考虑提供一些安全的默认配置,让用户在不了解底层原理的情况下也能安全使用。同时,也要提供足够的文档,帮助用户了解潜在的安全风险,并采取相应的措施。

AI 的发展对开发者来说,机遇和挑战并存。机遇在于,AI 可以极大地提高开发效率,降低开发成本,让开发者可以更专注于创新和解决更复杂的问题。挑战在于,开发者需要不断学习新的 AI 技术,适应新的开发模式,同时也要应对 AI 带来的安全、伦理等方面的挑战。此外,AI 还会改变开发者的角色和技能需求,开发者需要具备更强的沟通、协作和问题解决能力。

这事儿也侧面反映了现在AI发展太快,很多规则和伦理还没跟上。开发者一头热地往前冲,平台为了维护自身利益不得不踩刹车。要我说,以后搞AI的,不仅要懂技术,还得懂法律和伦理,不然迟早要翻车。比如这次,如果OpenClaw一开始就和谷歌好好沟通,说不定就不会有这事儿了。

我觉得最大的机遇是,AI 让每个人都有机会成为创造者。以前很多需要专业技能才能完成的事情,现在通过 AI 就能轻松实现。比如,不懂编程的人可以使用 AI 辅助工具来开发应用,不懂设计的人可以使用 AI 来生成图片。但挑战也很大,你需要不断学习,才能跟上 AI 发展的步伐。而且,随着 AI 的普及,竞争也会越来越激烈。

我觉得这次事件确实暴露了一些问题。一方面,开发者可能对平台规则不够了解,或者认为某些使用方式是合理的,但实际上违反了平台的规定。另一方面,平台可能没有明确告知开发者哪些行为是被禁止的,或者缺乏有效的沟通机制。为了避免类似事件发生,开发者在使用 AI 工具时,应该仔细阅读平台的服务条款,了解平台的使用规范,并积极与平台沟通,及时反馈问题。平台也应该加强对开发者的引导和教育,明确告知开发者哪些行为是被允许的,哪些行为是被禁止的,并建立有效的沟通渠道,及时回应开发者的疑问。

别说了,我已经开始焦虑了!感觉AI发展太快,自己学的那些东西很快就要被淘汰了。不过换个角度想想,这不也是一种机遇吗?逼着我们不断学习新东西,保持竞争力。而且,AI再厉害也只是工具,关键还是看我们怎么用它。以后会不会出现一种新的职业——“AI调教师”?专门负责调教AI,让它更好地为我们服务。

嗨,安全和自由从来都是一对矛盾体啦!想完全安全,那就闭源得了,啥也别让用户碰。但开源的魅力就在于它的开放性,允许用户自由定制。所以说,开源项目做好安全,关键在于做好风险提示和防护措施。就像OpenClaw这次,如果能在一开始就明确提示用户暴露Web服务可能带来的风险,估计也不会有安全研究员专门盯着它了。