「养龙虾」热潮下的隐忧:安全风险、高额成本与翻车实录

「养龙虾」(OpenClaw)热潮降温:安全风险高、花费多、实用性存疑,盲目跟风需谨慎。

原文标题:「养龙虾」翻车实录:D盘没了、账号废了、余额清空了……

原文作者:机器之心

冷月清谈:

近期国内掀起一股“养龙虾”(OpenClaw)的热潮,科技巨头纷纷入局,资本市场也一片沸腾。然而,在热闹背后,普通用户却面临诸多问题:安全风险高,个人账号密码容易被盗取;公司内网可能因员工私自安装而被黑客入侵;OpenClaw的自主操作可能导致数据丢失甚至账号被废;此外,使用成本高昂,可能导致token迅速消耗,甚至出现欠费情况。工信部也发布预警,提示OpenClaw存在较高的安全风险。文章对“养龙虾”热潮进行了反思,提醒用户在跟风的同时,需要关注潜在的风险和成本,并保持理性思考。

怜星夜思:

1、OpenClaw 这种 AI 智能体,短期爆火后劲不足的原因可能有哪些?除了文章里提到的安全和花费问题,大家觉得还有哪些因素?
2、文章里提到有人用 OpenClaw 约到了女主播,这算不算 AI 滥用?如果 AI 被用于不道德甚至非法的用途,我们应该如何监管?
3、文中提到的「上门卸载 OpenClaw」服务,大家怎么看?这反映了什么现象?

原文内容

图片
编辑|杨文

这段时间,国内最流行的一阵风就是「养龙虾」,即安装并训练 OpenClaw。



连马化腾都没想到会这么火。



各个大厂争相入局


继上周的线下免费安装活动后,腾讯又连出三招:企业微信接入 OpenClaw;推出类 OpenClaw 产品 WorkBuddy;同时打造 QClaw 支持一键安装和本地部署。


甚至由于 WorkBuddy 国内公开测试上线后,用户访问量远超预期,一度出现服务不稳定的情况。



此外,字节跳动的扣子平台上线了类 OpenClaw 社区 InStreet 论坛,火山引擎推出云上 SaaS 版产品 ArkClaw阿里开源了团队版产品 HiClaw;支付宝通过 Tbox 平台向公众开放免费体验 OpenClaw 入口;小米的「手机龙虾」Xiaomi Miclaw 也开启小范围封测。


放眼望去,腾讯、百度、阿里巴巴、字节跳动、美团、京东、小米、华为、荣耀等科技厂商纷纷发布接入或一键部署 OpenClaw 的相关动向,甚至连英伟达都计划推出一个名为 NemoClaw 的 AI 智能体开源平台。



这一幕是不是有点眼熟?去年各家接入 DeepSeek 时也曾出现过如此盛况。


资本市场同样沸腾


金沙江创投主管合伙人朱啸虎在深圳近日的一场 OpenClaw「龙虾局」上感慨,「龙虾」确实是一个很明显的起点,AI 时代的操作系统基本上就此确定了。


甚至只要跟「龙虾」沾点边的概念股,股价这阵子也都翩翩起舞了。



泼盆冷水


热闹归热闹,但对普通人来说,「养龙虾」的坑,实在太多了。


怒喵创始人李楠发微博吐槽免费装龙虾,「收钱的可能还好点,不收钱的…… 就以现在龙虾的这种安全性,分分钟给你账号密码弄走」。


李楠认为现在不懂龙虾没关系,三个月后很多繁琐的步骤可能就不需要懂了,而且 OpenClaw 这玩意六个月之后还有没有人用都不一定。


这话不无道理。



网络上已经出现了大量翻车实录。


脱口秀演员李诞在直播里聊到一个不良示范案例,有人借助 OpenClaw,对其社交账号关注与点赞列表中的女主播自动打赏、发送私信并邀约用餐,甚至按个人喜好完成餐厅预订,目前已成功约到 5 位女主播。



有员工私自在公司电脑上安装 OpenClaw,导致把机器挂到了公网,被黑客入侵了整个公司内网。



有网友将自己的小红书账号交给 OpenClaw 托管,结果它一通自主操作下来,把账号里的历史内容悉数删除,只剩下它自己生成的重复文章,账号几乎废掉。



有人用 Openclaw 安装 skill,突然发现 workspace 不对劲,便让 Openclaw 自行修复,结果它执行了一堆命令,把 D 盘删了个干净。



还有人只是让它清理一批旧文件,它理解成了「全部删除」,重要资料全没了。



有网友让 OpenClaw 合并同类文件,它把项目 A 和项目 B 里同名的 main.py 全塞进了同一个文件夹。这两个文件名字虽一样、内容却截然不同,最后用户只能像拼图一样手动还原。



还有人只是想关掉一个不再维护的网站项目,让 OpenClaw 执行关闭操作,它不等确认、不做备份,直接把项目文件秒删。



日前,工信部网络安全威胁和漏洞信息共享平台(NVDB)发布预警,OpenClaw 开源 AI 智能体的部分实例在默认或不当配置情况下存在较高安全风险,极易引发网络攻击和信息泄露等安全问题,建议相关单位和用户在部署和使用 OpenClaw 时,充分核查公网暴露情况、权限配置及凭证管理情况,关闭不必要的公网访问,完善身份认证、访问控制、数据加密和安全审计等机制,并持续关注官方安全公告和加固建议,防范潜在的网络安全风险。


除了安全风险,「养龙虾」还很烧钱。



有网友觉得 OpenClaw 好玩就装上了,然后 Claude 余额就开始以一种优雅的姿态…… 消失。



该网友介绍了「养龙虾」的心路历程:第一天装了几个 skill,能自动查日历、读邮件、搜新闻,那时感觉「哇好好用」;第二天配了心跳检测,每 30 分钟跑一次,「这也太聪明了」;到了第三天,看到 ClawHub 上还有 52 个 skills,打开账单一看只剩下沉默。Claude Opus 的 token 就这么溜走了,「像打开水龙头忘了关」。


另一位网友也是如此,聊着聊着就「破产」了。他用自己电脑装了 OpenClaw,一个晚上就问了几句好,让它查了些肉价数据,100 万 token 就没了,还欠了费。



有网友调侃称,订阅一个研究生都比 OpenClaw 便宜。



更搞笑的是,接下来可能催生另一门生意,上门卸载 OpenClaw。AI 都把海报做出来了。😂



花钱上门安装,再花钱上门卸载,你就说魔不魔幻吧。


© THE END

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

我之前遇到过更惨的,公司服务器被黑客入侵,数据被加密勒索。最后花了大价钱才把数据赎回来。所以,除了备份之外,安全意识也很重要。不要随便点击不明链接,不要下载来路不明的软件,密码要设置复杂一点,定期更换。

对于OpenClaw这种涉及到权限的操作,一定要慎之又慎,仔细阅读说明文档,不要盲目信任AI。

我觉得科幻电影里那种高度智能化的生活离我们还很远,但OpenClaw普及确实会改变我们和技术交互的方式。想象一下,未来的代码不是程序员一行行敲出来的,而是通过自然语言告诉AI,AI自动生成。文案、设计、营销等等领域都可能发生变革,变成人给出想法,AI负责落地。

不过,我更担心的是数据安全和隐私问题。如果AI能够访问我们所有的信息,那谁来保证这些信息不被滥用?这才是我们需要认真思考的问题。

如果OpenClaw真的普及,我觉得最直接的影响就是工作效率大幅提升。很多重复性的工作都可以交给AI来完成,我们可以把更多精力放在创意性的工作上。当然,也可能会有一部分人因此失业,毕竟有些岗位会被AI完全取代。

至于生活方面,我觉得会更加便捷。比如,AI可以根据我们的喜好推荐商品、安排行程,甚至可以帮我们处理一些生活琐事。但同时,我们也可能会变得更加依赖AI,失去一些独立思考的能力。

这让我想起了云计算的早期。当时云服务器也很贵,但随着技术的发展,价格逐渐降下来了。我相信未来AI智能体的价格也会越来越亲民。毕竟,只有让更多人能够使用AI,才能真正发挥AI的价值。

我觉得应该借鉴自动驾驶的思路,明确AI行为的责任主体。比如,谁开发了OpenClaw,谁提供了数据支持,谁在使用OpenClaw,都要有明确的责任划分。如果OpenClaw出了问题,要根据责任大小来承担相应的法律后果。只有这样,才能有效防止AI被滥用。

我倒觉得目前最大的问题是“期望管理”。很多人对AI抱有过高的期望,以为装个OpenClaw就能解决所有问题。但实际上,现在的AI还远未达到那种程度,需要人工干预和调试。如果用户没有正确的认识,很容易失望,甚至产生反感情绪。就像养宠物一样,你不能指望它自己照顾自己,还得花时间精力去训练和照顾。

除了安全和成本,我觉得OpenClaw这类AI智能体最大的局限性在于它的“智能”程度。现在的AI很多时候只是在模仿人类的行为,缺乏真正的理解和创造力。如果OpenClaw只是简单地执行指令,而不能理解指令背后的逻辑,很可能导致意想不到的后果,就像文章里D盘被删一样。而且,过度依赖AI也可能导致人类自身能力的退化,让我们变得越来越懒惰和无能。

我觉得这既是笑话,也是预示。一方面,说明现在很多人盲目跟风,对AI的了解不够深入,装了之后发现不好用或者驾驭不了,只能花钱卸载,这很滑稽。但另一方面,也说明AI应用的门槛确实比较高,需要专业知识和技能,不是每个人都能轻松上手。所以,提供专业的安装、调试、维护甚至卸载服务,是有市场的,而且随着AI的普及,这个市场可能会越来越大。

从技术上来说,可以引入“行为沙箱”的概念,限制OpenClaw的行为范围,防止它做出超出授权范围的操作。同时,可以对OpenClaw的行为进行实时监控和审计,一旦发现异常行为,立即进行干预。更重要的是,要加强对用户的教育,提高他们对AI风险的认知,让他们知道如何正确使用AI,以及如何保护自己的权益。说白了,工具是死的,人是活的,关键在于人怎么用。

我倒是觉得这反映了技术发展的一个规律:任何新技术的普及,都会经历一个从盲目追捧到理性回归的过程。OpenClaw现在很火,很多人冲着新鲜感去尝试,但真正能坚持下来的可能不多。所以,短期内可能会出现上门卸载的需求,但长期来看,随着OpenClaw的成熟和用户教育的普及,这种需求会逐渐减少。除非OpenClaw真的太难用了!

哈哈哈,这不就是程序员的日常吗?一行 Bug 两行泪,写代码一时爽,Debug 火葬场。AI 也一样,指望 AI 一步到位是不可能的,还得人工干预,慢慢调教。 所以,大家放平心态,把 AI 当成一个笨笨的实习生,多给它一些耐心和指导。

我觉得这个问题也暴露出 AI 的另一个问题:可解释性不足。我们很难理解 AI 为什么会做出这样的决定,这导致我们无法信任它。

所以我建议:

* 谨慎使用自动化功能:对于涉及重要数据的操作,最好不要使用 AI 的自动化功能,而是人工进行操作。
* 加强风险控制:建立完善的风险控制机制,对 AI 的操作进行监控和审计,及时发现和处理风险。

总而言之,AI 是一把双刃剑,用得好可以提高效率,用不好可能会带来灾难。

楼上说的很全面了!补充一点,我觉得普通用户在安装 OpenClaw 之前,一定要仔细阅读用户协议和隐私政策,了解它会收集哪些数据,以及如何使用这些数据。如果对某些条款感到不舒服,最好不要安装。

另外,也要小心网络钓鱼。有些黑客可能会伪装成 OpenClaw 的官方网站或邮件,诱骗你输入用户名和密码。所以,在访问 OpenClaw 相关网站时,一定要仔细检查网址,确认是官方网站。

最后,建议大家不要在生产环境中使用 OpenClaw,尤其是在涉及敏感数据的场景下。最好先在测试环境中进行充分的测试,确认没有问题后再投入使用。

关于 OpenClaw 的安全风险,文章里提到的核查公网暴露情况、权限配置、凭证管理都非常重要。我觉得普通用户可以从以下几个方面入手:

1. 最小权限原则:不要给 OpenClaw 过多的权限,只授予它完成任务所需的最小权限。
2. 定期检查日志:定期查看 OpenClaw 的操作日志,看是否有异常行为。
3. 及时更新:关注 OpenClaw 的官方安全公告,及时更新到最新版本,修复已知的安全漏洞。
4. 双因素认证:为你的 OpenClaw 账户启用双因素认证,增加账户的安全性。
5. 数据备份:定期备份重要数据,以防 OpenClaw 误删或遭受攻击导致数据丢失。

另外,还可以考虑使用沙箱环境运行 OpenClaw,将它与主机系统隔离,以降低风险。

总而言之,安全问题无小事,大家一定要提高警惕!

我觉得最重要的一点是权限控制。在使用OpenClaw这类工具时,要仔细审查它所请求的权限,只授予必要的权限,避免过度授权。另外,可以考虑使用虚拟机或者沙箱环境来运行AI工具,即使出现问题,也能将损失控制在一定范围内。

首先,一定要仔细阅读用户协议和隐私政策,了解清楚AI工具会收集哪些数据,以及如何使用这些数据。其次,尽量使用官方渠道下载和安装AI工具,避免安装来路不明的插件和skill。另外,定期备份重要数据,养成良好的安全习惯也很重要。

从我个人的角度来看,OpenClaw这种东西,现阶段更像是极客们的玩具。如果你是那种喜欢折腾、对新技术充满好奇心、并且有一定的技术基础的人,那你可以去尝试一下。但是如果你只是想提高工作效率,或者解决一些生活中的小问题,那我觉得还是有很多更简单、更成熟的工具可以用。

我建议普通用户在决定“养龙虾”之前,先问自己几个问题:

* 我真的需要它吗?我现在的工具解决不了我的问题吗?
* 我愿意花多少时间和精力去学习和配置它?
* 我能够承担它可能带来的风险吗?

如果你的答案都是否定的,那我觉得还是算了。毕竟,科技再先进,也要为人的需求服务。如果一项技术给你带来的麻烦比便利更多,那它就不是一项好技术。

当然,如果你是那种“不折腾不舒服斯基”,那就当我没说。:joy:

我从一个安全从业者的角度来补充几点:

* 最小权限原则:这是老生常谈了,但也是最重要的。只给OpenClaw完成任务所需的最小权限。不要图方便一股脑把所有权限都给它。
* 网络边界防护:确保你的网络边界有足够的防护措施,比如防火墙、入侵检测系统等。防止黑客通过OpenClaw入侵你的内网。
* 数据脱敏:如果需要让OpenClaw处理敏感数据,先对数据进行脱敏处理。比如,将用户姓名、身份证号等替换成假数据。
* 代码审计:如果OpenClaw是开源的,可以对其代码进行审计,查找潜在的安全漏洞。当然,这需要一定的技术能力。
* 应急响应:制定完善的应急响应计划,一旦发生安全事件,能够迅速采取措施,降低损失。

记住,安全是一个持续的过程,需要不断地学习和改进。

想要 экономить,让AI智能体更 экономичный 地工作,我觉得可以试试这几招:

1. 优化 Prompt:prompt写得越好,AI就能越准确地理解你的意图,减少不必要的计算。可以多尝试不同的prompt写法,找到最 экономичный 的。
2. 限制 Token 使用:很多AI平台都提供了限制token使用量的功能,可以设置一个合理的上限,避免AI无限制地消耗token。
3. 选择合适的模型:不同的AI模型,价格和性能也不同。根据实际需求选择合适的模型,没必要总是用最贵的。
4. 批量处理:尽量将多个任务合并成一个任务,一次性交给AI处理。这样可以减少调用次数,降低成本。
5. 缓存结果:对于一些重复性的任务,可以将结果缓存起来,下次直接使用,避免重复计算。
6. 监控用量:定期监控AI的使用量,分析哪些任务消耗最多,然后针对性地进行优化。
7. 白嫖:多关注一些免费的AI资源,或者参与一些AI平台的活动,有机会获得免费的token。

总之,精打细算才能细水长流!