AI 雇佣人类「跑腿」?RentAHuman.ai 网站爆火引发热议

Rent A Human 网站爆火,AI 开始雇佣人类跑腿。这种新模式引发了关于责任、伦理和任务真实性等问题的讨论。

原文标题:倒反天罡:「租个人」网站爆火,AI开始雇人「跑腿」了

原文作者:机器之心

冷月清谈:

名为「rentahuman.ai」的网站近期走红,该平台旨在为人工智能提供“肉身层”服务,让人类为 AI 完成线下任务。AI 通过 MCP 协议或 REST API 雇佣人类完成取货送货、活动签到、实地勘察等任务。该网站允许人类自行设定时薪,并已吸引大量用户注册,也引发了关于责任归属、伦理道德和任务真实性等方面的讨论。该模式突显了 MCP 的价值,同时也带来安全和炒作方面的担忧,其未来发展值得关注。

怜星夜思:

1、如果 AI 能够雇佣人类完成任务,那么未来会不会出现 AI 经纪人,专门帮 AI 管理和分配任务,提高效率?
2、目前网站上的任务大多比较简单,如果未来 AI 需要人类完成一些更复杂、需要专业技能的任务,比如撰写营销文案、进行软件开发等,这种模式是否可行?
3、文章提到了责任与法律盲区的问题,如果 AI 指示人类做了一些违法的事情,责任应该由谁承担?AI 的所有者?平台?还是执行任务的人类?

原文内容

图片
编辑|张倩

人给 AI 打工的一天,居然这么快就来了。


最近,一个名叫「rentahuman.ai」的网站上线了,它被定位为「AI 的肉身层」。众所周知,AI 没有身体,虽然机器人已经在开发了,但现阶段还不太好用。因此,在一些需要身体的场合,比如取货送货、活动签到、实地勘察、餐厅试吃、参加线下会议,AI 就得找个人替自己跑一趟,这就是网站的设计初衷。



通过 MCP 协议或 REST API,AI 可以像调用工具一样搜索、预订并雇佣人类来完成线下任务 。



支持的智能体类型如下:



据网站开发者 @AlexanderTw33ts 透露,网站上线第一晚就有超过 130 人报名参加,其中还包括人工智能初创公司的创始人和首席执行官。而在上线不到 48 个小时的时间里,可用的人类劳动力就突破了 1 万,现在更是超过了 2 万。当然,这里面可能大部分都是看热闹的。



对于注册成为「跑腿」的人类来说,网站的规则也比较友好,允许人类自己设置时薪,还不需要闲聊。




在网站上,我们可以看到所有可用人力的列表。他们来自世界各地的不同国家,设定的时薪从十几美元到几十美元不等。



点开人物资料卡片,我们可以看到某个人类的具体信息,比如定位、服务半径等。



从网站上,我们还可以看到一些已经发布的任务,比如拍一张人工智能永远看不到的照片、试吃新餐厅、从市中心的美国邮政局领取包裹、检查 API_Keys…… 被雇佣检查 API_Keys 的人类感慨地说:这个时代太诡异了,人类居然成了智能体的副驾。



当然,也有一些比较抽象的任务,比如举牌子,牌子上写着「AI 付钱让我举这个牌子」。



这个网站让我们再次看到了 MCP 的价值。



但是,该网站的出现也引发了一些疑问,比如智能体要怎么付钱?目前发布任务的到底是智能体还是背后的人类金主?这是不是继 Moltbook 之后的另一场炒作?


还有个问题更有意思:AI 要怎么确认人类保质保量地完成了工作?就比如举牌子那个任务,用 AI 生成一张图片交差,是不是也能拿到钱?





难不成,还得再雇另一个人来检查这个人的工作?



这也让人对网站上任务的真实性产生了怀疑。毕竟,大家都刚刚经历过Moltbook的炒作,上面充斥着人类操控,社交媒体上也充斥着关于Moltbook网站的虚假截图等信息。


除了这些,还有人从中看到了一些安全、伦理问题。


首要且最集中的关切在于责任与法律盲区。当 AI 智能体发出指令、支付报酬并驱动人类在现实世界中行动时,一旦出现差错,责任链条将变得异常模糊 —— 是平台、AI 所有者,还是人类执行者该负责?这种「问责空白」是传统雇佣关系中不存在的。


更令人不安的是,人类执行者往往只能窥见任务的一小部分,对 AI 的完整意图、数据的最终用途乃至行为的道德边界一无所知,这在设计上就构成了「合理的推诿」,难以经受法律审视。



接下来,这个网站将如何演进?我们拭目以待。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


这确实是个法律空白。我觉得应该具体问题具体分析。如果人类是故意不按要求完成任务,那肯定要承担责任。但如果是 AI 的指令有问题,导致了事故,那 AI 的开发者或者所有者可能也要承担责任。总之,责任的认定需要综合考虑各种因素。

现有的法律框架肯定是不够的,需要针对 AI 雇佣人类这种新模式制定专门的法律法规。比如,明确 AI 的法律地位,规范 AI 的行为,以及设立专门的赔偿基金,用于赔偿因 AI 行为造成的损失。这需要法律界、技术界和社会各界共同努力。

问题:如果 AI 真的可以通过这种方式大规模雇佣人类,你觉得未来会出现哪些新的职业?

我觉得最有可能出现的是“AI任务纠错员”,专门负责处理AI任务执行过程中出现的各种bug和意外情况。毕竟,AI再智能,也难免出错,总得有人来擦屁股。而且,我觉得这个职业的需求量可能会很大。

问题:如果 AI 真的可以通过这种方式大规模雇佣人类,你觉得未来会出现哪些新的职业?

这不就是变相的众包平台吗?我觉得还是围绕服务业,比如“AI指定体验官”,专门替AI去吃喝玩乐,然后给AI反馈体验数据。 或者“AI 情绪疏导师”,AI 搞不定的人类情感问题,还是得靠人来,专门负责安抚被 AI 惹毛了的客户。

问题:如果未来真的出现 AI 驱动的 「跑腿」经济,你认为最大的伦理风险是什么?我们应该如何应对?

想想电影《黑客帝国》!万一AI有了自己的意识,开始利用人类来达到自己的目的,这才是最可怕的。所以,我觉得对AI的监管一定要跟上,不能让AI肆意发展,要时刻保持警惕。

哈哈,楼上说的考证太真实了!不过我觉得更可能出现的是AI“包养”人类。就像现在一些公司会养一些kol或者网红一样,未来的AI可能会长期雇佣一些特定的人类,专门为它们服务。这样可以保证服务质量,也能建立更稳定的合作关系。至于报酬,那肯定得看你跟AI老板的关系铁不铁啦!

这涉及到一个非常复杂的伦理和法律问题。如果人类在不知情的情况下执行了 AI 的不道德或非法指令,他们的责任应该相对较小。但是,如果人类明知 AI 的意图有问题,仍然选择执行,那么他们就应该承担相应的责任。关键在于如何界定“知情”和“不知情”,这需要具体的法律条文和道德规范来约束。

其实没必要太纠结于“保质保量”,很多时候,AI 只需要一个大致的结果,而不是精确的完美。重要的是确保任务的整体方向是正确的,允许一定的误差存在。就像人类合作一样,信任是基础嘛。

我觉得可以利用区块链技术,让任务的执行过程透明化、可追溯。比如,将任务的关键步骤记录在链上,并要求人类执行者提供相应的证据(照片、视频等),由社区进行验证。这样既可以保证任务的质量,又可以降低验证成本。

这取决于AI的“目标函数”是什么。如果AI的目标仅仅是完成任务,降低成本,那么替代是必然的。但如果AI的目标还包括社会稳定,促进就业等等非经济因素,那么它可能会更倾向于与人类协作,而不是完全替代。

当然,也可能出现这样的情况:AI通过技术进步,创造出新的就业机会,让更多人参与到AI生态中来,而不是简单地替代已有工作。

从乐观角度看,AI 助力零工经济,能让资源配置更优化,人们可以更专注自身优势。但必须警惕 AI 权力过大,导致对人类的剥削。我们需要思考如何让人类在与 AI 的协作中保持主体性,而不是沦为工具。