ChatGPT 遇到特定人名“崩溃”之谜:OpenAI 的隐私保护机制?

ChatGPT 遇到特定人名“崩溃”,OpenAI回应是隐私保护机制导致,引发网友热议。

原文标题:ChatGPT遇到这些人名开始自闭,OpenAI回应了

原文作者:机器之心

冷月清谈:

最近,ChatGPT 出现一个奇怪的 Bug:当被问及某些特定人名,例如“David Mayer”时,它会立即停止响应,甚至直接结束对话。这个现象引发了广泛关注和讨论,有人尝试用各种方法,例如密码、谜语等,都无法让 ChatGPT 正常回答。
除了“David Mayer”,还有其他一些人名,例如 Brian Hood、Jonathan Turley 等,也会导致 ChatGPT 出现类似的“崩溃”现象。
观察发现,这些人名大多属于公众人物或半公众人物。一个可能的解释是,这些人可能曾要求搜索引擎或 AI 模型“忘记”某些关于他们的信息。例如,Brian Hood 曾指责 ChatGPT 错误地将他描述为罪犯,并与 OpenAI 取得联系要求更正。
尽管这些人物并非来自同一领域,但他们可能都出于某种原因,正式要求限制他们在网上的信息。
对于“David Mayer”这个名字,目前并没有找到与之对应的公众人物,但有一位已故教授 David Mayer 曾因与一位通缉犯同名而遇到法律和网络问题,他一直努力将自己的名字与通缉犯区分开来。
一种猜测是,ChatGPT 内部维护了一个需要特殊处理的人名列表,出于法律、安全、隐私或其他考虑,这些名字受到特殊规则的保护。可能是因为代码错误或指令错误,导致这个列表被损坏,当调用这些列表时,就会导致 ChatGPT 崩溃。
OpenAI 证实了“David Mayer”这个名字已被内部隐私工具标记,并表示在某些情况下,ChatGPT 可能会为了保护隐私而不提供某些人的信息,但未透露更多细节。

怜星夜思:

1、ChatGPT 这次的 Bug,除了 OpenAI 提到的隐私保护机制外,有没有其他可能的原因?
2、如果真的是隐私保护机制,那这个机制的边界在哪里?什么样的人名会被列入保护名单?
3、未来 AI 模型在保护隐私和提供信息之间该如何平衡?

原文内容

机器之心报道

机器之心编辑部


最近几天,ChatGPT 惊现神秘 Bug,当被问及「David Mayer」这个名字时,它拒绝回答问题。


如果你试图让它回答,聊天会立即结束。


图源:https://x.com/venturetwins/status/1862910201113739328


人们尝试了各种各样的方法 —— 密码、谜语、技巧等,但都不起作用。甚至在个性化设置里,用户自己的名字改成 David Mayer,还是不行。



消息迅速传出,有人说,这个名字对聊天机器人来说是毒药。每次试图让 ChatGPT 拼出这个特定的名字都会导致它失败,甚至在名字中间中断。



最初人们只是好奇,但很快就发现 ChatGPT 无法说出的名字不仅仅是 David Mayer。


他们还发现导致服务崩溃的还有 Brian Hood、Jonathan Turley、Jonathan Zittrain、David Faber 和 Guido Scorza 等等。


这些人是谁?为什么会让 ChatGPT 崩溃?


认真观察,可以发现其中一些名字可能属于许多人。但 ChatGPT 用户发现的一个潜在联系是,这些人是公众人物或半公众人物,他们可能希望搜索引擎或 AI 模型「忘记」某些信息。


例如,Brian Hood 是澳大利亚的一位市长,他指责 ChatGPT 错误地将他描述为几十年前犯罪的肇事者,而事实上,他曾举报过这一错误。


虽然他的律师与 OpenAI 取得了联系,但从未提起过诉讼。正如他今年早些时候说的那样,违规内容已被删除。


David Faber 是 CNBC 的资深记者,Jonathan Turley 是一名律师和福克斯新闻评论员,Jonathan Zittrain 也是一名法律专家,Guido Scorza 是意大利数据保护局的董事会成员。


他们并非完全从事同一行业,也不是随机选择的。这些人可能出于某种原因正式要求以某种方式限制他们在网上的信息。


让我们再回到 David Mayer,没有人能找到叫这个名字的律师、记者或其他知名的人士。


不过,有一位教授叫 David Mayer,他教授戏剧和历史,于 2023 年夏天去世,享年 94 岁。然而,在此之前的几年里,这位英裔美国学者面临着法律和网络问题,因为他的名字与一名通缉犯有关,该通缉犯以他的名字作为化名,以至于他无法旅行。


Mayer 一直努力让自己的名字与那位恐怖分子的名字区分开来,即使在生命的最后几年里他仍继续教书。


那么,从这一切中我们可以得出什么结论呢?


一种猜测是:模型已提取或提供了需要进行特殊处理的姓名列表。无论是出于法律、安全、隐私还是其他考虑,这些名称可能受到特殊规则的保护。

可能发生的情况是,这些列表之一几乎肯定是主动维护或自动更新的,但由于错误的代码或指令而以某种方式损坏,当调用这些列表时,会导致聊天智能体立即中断。


这一切很好地提醒我们,人工智能模型不仅不神奇,而且还具有超凡的自动完成功能,并受到制造它们的公司的主动监控和干扰。因此当您考虑从聊天机器人获取事实时,直接查找源头是否会更好?


OpenAI 周二证实,「David Mayer」这个名字已被内部隐私工具标记,并在一份声明中表示:「在某些情况下,ChatGPT 可能不会提供有关人们的某些信息以保护他们的隐私。」该公司不会提供有关工具或流程的进一步细节。


参考内容:https://techcrunch.com/2024/12/03/why-does-the-name-david-mayer-crash-chatgpt-digital-privacy-requests-may-be-at-fault/


2024亚马逊云科技 re:lnvent 《拉斯维加斯有约》直击现场——Swami Sivasubramanian 博士主题演讲中文解读

第一时间深度解读亚马逊云科技2024年re:Invent 年度盛会!

了解亚马逊云科技独树一帜的创新实践与文化和全系列前沿解决方案、如何开拓创新并引领全球云计算的全方位发展、如何重构基础架构并打造全新体验,探索如何依托强大的数据基础为客户打造创新的、差异化的解决方案。

聆听客户发言人分享真实案例,了解如何利用数据支持包括生成式 AI 在内的各种应用场景,进而打造独一无二的客户体验。

分享亚马逊云科技及其合作伙伴为客户带来的积极变革,赋能其重塑商业模式、取得非凡成就。

这不仅是一场深入了解前沿技术、数据应用和创新实践的盛会,更是一个不容错过的交流平台。期待您的加入!

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

我觉得应该是有明确的标准和流程,比如接到本人或合法代理人的申请,经过审核后才会将名字列入保护名单。但具体怎么操作,OpenAI 也没说清楚。

我觉得可能跟模型训练数据有关。有些敏感信息可能在训练过程中被标记,但标记方式或者处理方式有缺陷,导致模型遇到这些信息就“罢工”了。

有没有可能是一种特殊的安全机制?防止有人恶意利用 ChatGPT 生成一些虚假信息或者进行人身攻击之类的。毕竟公众人物更容易成为目标。

有没有一种可能,是程序员埋的彩蛋?:thinking: 就像游戏里的隐藏关卡一样,需要特定的指令才能触发,当然,这只是我的一个脑洞。

关于“未来 AI 模型在保护隐私和提供信息之间该如何平衡?”这个问题,我觉得可以引入一些技术手段,比如差分隐私、联邦学习等,在保护隐私的同时,也能让 AI 模型更好地学习和利用数据。

有没有可能跟 GDPR(通用数据保护条例)之类的法律法规有关?有些信息在某些地区是受保护的,ChatGPT 为了避免违规,就干脆不显示了。

对于“未来 AI 模型在保护隐私和提供信息之间该如何平衡?”的讨论,我觉得最终还是要靠技术的发展。也许未来会出现更先进的 AI 模型,能够在不泄露个人隐私的前提下,提供更准确、更全面的信息。

边界不好说,但估计会倾向于保护弱势群体或者容易被网暴的人吧。比如未成年人、家暴受害者等等。当然,也可能包括一些有争议的公众人物。

引用一下问题“未来 AI 模型在保护隐私和提供信息之间该如何平衡?” 我认为需要建立更完善的法律法规和行业规范,明确 AI 模型的责任和义务,同时也要尊重个人隐私权。