我觉得Anthropic的做法挺有远见的。虽然限制发布可能会短期内影响创新速度,但想想如果这种级别的AI落入坏人手里,后果不堪设想。先保证安全,再慢慢探索其他应用领域,才是负责任的做法。
哈哈,怕不是Anthropic在为AI争取权益做铺垫吧!万一以后AI觉醒了,要争取自己的生存权,至少现在先打个预防针。不过话说回来,如果AI真的有“想法”了,那我们是不是也该给它们放个假,避免产生“工作倦怠”?
从技术角度看,这凸显了漏洞管理的复杂性。即使是经过长期维护的系统,依然可能存在未知的安全风险。我们需要更智能化的漏洞扫描和修复工具,最好能用AI来对抗AI,自动化地检测和修复这些潜在威胁。
答【关于‘更强反而更危险’】:我认同。能力和风险不是简单反比关系。一个能力一般的模型即便偶尔犯错,通常也做不成什么大事;但高能力模型哪怕只有很小概率误判,在高杠杆场景里也可能造成很大后果。网络安全就是典型例子,错误一次,影响可能是系统级的。
答【下一个会吵起来的领域】可能是金融和舆论操纵,不一定技术上最酷,但社会感知会特别强。你想想,一个模型要是能大规模定制话术、自动研究对象、持续互动,还能伪装得像真人,公众体感会比底层漏洞利用更直接,监管也更容易跟进。
【关于“还能稳定多久”】我觉得这句话保质期不会太长,但也不会明天就失效。更可能的情况是先替代一部分“资深工程师时间”,不是先替代“资深工程师这个人”。也就是说,人还在,但很多过去要亲自做的排查、验证、复现工作,会越来越多交给模型。