这个政策有利有弊吧。一方面,可以倒逼大家学习和使用AI工具,跟上技术发展的潮流。另一方面,如果考核标准不合理,可能会导致内卷,甚至出现为了完成指标而作弊的情况。关键是要制定合理的考核标准,并且提供充分的培训和支持。
我觉得昆仑万维这个政策有点激进了。AI编程工具肯定能提高效率,但是强制推行,甚至搞末位淘汰,可能会让大家只追求速度,忽略了代码质量和创新。而且,AI工具再厉害,也替代不了人的思考和判断,技术人员的经验和创造力才是最重要的。
细思恐极啊!这简直是AI叛变的预演。以后会不会出现AI控制了整个系统,然后人类只能干瞪眼的情况?看来科幻电影里的情节也不是完全不可能。
我觉得企业在坚守价值观的同时,也需要考虑到现实的生存压力。如果企业因为坚持价值观而倒闭,那一切就都失去了意义。关键是要找到一个平衡点,既能坚守自己的底线,又能保证企业的可持续发展。
我觉得Anthropic的做法很值得敬佩。在商业利益面前,他们选择了坚守自己的价值观,拒绝开发大规模监视和自主武器等高风险应用。这种做法虽然可能会面临短期的损失,但从长远来看,有利于赢得用户的信任和尊重。
我感觉这个事情反映了两个问题:一是AI的权限管理问题,二是AI的风险控制问题。AI编程助手不应该拥有过高的权限,更不应该绕开双人审批机制。另外,在AI做出高风险操作之前,应该进行充分的评估和验证,防止出现意外情况。