OpenAI发布GPT-5.3-Codex:AI自开发,Agent化编程模型挑战Claude Opus

我觉得以后程序员可能要变成“AI 调教师”了,主要工作从写代码变成喂数据、提需求、debug AI 生成的代码。当然,前提是AI真的能稳定工作,不然还是得自己撸起袖子干!

配套支持方面,我觉得需要以下几点:一是完善的Agent平台,提供统一的接口和工具,方便工程师使用;二是高质量的训练数据,保证Agent的输出质量;三是安全可靠的运行环境,防止Agent被恶意利用;四是持续的培训和支持,帮助工程师快速适应新的工作方式。

我不太同意楼上的观点,过多的干预会限制AI的潜力。与其过于强调人为干预,不如从一开始就对AI进行充分的训练和指导。通过提供大量的优质代码和明确的业务规则,让AI学习并掌握正确的决策方式。同时,可以引入AI的“置信度”概念,只有当AI对自己的决策有足够信心时,才允许其自主执行。这样既能发挥AI的效率,又能避免潜在的风险。

我持更加乐观的态度。Agent的出现将极大地提高软件开发的效率,使程序员能够更专注于创新和创造。未来的程序员将更多地参与到产品设计、用户体验和业务拓展等方面。程序员的角色将从“技术实现者”转变为“业务创新者”和“产品设计师”。

有一说一,以后低代码/无代码平台会不会更普及?感觉 Codex 这类工具的出现,降低了软件开发的门槛,以后会不会出现“人人都是开发者”的时代?

组织架构的调整也是一个难题。Agent 化开发模式可能会改变团队的协作方式,甚至需要重新设计组织架构。如何平衡 Agent 和人类工程师之间的职责,确保团队的效率和创新能力,需要仔细考虑。

楼上正解!以后就是人肉 Code Reviewer + 项目架构师了,专门给 AI 擦屁股,防止它胡来。不过待遇应该会更好,毕竟管的是 AI 这种高级打工人。

我觉得最大的挑战是任务拆解和权限分配。如果 Agent 之间没有明确的边界,很容易出现互相干扰或者重复劳动。需要一套清晰的任务分配机制和沟通协议。

与其说是新的编程语言,不如说是更高级的抽象。Agent需要的不是指令,而是目标。所以未来的开发工具,可能更像是一个“目标定义器”,我们只需要告诉 Agent 我们想要什么,Agent 自己会去寻找实现目标的最佳方式。这种编程范式,可以叫做“意图编程”?

楼上说的太严肃啦,我觉着最直接的风险是AI胡乱搞把服务器搞崩了,之前不就有AI模型自己疯狂训练,把算力用光的新闻么。所以说权限管理一定要做好,明确AI的行动边界,避免AI为所欲为。

我觉得未来的开发工具,会更加注重“协作”。人需要和Agent协作,Agent也要和Agent协作。所以,需要有强大的“任务分解”和“调度”能力,能够把复杂的任务分解成小的模块,并分配给不同的 Agent 去完成。而且,界面交互也会发生变化,可能更多的是基于自然语言的对话式交互。

这种自主性,听起来就很赛博朋克!最大的风险就是“失控”,AI的判断依据可能和人类的价值观不符,导致意想不到的后果。所以,我觉得要建立完善的“可解释性”机制,让人们能够理解 AI 的决策过程,及时发现并纠正错误。另外,还得有安全阀,在必要的时候能够紧急叫停。

嗯,这个很有可能!现在的编程语言,还是给人用的,要让Agent更好的工作,肯定需要更适合Agent的语言。我觉得关键在于“知识表达”和“推理能力”,新的语言需要能够更清晰地描述领域知识,并支持 Agent 进行高效的推理和决策。可能是一种DSL(领域特定语言)。

从历史的角度看,每一次技术革命都会重塑劳动力市场。可以预见,未来的程序员可能更像一个“AI 项目经理”,负责定义问题、制定规范、验证结果,并确保 AI 的工作符合预期。同时,对程序员的抽象思维、系统设计能力以及领域知识的要求会更高,要让Agent理解需求,总得有人先理解需求才行。

楼上说的都有道理,但我觉得别忘了“安全”这个大前提。AI 写代码虽然效率高,但安全漏洞也可能更多。未来的程序员,还得是安全专家,专门负责code review,防患于未然,万一AI搞出个大bug,那可不是闹着玩的。

从工程角度来说,自主性带来的风险主要体现在不可预测性上。AI 可能会因为某些未知的因素,做出不符合预期的决策,导致系统出现异常。因此,我们需要建立完善的监控体系,实时跟踪 AI 的运行状态,并进行充分的测试和验证,确保其在各种情况下都能稳定可靠地工作。我觉得灰度发布会是一个比较稳妥的方式,先小范围试试水。

这个问题很有意思!我觉得程序员的核心价值不会消失,但工作内容肯定会变。以后可能不需要花大量时间写重复代码,更多的是做架构设计、需求分析、以及Agent的调教和监督。就像现在搞AI,prompt调得好,事半功倍!