快手Kwaipilot团队推出KAT系列Agentic Coding大模型,KAT-Dev-32B与KAT-Coder在SWE-Bench Verified上表现优异,技术创新助推代码智能新突破。
原文标题:Agentic Coding表现创新高,全新KAT系列模型上榜SWE-Bench
原文作者:机器之心
冷月清谈:
团队的核心贡献在于多个创新训练阶段:
1. **Mid-Training:** 早期训练阶段着重强化了模型的工具使用、多轮交互、指令遵循、编码知识注入、Git Commit 数据处理以及通用思考能力,为后续阶段打下坚实基础。
2. **监督微调 (SFT):** 通过精心策划的八种任务类型和八种编程场景,模型学习了端到端的需求交付能力,确保了其泛化性和综合能力。
3. **强化微调 (RFT):** 创新性地引入了人类工程师标注的“教师轨迹”作为训练指导,通过衡量与 ground truth 的相对差异而非绝对奖励,显著提升了强化学习阶段的效率和稳定性,有效搭建了 SFT 与 RL 之间的桥梁。
4. **大规模 Agentic RL:** 针对智能体强化学习的挑战,团队开发了对数概率计算前缀缓存、基于熵的轨迹剪枝(Entropy-based Tree Pruning)技术,有效减少冗余计算并保留关键训练信号。此外,自研的 SeamlessFlow 框架解耦了训练与智能体逻辑,并通过统一环境接口和企业级 RL 数据构建,进一步提升了训练效率和模型在复杂真实场景下的学习能力。值得一提的是,团队利用匿名企业级代码库进行训练,这些数据包含大规模、复杂的业务逻辑,相比纯开源数据,极大地增强了模型处理实际生产级问题的能力。
经过大规模 Agentic RL 训练后,KAT 模型展现出显著的“涌现能力”:对话轮次平均下降 32%,并支持多工具并行调用,这些都源于轨迹树结构带来的隐式优化压力和熵剪枝机制。未来,Kwaipilot 团队将继续深化工具集成、扩展多语言支持、探索协作编码和多模态代码智能。
怜星夜思:
2、文章提到大规模智能体强化学习阶段,快手团队使用了‘企业级’的匿名代码库进行训练。大家觉得这种真实世界的工业数据,跟我们平时能接触到的开源代码库比,对模型能力提升到底有多大帮助?获取这类数据又会有哪些挑战?
3、KAT模型在强化学习后出现了对话轮次减少和多工具并行调用的‘涌现能力’。这种效率和并行思维在训练中是怎样被‘诱导’出来的呢?有没有可能把这种训练思路推广到其他AI Agent领域,比如让它们在完成某个复杂任务时也能更‘聪明’地‘一步到位’或者‘多线程’操作?
原文内容
近期,快手 Kwaipilot 团队推出了 KAT 系列两款突破性 Agentic Coding 大模型:开源 32B 参数模型 KAT-Dev-32B 与闭源旗舰模型 KAT-Coder。
这两款模型在 Code Intelligence 领域分别体现出轻量级的超强表现和极致性能。其中,在 SWE-Bench Verified 上,KAT-Dev-32B 展现出强劲性能并取得了 62.4% 的解决率,在所有不同规模的开源模型中排名第 5。与此同时,KAT-Coder 以 73.4% 的解决率在 SWE-Bench Verified 上取得了极佳的单模型表现,比肩全球顶尖闭源模型。
图 1:在 SWE-Bench Verified 上,和全尺寸开源模型对比,KAT-Dev 用极小的模型尺寸取得了第一梯队的性能
图 2:在 SWE-Bench Verified 上,KAT-Coder 取得极佳的单模型表现,比肩全球顶尖闭源模型性能
-
快手 Kwaipilot 团队的官方技术 Blog:https://kwaipilot.github.io/KAT-Coder/
-
KAT-Dev-32B 模型开源地址:https://huggingface.co/Kwaipilot/KAT-Dev
-
KAT-Coder 开发工具接入指南:https://www.streamlake.com/document/WANQING/me6ymdjrqv8lp4iq0o9
-
KAT-Coder API Key 申请:https://console.streamlake.com/wanqing/
核心贡献点摘要
KAT-Dev-32B 和 KAT-Coder 在多个训练阶段进行了创新和优化,包括 Mid-Training 阶段、监督微调 (SFT) 阶段、强化微调 (RFT) 阶段,以及大规模智能体强化学习 (RL) 阶段,具体如下:
-
Mid-Training:Kwaipilot 团队发现,在这一阶段大量增加工具使用能力、多轮交互和指令遵循的训练,虽然在当前结果上(例如在 SWE-bench 等排行榜)可能不会带来显著的性能提升,但对后续的 SFT 和 RL 阶段具有重大影响。
-
SFT & RFT:团队在 SFT 阶段精心策划了八种任务类型和八种编程场景,以确保模型的泛化能力和综合能力。此外,在 RL 之前,创新性地引入了 RFT 阶段,使用人类工程师标注的 "教师轨迹" 作为训练期间的指导。
-
大规模 Agentic RL:当前,扩展智能体 RL 面临三个挑战:非线性轨迹历史的高效学习、利用内在模型信号以及构建可扩展的高吞吐量基础设施。对此,Kwaipilot 团队通过对数概率计算的前缀缓存(Log-Probability Prefix Caching)、基于熵的轨迹剪枝(Entropy-based Tree Pruning)和自研的工业级规模强化学习训练框架 SeamlessFlow 来解决这些问题。
KAT 系列模型的核心技术路线
一、Mid-Training
Kwaipilot 团队对经过预训练的模型进行了两阶段训练,该阶段被称为 Mid-Training。在其中的第一个阶段,增强了模型与 “LLM-as-Agent” 相关的全方位能力,包括但不限于以下几种能力:
-
工具调用能力:构建了在沙盒环境真实执行工具的调用方法以及执行结果的交互数据,用于提升模型的工具调用能力;
-
多轮交互能力:构建了最长数百轮的人类、模型、工具的交互数据,用于提升在长文本情况下模型的多轮交互能力;
-
编码知识注入:加入了高质量的与编码相关的领域知识数据,用于进一步增强模型在编码场景下的性能;
-
Git Commit 数据:加入了大量来自于真实 Git 仓库的 PR 数据,用于进一步提升模型在真实编程任务下的表现;
-
指令跟随数据:收集了 30 + 类常见的用户指令,用于增强模型对用户指令的理解能力;
-
通用及思考数据:构建了多类通用数据,用于增强模型在通用领域以及在调用工具时进行思考的能力。
二、监督微调 (Supervised Fine-Tuning, SFT)
在第二阶段,Kwaipilot 团队收集了大量人类工程师标记的真实需求交付轨迹,并基于此合成了大量的轨迹数据,进一步对模型进行训练,以增强其端到端需求交付的能力。其中覆盖了多种任务类型:
八大用户任务类型:
-
Feature Implementation(功能实现)
-
Feature Enhancement(功能增强)
-
Bug Fixing(缺陷修复)
-
Refactoring(结构优化)
-
Performance Optimization(性能优化)
-
Test Case Generation(测试用例生成)
-
Code Understanding(代码理解)
-
Configuration & Deployment(配置与部署)
八大用户编程场景:
-
Application Development(应用开发)
-
UI/UX Engineering(界面与用户体验工程)
-
Data Science & Engineering(数据科学与工程)
-
Machine Learning & AI(机器学习与人工智能)
-
Database Systems(数据库系统)
-
Infrastructure Development(基础设施开发)
-
Specialized Programming Domains(专业编程领域)
-
Security Engineering(安全工程)
三、强化微调(Reinforcement Finetune,RFT)
在这一阶段,Kwaipilot 团队在强化学习流程的基础上,额外引入了多个 ground truth 用于轨迹探索的指导,提升 rollout 效率,从绝对 reward 到衡量与 ground truth 的差异,提升了强化学习阶段的效率和稳定性。
从直接给定绝对 reward 更新为衡量 rollout 样本和 ground truth 之间的相对差异给了强化学习更稳定和更准确的奖励信号,同时也会在 rollout 阶段实时监督样本的正确性,并及时终止与 ground truth 有明显偏离的样本生成,这也给强化学习带来了更高的样本效率。
图 3:在强化微调(RFT)流程中,引入教师轨迹作为指导
经过三阶段的训练,团队获得了为 RL 阶段准备的冷启动模型,RFT 的加入也为 SFT 和 RL 之间构建了桥梁。
-
Mid-Training:首先,团队教会大模型各种基本技能,包括如何使用工具、如何理解用户意图等;
-
SFT:其次,用高质量的轨迹数据,让模型学习如何执行真实的下游任务;
-
RFT:最后,在模型准备 “自由探索” 之前,先由教师轨迹手把手教会模型如何探索,保障了模型后续在 RL 阶段的稳定性。
四、大规模 Agentic RL
1、基于熵的树剪枝(Entropy Based Tree Pruning)
Kwaipilot 团队发现,即便使用上述技术,对完整树中的所有 token 进行训练的成本仍然过高,因此亟需设计一种能够优先聚焦于携带最强训练信号节点的机制。
为此,团队将轨迹压缩成一个前缀树,其中每个节点表示一个共享前缀,每条边对应一段 token。在固定的计算预算下,目标是只保留最有价值的节点进行训练。团队基于树中聚合的熵信号和节点被到达的可能性来估计节点的信息量,并按照重要性顺序扩展节点来剪枝树,直到预算耗尽。额外的启发式方法确保保留结构上的重要区域(例如,工具或内存事件),并维护局部上下文以稳定训练。这种基于熵的剪枝大幅减少冗余计算,同时保留大部分有效的训练信号,从而实现显著的吞吐量提升和更低的总体成本。
2、RL infra:自研 SeamlessFlow 框架
图 4:Kwaipilot 团队自研的 RL 训练框架 SeamlessFlow 架构
为扩展 RL,必须将 RL 训练与智能体的多样化内部逻辑完全解耦,同时最大化异构计算架构的利用率。遵循 SeamlessFlow 的设计,Kwaipilot 团队在智能体和 RL 训练之间设计了一个专门用于轨迹树管理的中间层,确保两者之间的严格分离。此外,采用提出的标签驱动调度机制来协调异构集群中的任务分配,从而最小化管道气泡并维持高吞吐量训练。
3、统一环境接口和企业级 RL 数据构建
Kwaipilot 团队还通过统一不同 RL 执行环境的部署和评估接口,使任何新添加的环境都能以低成本无缝集成。这种统一设计为跨异构数据源和任务类型扩展 RL 训练奠定了坚实基础。具体到软件开发场景,团队聚集于三个基本组件:与相应分支代码配对的问题描述、可执行环境和可验证的测试用例。
Kwaipilot 团队从开源仓库收集拉取请求和相关问题,并根据这些仓库的星标、PR 活动和问题内容过滤低质量数据,随后系统地为每个收集的实例构建可执行环境镜像并生成单元测试用例。除了软件工程数据,团队还纳入了其他可验证领域,如数学和推理任务,进一步丰富了 RL 信号的多样性。
更重要的是,除了开源数据,团队还进一步收集并利用来自真实世界工业系统的匿名企业级代码库进行 RL 训练。与仅在公共仓库(如 GitHub 上的仓库)上训练不同,这些仓库通常包含较简单的项目,而这些大规模、复杂的代码库 —— 跨越多种编程语言并代表真实的业务逻辑 —— 让模型接触到更具挑战性的开发场景,为 RL 提供了高价值的资产。训练智能体解决这些真实世界的工业问题不仅增强了学习的鲁棒性,还将所得模型的编程能力建立在现实的生产级环境中。
图 5:在 SWE-Bench Verified 上,各阶段训练对模型的性能影响
模型效果展示
KAT-Coder 模型具备强大的代码生成能力,可独立完成完整的项目开发,通过调用编程工具可实现从交互式游戏到代码重构等多样化编程任务。用户仅需描述需求,模型即可交付完整的代码解决方案。
1、星空效果
2、水果忍者🥷
3、代码重构
大规模 Agentic RL 后的涌现能力
对经过大规模 Agentic RL 训练后的模型进行分析,Kwaipilot 团队观测到了两个显著的涌现现象:
-
对话轮次显著降低:模型倾向于用更少的交互轮次完成任务,相较于 SFT 模型,平均对话轮次下降了 32%;
-
多工具并行调用:模型展现出同时调用多个工具的能力,而非传统的串行调用。
团队推测,这源于轨迹树结构带来的隐式优化压力,使模型自然形成效率偏好与并行调用能力。
-
效率偏好的形成:在轨迹树结构中,较短的路径(更少的对话轮次)会被更多的训练样本共享。这创造了一个隐式的优化压力:模型倾向于学习更高效的解决方案;
-
并行化的自然选择:在树结构中,多工具并行调用创造了更多的分支可能性,这些分支在训练时被独立处理,使得模型能够同时探索多个工具组合。同时熵剪枝机制(Long-term Entropy Pruning)保留了信息量较大的节点,而多工具调用节点往往具有更高的熵值,使模型逐渐学会了 "批处理" 思维。
未来展望
Kwaipilot 团队将持续探索代码智能的前沿领域,开拓创新可能:
-
增强工具集成:与流行的 IDE、版本控制系统和开发工作流深度集成,创建无缝的编码体验。
-
多语言扩展:扩展 KAT 模型能力以覆盖新兴的编程语言和框架,确保全面的语言支持。
-
协作编码:探索多智能体系统,让 KAT 模型能够在复杂的软件项目上协同工作,实现前所未有的协作。
-
多模态代码智能:集成视觉理解能力,处理架构图、UI 设计、调试截图和文档图像以及代码,使开发过程更加直观和高效。
原文链接:https://kwaipilot.github.io/KAT-Coder/
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin.com







