北大与字节提出BranchGRPO,以树形分叉与剪枝策略,将扩散模型对齐效率提升近5倍,解决了RLHF低效与稀疏奖励难题,实现更快、更稳、更准的视觉生成。
原文标题:加速近5倍!北大与字节团队提出BranchGRPO,用「树形分叉 + 剪枝」重塑扩散模型对齐
原文作者:数据派THU
冷月清谈:
BranchGRPO的核心创新在于其树形展开的采样过程。它通过在扩散反演过程中,在预设步上引入「分叉」(branching),使得多条轨迹能够共享前缀并在中间步骤分裂,从而显著减少了冗余计算,提升了探索效率。其次,它摒弃了单一终末奖励的弊端,采用「奖励融合与逐层归因」机制,将叶子节点的奖励自底向上进行传递和标准化,为训练过程提供了更为稠密且稳定的反馈信号,有效克服了稀疏奖励导致的训练波动。
为避免树形结构可能带来的指数级成本,BranchGRPO还设计了两种「剪枝」策略:宽度剪枝只保留关键叶子节点参与反向传播,深度剪枝则跳过部分层的反传,进一步压缩开销。这一系列精巧的设计使得BranchGRPO在效率和稳定性之间取得了完美的平衡。
实验结果表明,BranchGRPO在HPDv2.1图像对齐任务上实现了最高近4.7倍的迭代加速,并在保持更高对齐效果与训练稳定性的同时,显著超越了DanceGRPO和MixGRPO等现有方法。在WanX-1.3B视频生成任务中,它不仅使视频帧更锐利、细节更丰富、时间一致性更强,还实现了超过2倍的训练效率提升。值得一提的是,BranchGRPO在保持生成多样性的同时,还展现出卓越的「扩展性」,使得大规模对齐训练变得切实可行。
这项研究标志着视觉生成对齐领域的一个重要突破,未来若能引入自适应分裂与剪枝策略,并拓展到多模态与更大规模任务,BranchGRPO有望成为扩散/流模型RLHF的核心方法论,为高效、稳定的人类偏好对齐提供新的范式。
怜星夜思:
2、文章主要聚焦在扩散/流匹配模型上。大家觉得BranchGRPO里“树形采样”和“稠密奖励”的核心思想,有没有可能启发其他类型的生成模型(比如GANs、VAE、甚至大型语言模型),来解决它们在效率或人类偏好对齐方面的痛点呢?
3、BranchGRPO大幅提升了RLHF在视觉生成对齐上的效率和稳定性。但随着生成式AI模型越来越强大并走向多模态,大家觉得除了效率和稳定性,RLHF在未来的发展中还需要重点解决哪些新的挑战或问题,才能实现真正意义上的“人类意图对齐”?
原文内容
来源:机器之心本文约2400字,建议阅读10分钟
BranchGRPO 通过树形分叉、奖励融合与轻量剪枝,创新性地融合了效率与稳定。
快分叉与稳收敛
在扩散 / 流匹配模型的人类偏好对齐中,实现高效采样与稳定优化的统一,一直是一个重大挑战。
近期,北京大学与字节团队提出了名为 BranchGRPO 的新型树形强化学习方法。不同于顺序展开的 DanceGRPO,BranchGRPO 通过在扩散反演过程中引入分叉(branching)与剪枝(pruning),让多个轨迹共享前缀、在中间步骤分裂,并通过逐层奖励融合实现稠密反馈。
该方法在 HPDv2.1 图像对齐与 WanX-1.3B 视频生成上均取得了优异表现。最令人瞩目的是,BranchGRPO 在保证对齐效果更优的同时,迭代时间最高近 5×(Mix 变体 148s vs 698s)。
-
论文链接: https://arxiv.org/pdf/2509.06040
-
项目主页:
https://fredreic1849.github.io/BranchGRPO-Webpage/
-
代码链接:
https://github.com/Fredreic1849/BranchGRPO
-
PKU HMI 实验室主页:https://pku-hmi-lab.github.io/HMI-Web/index.html
-
单位:该项目主要由来自北京大学、北京师范大学、字节跳动的师生联合研究,作者包括李聿明、王一凯等,通讯作者为北京大学仉尚航。
研究背景与挑战
近年来,扩散模型与流匹配模型凭借在图像与视频生成上的高保真、多样性与可控性,已成为视觉生成的主流方案。然而,仅靠大规模预训练并不能保证与人类意图完全对齐:模型生成的结果常常偏离美学、语义或时间一致性的需求。
为解决这一问题,「人类反馈强化学习(RLHF)」被引入,用以直接优化生成模型,使其输出更贴近人类偏好。
在 RLHF 体系中,「群体相对策略优化(GRPO)」被证明在图生文、文生图和视频生成中具有良好的稳定性与可扩展性。然而,当 GRPO 应用于扩散 / 流模型时,依旧面临两大根本性瓶颈:
低效性:标准 GRPO 采用顺序 rollout,每条轨迹必须在旧策略和新策略下独立采样,复杂度达到 O (N×T)(其中 T 是扩散步数,N 是组大小)。这种重复采样带来大量计算冗余,严重限制了大规模生成任务的扩展性。
稀疏奖励:现有方法通常只在最终生成结果上计算单一奖励,并将其均匀回传至所有步。这种 “稀疏且均匀” 的反馈忽视了中间状态中蕴含的关键信号,导致 credit assignment 不准确,训练波动大、收敛不稳,甚至出现高方差梯度。
因此,一个关键问题被提出:如何在不破坏多样性的前提下,既提升采样效率,又让奖励信号更稠密、更稳定地作用于训练过程?
正是在这一背景下,我们提出了 BranchGRPO。通过树形分叉、奖励融合与剪枝机制,BranchGRPO 做到了「又快又稳、又强又准」,为大规模视觉生成对齐开辟了新路径。
BranchGRPO如何在扩散过程中分化出树形结构
为突破顺序 rollout 的低效与稀疏奖励瓶颈,BranchGRPO 将原本单一路径的采样过程,重构为一种树形展开:
-
分叉(Branching):在若干预设的扩散步上进行分裂,每条轨迹可以向多个子路径扩展,前缀计算被复用,大幅减少冗余采样。这种结构既保持了扩散过程的完整性,又让探索更高效。
-
奖励融合与逐层归因(Reward Fusion & Depth-wise Advantage):不同于将单一终末奖励均匀分配到所有步骤,BranchGRPO 将叶子节点的奖励自底向上传递,并在每一深度上进行标准化,形成逐步稠密的优势信号,使训练过程更稳定、更精准。
-
剪枝(Pruning):为避免树形结构带来的指数级成本,BranchGRPO 设计了两种剪枝策略:
-
宽度剪枝:仅保留关键叶子参与反向传播,减少梯度计算量;
-
深度剪枝:跳过部分层的反传(但保留前向和奖励评估),进一步压缩开销。
这一系列设计使得 BranchGRPO 在效率和稳定性之间实现了统一:既能显著加速训练、降低迭代开销,又能在奖励归因上更精细、更稳定,从而在图像与视频生成任务中同时提升对齐效果与收敛速度。
精度、速度、稳定度
1.图像对齐(HPDv2.1):
在图像对齐测试中,BranchGRPO 带来了真正的「又快又好」:
更快:
DanceGRPO (tf=1.0) 每迭代 698s;BranchGRPO 493s;剪枝版 314s;Mix 变体 148s(相对 698s 最高近 4.7× 加速)
更稳更准:
HPS-v2.1 0.363–0.369,稳定高于 DanceGRPO 的 0.360;ImageReward 1.319(DepPru) 为全表最佳。
对比其他方法:
MixGRPO 虽然也能压缩时间到 289 秒,但对齐分数略有下降,并且 MixGRPO 训练常常不稳定;相比之下,BranchGRPO-Mix 在极致加速的同时,依旧保持了与原始 BranchGRPO 相当的对齐效果和稳定的训练,展现出惊人的性价比。
2.视频生成(WanX-1.3B)
在视频生成任务中,BranchGRPO 同样展现了强大的优势:
更清晰:
不使用 RLHF 的基础模型常出现严重的闪烁和变形;DanceGRPO 虽有所改善,但画面依旧模糊、不够稳定。相比之下,BranchGRPO 生成的视频帧更锐利,细节更丰富,角色和物体在时间维度上保持一致,真正实现了「流畅不掉帧」的观感。
更快:
在相同硬件条件下,DanceGRPO 每次迭代大约需要 近 20 分钟;而 BranchGRPO 仅需约 8 分钟 就能完成一次迭代,训练效率直接翻 2 倍以上。
3.消融实验
从消融实验可以看到:适中的分支相关度、早期更密集的分裂能加快奖励提升;路径加权的奖励融合让训练更稳;深度剪枝带来最佳最终效果;而混合 ODE–SDE 调度则在保持稳定的同时达到最快训练速度。
4.多样性保持:
分叉并未削弱样本分布,MMD²≈0.019,几乎与顺序采样一致。
5. 扩展性(Scaling Law):
得益于 BranchGRPO 的高效性与训练稳定性,我们能够轻松扩大分支规模而不崩溃:无论是增加分支因子还是分支次数,性能都持续提升。比如在 81 个样本规模下,DanceGRPO 每次迭代要花 2400 秒,而 BranchGRPO 只需 680 秒,真正把大规模对齐训练变得可行。
总结与展望
BranchGRPO 通过树形分叉、奖励融合与轻量剪枝,创新性地融合了效率与稳定,奖励从「终点一锤子」变「全程有信号」—— 在速度、稳定与对齐效果上全面提升(HPDv2.1 最高近 5×,视频生成更清晰更一致)。成为视觉生成对齐的新一代解决方案。
未来,若引入自适应分裂 / 剪枝策略,并拓展至多模态与更大规模生成任务,BranchGRPO 有望成为扩散 / 流模型 RLHF 的核心方法,为高效、稳定的人类偏好对齐提供新的范式。
如果您在研究中使用BranchGRPO,欢迎引用我们的工作:
@article{li2025branchgrpo, title={BranchGRPO: Stable and Efficient GRPO with Structured Branching in Diffusion Models}, author={Li, Yuming and Wang, Yikai and Zhu, Yuying and Zhao, Zhongyu and Lu, Ming and She, Qi and Zhang, Shanghang}, journal={arXiv preprint arXiv:2509.06040}, year={2025}}
参考链接:
DanceGRPO: Unleashing GRPO on Visual Generation:https://arxiv.org/abs/2505.07818
MixGRPO: Unlocking Flow-based GRPO Efficiency with Mixed ODE-SDE:
https://arxiv.org/abs/2507.21802








