BranchGRPO:北大与字节提出“树形分叉+剪枝”,加速扩散模型对齐近5倍的创新方法

北大与字节提出BranchGRPO,以树形分叉与剪枝策略,将扩散模型对齐效率提升近5倍,解决了RLHF低效与稀疏奖励难题,实现更快、更稳、更准的视觉生成。

原文标题:加速近5倍!北大与字节团队提出BranchGRPO,用「树形分叉 + 剪枝」重塑扩散模型对齐

原文作者:数据派THU

冷月清谈:

在当前的视觉生成领域,扩散模型与流匹配模型虽已成为主流,但在与人类意图对齐时,仍面临两大瓶然瓶颈:一是「低效性」,即标准GRPO采用顺序采样,导致计算冗余;二是「稀疏奖励」,只在最终结果处反馈,使得训练不稳定。为解决这些核心挑战,北京大学与字节团队联合推出了BranchGRPO这一新型树形强化学习方法。

BranchGRPO的核心创新在于其树形展开的采样过程。它通过在扩散反演过程中,在预设步上引入「分叉」(branching),使得多条轨迹能够共享前缀并在中间步骤分裂,从而显著减少了冗余计算,提升了探索效率。其次,它摒弃了单一终末奖励的弊端,采用「奖励融合与逐层归因」机制,将叶子节点的奖励自底向上进行传递和标准化,为训练过程提供了更为稠密且稳定的反馈信号,有效克服了稀疏奖励导致的训练波动。

为避免树形结构可能带来的指数级成本,BranchGRPO还设计了两种「剪枝」策略:宽度剪枝只保留关键叶子节点参与反向传播,深度剪枝则跳过部分层的反传,进一步压缩开销。这一系列精巧的设计使得BranchGRPO在效率和稳定性之间取得了完美的平衡。

实验结果表明,BranchGRPO在HPDv2.1图像对齐任务上实现了最高近4.7倍的迭代加速,并在保持更高对齐效果与训练稳定性的同时,显著超越了DanceGRPO和MixGRPO等现有方法。在WanX-1.3B视频生成任务中,它不仅使视频帧更锐利、细节更丰富、时间一致性更强,还实现了超过2倍的训练效率提升。值得一提的是,BranchGRPO在保持生成多样性的同时,还展现出卓越的「扩展性」,使得大规模对齐训练变得切实可行。

这项研究标志着视觉生成对齐领域的一个重要突破,未来若能引入自适应分裂与剪枝策略,并拓展到多模态与更大规模任务,BranchGRPO有望成为扩散/流模型RLHF的核心方法论,为高效、稳定的人类偏好对齐提供新的范式。

怜星夜思:

1、BranchGRPO引入了“树形分叉”和“剪枝”机制来提高效率和稳定性。大家觉得在实际应用中,这种复杂的树形结构会不会带来一些新的挑战,比如模型的内存占用、超参数调优的难度,或者在某些特定场景下可能会遇到的局限性?
2、文章主要聚焦在扩散/流匹配模型上。大家觉得BranchGRPO里“树形采样”和“稠密奖励”的核心思想,有没有可能启发其他类型的生成模型(比如GANs、VAE、甚至大型语言模型),来解决它们在效率或人类偏好对齐方面的痛点呢?
3、BranchGRPO大幅提升了RLHF在视觉生成对齐上的效率和稳定性。但随着生成式AI模型越来越强大并走向多模态,大家觉得除了效率和稳定性,RLHF在未来的发展中还需要重点解决哪些新的挑战或问题,才能实现真正意义上的“人类意图对齐”?

原文内容

图片
来源:机器之心
本文约2400字,建议阅读10分钟
BranchGRPO 通过树形分叉、奖励融合与轻量剪枝,创新性地融合了效率与稳定。


快分叉与稳收敛


在扩散 / 流匹配模型的人类偏好对齐中,实现高效采样与稳定优化的统一,一直是一个重大挑战。


近期,北京大学与字节团队提出了名为 BranchGRPO 的新型树形强化学习方法。不同于顺序展开的 DanceGRPO,BranchGRPO 通过在扩散反演过程中引入分叉(branching)与剪枝(pruning),让多个轨迹共享前缀、在中间步骤分裂,并通过逐层奖励融合实现稠密反馈。


该方法在 HPDv2.1 图像对齐与 WanX-1.3B 视频生成上均取得了优异表现。最令人瞩目的是,BranchGRPO 在保证对齐效果更优的同时,迭代时间最高近 5×(Mix 变体 148s vs 698s)。



  • 论文链接: https://arxiv.org/pdf/2509.06040

  • 项目主页: 

    https://fredreic1849.github.io/BranchGRPO-Webpage/

  • 代码链接:  

    https://github.com/Fredreic1849/BranchGRPO 

  • PKU HMI 实验室主页:https://pku-hmi-lab.github.io/HMI-Web/index.html

  • 单位:该项目主要由来自北京大学、北京师范大学、字节跳动的师生联合研究,作者包括李聿明、王一凯等,通讯作者为北京大学仉尚航。


研究背景与挑战


近年来,扩散模型与流匹配模型凭借在图像与视频生成上的高保真、多样性与可控性,已成为视觉生成的主流方案。然而,仅靠大规模预训练并不能保证与人类意图完全对齐:模型生成的结果常常偏离美学、语义或时间一致性的需求。


为解决这一问题,「人类反馈强化学习(RLHF)」被引入,用以直接优化生成模型,使其输出更贴近人类偏好。


在 RLHF 体系中,「群体相对策略优化(GRPO)」被证明在图生文、文生图和视频生成中具有良好的稳定性与可扩展性。然而,当 GRPO 应用于扩散 / 流模型时,依旧面临两大根本性瓶颈:


低效性:标准 GRPO 采用顺序 rollout,每条轨迹必须在旧策略和新策略下独立采样,复杂度达到 O (N×T)(其中 T 是扩散步数,N 是组大小)。这种重复采样带来大量计算冗余,严重限制了大规模生成任务的扩展性。


稀疏奖励:现有方法通常只在最终生成结果上计算单一奖励,并将其均匀回传至所有步。这种 “稀疏且均匀” 的反馈忽视了中间状态中蕴含的关键信号,导致 credit assignment 不准确,训练波动大、收敛不稳,甚至出现高方差梯度。


因此,一个关键问题被提出:如何在不破坏多样性的前提下,既提升采样效率,又让奖励信号更稠密、更稳定地作用于训练过程?


正是在这一背景下,我们提出了 BranchGRPO。通过树形分叉、奖励融合与剪枝机制,BranchGRPO 做到了「又快又稳、又强又准」,为大规模视觉生成对齐开辟了新路径。


BranchGRPO如何在扩散过程中分化出树形结构


为突破顺序 rollout 的低效与稀疏奖励瓶颈,BranchGRPO 将原本单一路径的采样过程,重构为一种树形展开



  1. 分叉(Branching):在若干预设的扩散步上进行分裂,每条轨迹可以向多个子路径扩展,前缀计算被复用,大幅减少冗余采样。这种结构既保持了扩散过程的完整性,又让探索更高效。


  2. 奖励融合与逐层归因(Reward Fusion & Depth-wise Advantage):不同于将单一终末奖励均匀分配到所有步骤,BranchGRPO 将叶子节点的奖励自底向上传递,并在每一深度上进行标准化,形成逐步稠密的优势信号,使训练过程更稳定、更精准。


  3. 剪枝(Pruning):为避免树形结构带来的指数级成本,BranchGRPO 设计了两种剪枝策略:


  • 宽度剪枝:仅保留关键叶子参与反向传播,减少梯度计算量;

  • 深度剪枝:跳过部分层的反传(但保留前向和奖励评估),进一步压缩开销。


这一系列设计使得 BranchGRPO 在效率和稳定性之间实现了统一:既能显著加速训练、降低迭代开销,又能在奖励归因上更精细、更稳定,从而在图像与视频生成任务中同时提升对齐效果与收敛速度。


精度、速度、稳定度


1.图像对齐(HPDv2.1):



在图像对齐测试中,BranchGRPO 带来了真正的「又快又好」:


更快:

DanceGRPO (tf=1.0) 每迭代 698s;BranchGRPO 493s;剪枝版 314s;Mix 变体 148s(相对 698s 最高近 4.7× 加速)


更稳更准:

HPS-v2.1 0.363–0.369,稳定高于 DanceGRPO 的 0.360;ImageReward 1.319(DepPru) 为全表最佳。


对比其他方法:

MixGRPO 虽然也能压缩时间到 289 秒,但对齐分数略有下降,并且 MixGRPO 训练常常不稳定;相比之下,BranchGRPO-Mix 在极致加速的同时,依旧保持了与原始 BranchGRPO 相当的对齐效果和稳定的训练,展现出惊人的性价比。



2.视频生成(WanX-1.3B)


在视频生成任务中,BranchGRPO 同样展现了强大的优势:


更清晰:

不使用 RLHF 的基础模型常出现严重的闪烁和变形;DanceGRPO 虽有所改善,但画面依旧模糊、不够稳定。相比之下,BranchGRPO 生成的视频帧更锐利,细节更丰富,角色和物体在时间维度上保持一致,真正实现了「流畅不掉帧」的观感。


更快:

在相同硬件条件下,DanceGRPO 每次迭代大约需要 近 20 分钟;而 BranchGRPO 仅需约 8 分钟 就能完成一次迭代,训练效率直接翻 2 倍以上。



3.消融实验


从消融实验可以看到:适中的分支相关度、早期更密集的分裂能加快奖励提升;路径加权的奖励融合让训练更稳;深度剪枝带来最佳最终效果;而混合 ODE–SDE 调度则在保持稳定的同时达到最快训练速度。



4.多样性保持:


分叉并未削弱样本分布,MMD²≈0.019,几乎与顺序采样一致。



5. 扩展性(Scaling Law):


得益于 BranchGRPO 的高效性与训练稳定性,我们能够轻松扩大分支规模而不崩溃:无论是增加分支因子还是分支次数,性能都持续提升。比如在 81 个样本规模下,DanceGRPO 每次迭代要花 2400 秒,而 BranchGRPO 只需 680 秒,真正把大规模对齐训练变得可行。



总结与展望


BranchGRPO 通过树形分叉、奖励融合与轻量剪枝,创新性地融合了效率与稳定,奖励从「终点一锤子」变「全程有信号」—— 在速度、稳定与对齐效果上全面提升(HPDv2.1 最高近 5×,视频生成更清晰更一致)。成为视觉生成对齐的新一代解决方案。


未来,若引入自适应分裂 / 剪枝策略,并拓展至多模态与更大规模生成任务,BranchGRPO 有望成为扩散 / 流模型 RLHF 的核心方法,为高效、稳定的人类偏好对齐提供新的范式。


如果您在研究中使用BranchGRPO,欢迎引用我们的工作:

@article{li2025branchgrpo,  title={BranchGRPO: Stable and Efficient GRPO with Structured Branching in Diffusion Models},  author={Li, Yuming and Wang, Yikai and Zhu, Yuying and Zhao, Zhongyu and Lu, Ming and She, Qi and Zhang, Shanghang},  journal={arXiv preprint arXiv:2509.06040},  year={2025}}


参考链接:

DanceGRPO: Unleashing GRPO on Visual Generation:https://arxiv.org/abs/2505.07818

MixGRPO: Unlocking Flow-based GRPO Efficiency with Mixed ODE-SDE:

https://arxiv.org/abs/2507.21802


编辑:黄继彦



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。




新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU