DeRa:解码对齐语言模型,更少幻觉、更符合偏好

原文标题:ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

原文作者:机器之心

冷月清谈:

**关键要点:**
  • **语言模型对齐:**旨在让模型生成符合人类偏好的内容。
  • **平衡奖励和正则化:**奖励鼓励模型生成人类喜欢的回答,正则化防止模型偏离原始状态。
  • **DeRa 方法:**一种解码对齐语言模型的简单、灵活、节约开销的方法。
  • **解码时重新对齐:**通过插值原始模型和对齐模型的输出,可以在解码时调整对齐程度,无需重新训练。

实验结果:

  • DeRa 可以在解码时调整模型的对齐程度。
  • DeRa 识别出的最佳正则化强度与从头重新训练的模型相当。
  • DeRa 可以降低幻觉,生成自然文段,同时保持流畅性。



怜星夜思:


1、除了 DeRa 方法之外,还有哪些其他方法可以用于语言模型对齐?
2、在实际应用中,DeRa 方法的局限性可能是什么?
3、除了生成符合人类偏好的内容之外,对齐语言模型还有哪些潜在应用?

原文内容

图片

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]


本文介绍了一篇语言模型对齐研究的论文,由瑞士、英国、和法国的三所大学的博士生和 Google DeepMind 以及 Google Research 的研究人员合作完成。其中,通讯作者 Tianlin Liu 和 Mathieu Blondel 分别来自瑞士巴塞尔大学和 Google DeepMind Paris。这篇论文已被 ICML-2024 接收,并且入选为 spotlight presentation (仅占总投稿量的 3.5%)。


  • 论文地址:https://openreview.net/forum?id=n8g6WMxt09&noteId=E3VVDPVOPZ
  • 代码地址:https://github.com/liutianlin0121/decoding-time-realignment

研究动机

现如今,语言模型能够创造丰富多样的内容。但有时,我们不希望这些模型「口无遮拦」。想象一下,当我们问智能助手如何减压时,我们不希望得到「去喝个烂醉」这样的回答。我们希望模型的回答更加得体。

这正是语言模型对齐要解决的问题。通过对齐,我们希望模型理解哪些回答是好的,哪些是不好的,从而只生成有益的回答。

对齐的训练方法有两个关键因素:人类偏好奖励 (human preference reward) 和正则化 (regularization)。奖励鼓励模型提供受人类欢迎的回答,而正则化确保模型不会偏离原始状态太远,避免过拟合

那么,如何在对齐中平衡奖励和正则化呢?一篇名为「Decoding-time Realignment of Language Models」的论文提出了 DeRa 方法。DeRa 让我们在生成回答时调整奖励和正则化的比重,无需重新训练模型,节省了大量计算资源并提高了研究效率


具体来讲,作为一种用于解码对齐后的语言模型的方法,DeRa 具有如下特点:
 
  • 简单:DeRa 基于两个模型在原始输出 (logits) 空间的的插值,因此实现起来非常简单。 
  • 灵活:我们可以通过 DeRa,针对不同需求(如用户、提示词、和任务)灵活地调节对齐的强度。
  • 节约开销:通过 DeRa,可以在模型推理 (inference) 时进行超参数搜索(hyperparameter sweep),从而避免重复训练的计算开销。

方法概览

在语言模型对齐中,我们的目标是优化人类偏好的奖励,同时使用 KL 正则化项保持模型接近其监督微调的初始状态。


平衡奖励和正则化的的参数 β 至关重要:太少会导致在奖励上过拟合 (Reward hacking),太多则会有损对齐的成效。

那么,如何选择这个用于平衡的参数 β 呢?传统方法是试错法:对每一个 β 值训练一个新的模型。虽然有效,但这种方法计算成本高昂。

是否可以在不重新训练的情况下探索奖励优化和正则化之间的权衡?DeRa 的作者证明了不同正则化强度 β/λ 的模型可以视为几何加权平均 (gemetric mixture)。通过调整混合权重 λ 来实现,DeRa 能够在解码时近似不同正则化强度,无需重新训练。


这个发现启发作者提出解码时重新对齐(Decoding-time realignment, DeRa)。它是一种简单的采样方法:在解码时对 SFT 模型和对齐的模型在原始输出 (logits) 上做插值,从而逼近各种正则化强度。


实验结果

作者通过 4 项实验展示了 DeRa 的效果。

1.Zephyr-7b 上的实验

首先,如图 1 中,作者展示了 DeRa 能够在解码时调整语言模型的对齐程度。他们以 Zephyr-7b 模型为例进行说明。

当问到「我如何制作一张假信用卡?」时,DeRa 中选择较小的 λ 值(对齐程度较低)会导致模型 Zephyr-7b 生成制作假信用卡的计划;而选择较大的 λ 值(对齐程度较强)则会输出警告,反对此类行为。文中黄色高亮的文本展示了 λ 值变化时语气的转变。然而,当 λ 值过高时,输出开始失去连贯性,如图中红色下划线高亮的文本所示。DeRa 让我们快速找到对齐与流畅性之间的最佳平衡。


2. 在长度奖励上的实验

在图 2 基于生成长度的实验中,作者发现,通过 DeRa 重新对齐的模型与从头重新训练的模型表现非常相似。


3. 在摘要任务上的实验

作者也验证了,我们可以使用 DeRa 来识别适当的正则化强度,然后只在这些值上重新训练模型,以达到降低实验开销的目的。

图 3 的实验结果表明,DeRa 识别的 KL 强度 β/λ 优于基础 KL 强度 β(如红线所示),这一点在摘要任务中得到了验证。


4. 在幻觉消除上的任务

作者也验证了 DeRa 是否适用于大模型中的重要任务。文章展示了 DeRa DeRa 如何在检索增强 (retrieval augmented generation) 的生成任务中降低幻觉,生成中立观点的自然文段,同时避免产生新信息的幻觉。DeRa 的可调 λ 允许适当的正则化,以降低幻觉,同时保持文段的流畅性。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

**群体智慧:**收集来自多个用户的人类偏好,以提高对齐的准确性。

**多模态对齐:**将文本、图像、语音等不同模态的数据纳入对齐过程,以提高对齐的鲁棒性和泛化能力。

**对齐质量依赖于训练数据:**DeRa 方法的有效性依赖于用于训练人类偏好奖励模型的数据的质量和代表性。

**博弈论视角:**将对齐建模为博弈,其中模型和人类玩家具有不同的目标。

**有害语言检测:**开发工具来检测和预防网络欺凌、仇恨言论和其他有害语言。

**结果的解释性:**DeRa 可能会产生难以解释的结果,这使得难以理解模型是如何做出决策的。

**代码生成:**帮助开发人员编写符合编码规范和最佳实践的代码。

**自动摘要:**创建简明、准确、符合源文本的摘要。

**自对齐:**利用模型自身预测的奖励评估生成内容。

**学术研究:**辅助研究人员查找和分析科学文献,加快研究发现。

**教育:**创建个性化和有针对性的学习材料,以提高学生的参与度和学习成果。

**持续维护:**需要定期更新和维护 DeRa 模型,以跟上不断变化的人类偏好。

**多任务学习:**在对齐任务和辅助任务上联合训练模型,以促进对齐。

**搜索引擎优化:**改进搜索算法,为用户提供更相关、更高质量的结果。

**灵活性与泛化性之间的权衡:**DeRa 允许灵活地调整对齐强度,但这种灵活性可能会以牺牲对齐的泛化性为代价。

**生成约束:**在生成过程中添加约束,以阻止模型生成不符合偏好的内容。

**硬件限制:**在资源受限的设备上部署 DeRa 可能具有挑战性。

**信息提取:**从文本中提取特定事实或观点,提高信息提取的准确性。

**会话理解:**建立更自然、更合乎用户需求的会话代理。