提出一种无需验证数据的LLM温度参数自动优化方法,基于熵的度量方法和随机过程建模,提升模型性能和可解释性。
原文标题:【ICML2025】利用多样本推理优化语言模型的温度参数
原文作者:数据派THU
冷月清谈:
怜星夜思:
2、文章中提到的'熵'作为一种度量方法来优化温度参数,大家觉得还有哪些信息论相关的概念可以应用到LLM的优化中?
3、文章提出了一种随机过程建模方法,提升温度调节过程的可解释性。那么如何理解这种可解释性?可解释性对于LLM的应用有什么实际意义?
原文内容
来源:专知本文约1000字,建议阅读5分钟本文旨在解决在无需任务特定验证数据的前提下,使用多样本聚合策略为不同LLMs自动寻找(近)最优温度的问题。
多样本聚合策略(multi-sample aggregation strategies),如多数投票(majority voting)和 Best-of-N 采样,已被广泛应用于当代大型语言模型(Large Language Models,LLMs)中,以提升在各类任务中的预测准确性。在此过程中,一个关键挑战是温度参数的选择,该参数对模型性能有显著影响。现有方法通常依赖固定的默认温度,或需使用带标签的验证数据进行调参,而这类数据在实际中往往稀缺且难以获取。
本文旨在解决在无需任务特定验证数据的前提下,使用多样本聚合策略为不同LLMs自动寻找(近)最优温度的问题。我们对温度在性能优化中的作用进行了系统分析,涵盖模型架构、数据集、任务类型、模型规模与预测准确性等多种变量。
此外,我们提出了一种基于熵的全新度量方法,用于自动优化温度参数,在多个实验中其表现持续优于固定温度的基线方法。我们还引入了一种随机过程建模方法,提升了温度调节过程的可解释性,帮助深入理解温度与模型性能之间的关系。



