KDD 2025:大语言模型与小型推荐模型在设备-云推荐中的协同应用

KDD 2025提出LSC4Rec框架,结合大语言模型和小型推荐模型优势,实现设备-云协同推荐,提升推荐效率和准确性。

原文标题:【KDD2025】大语言模型与小型推荐模型在设备-云推荐中的协同

原文作者:数据派THU

冷月清谈:

本文介绍了一种设备-云协同的LLM-SRM推荐框架(LSC4Rec),旨在结合大语言模型(LLM)和小型推荐模型(SRM)的优势,并利用云计算和边缘计算的优势,以弥补LLM4Rec在实际应用中的不足。LSC4Rec主要通过三种策略实现协同:
1. 协同训练:LLM生成候选列表以增强SRM的排名能力,并使SRM能够自适应地更新以捕捉实时用户兴趣。
2. 协同推理:LLM在云端生成候选列表和初始排序结果,SRM在设备上基于候选列表进行重新排序,并结合LLM和SRM的得分得出最终结果。
3. 智能请求:设备通过比较LLM和SRM的排序列表一致性来决定是否需要更新候选列表。
实验结果验证了LSC4Rec中每个策略的有效性。

怜星夜思:

1、除了文中提到的三种策略,还有哪些方法可以进一步提升 LSC4Rec 框架的性能?
2、LLM 和 SRM 的协同工作模式,未来可能会在哪些推荐场景中发挥更大的作用?
3、文章中提到的设备-云协同框架,在实际部署过程中可能会面临哪些挑战?

原文内容

来源:专知
本文约1000字,建议阅读5分钟
我们的综合性和广泛的实验分析验证了LSC4Rec中每个策略的有效性。


大语言模型(LLMs)在推荐系统中的应用(LLM4Rec) 是一个前景广阔的研究方向,已在该领域展现出卓越的性能。然而,LLM4Rec在实际应用中的局限性主要来自其无法捕捉实时用户偏好,原因有以下几点:(i)LLM训练和推理的成本高,频繁进行训练和推理会导致较大的开销;(ii)LLM难以访问实时数据(其庞大的参数量使得部署在设备上变得困难)。幸运的是,小型推荐模型(SRM)能够有效地补充LLM4Rec的不足,借助较少的资源进行频繁的训练和推理,并能够便捷地访问设备上的实时数据。

基于此,我们设计了设备-云协同LLM-SRM推荐框架(LSC4Rec),该框架在设备-云协作环境下运行。LSC4Rec旨在整合LLM和SRM的优势,以及云计算和边缘计算的好处,从而实现互补的协同效应。为了增强LSC4Rec的实用性,我们设计了三种策略:协同训练、协同推理和智能请求。

在训练阶段,LLM生成候选列表以增强SRM在协同场景中的排名能力,并使SRM能够自适应地更新,以捕捉实时的用户兴趣。在推理阶段,LLM和SRM分别部署在云端和设备上。LLM根据用户行为生成候选列表和初始排序结果,SRM则基于候选列表进行重新排序,并通过结合LLM和SRM的得分得出最终结果。设备通过比较LLM和SRM的排序列表一致性来决定是否需要更新候选列表。

我们的综合性和广泛的实验分析验证了LSC4Rec中每个策略的有效性。



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。




新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU


关于“文章中提到的设备-云协同框架,在实际部署过程中可能会面临哪些挑战?”这个问题,我觉得一个很大的挑战是数据同步和一致性问题。如何在设备和云端之间高效地同步数据,保证数据的一致性,是一个需要认真考虑的问题。

我觉得在对实时性要求比较高的场景,例如新闻推荐、短视频推荐等,这种协同工作模式会有很大的优势。因为 SRM 可以快速响应用户的实时行为变化,而 LLM 可以提供更全面的背景信息。

对于“文章中提到的设备-云协同框架,在实际部署过程中可能会面临哪些挑战?”这个问题,我觉得还有一个挑战是用户隐私保护。如何在设备和云端之间传输和处理用户数据时,有效地保护用户隐私,是一个需要重点关注的问题。

我觉得在个性化推荐方面,例如电商商品推荐、音乐推荐等,这种协同模式也能发挥重要作用,LLM 可以捕捉用户的长期兴趣,而 SRM 可以捕捉用户的短期偏好,两者结合可以提供更精准的个性化推荐。

从技术角度来说,可以尝试更高级的模型融合方法,例如 stacking 或 blending,而不是简单的线性组合 LLM 和 SRM 的得分。这样可以更好地利用两个模型的信息,提升整体性能。

针对“文章中提到的设备-云协同框架,在实际部署过程中可能会面临哪些挑战?”这个问题,我认为设备端的计算资源和功耗限制也是一个挑战。如何在有限的资源和功耗下,保证 SRM 的高效运行,需要进行深入的优化。

个人认为,在资源受限的设备上,比如智能手表、智能家居等,这种协同模式的前景非常广阔。LLM 负责在云端进行复杂的计算,SRM 则在设备端进行轻量级的处理,这样既能保证推荐效果,又能节省设备资源。

可以探索引入强化学习,让模型在与用户交互的过程中不断学习和优化,从而提高推荐的精准度。想想就像打游戏一样,模型根据用户的反馈不断调整策略,最终达到最佳推荐效果。

我觉得可以考虑结合用户反馈,例如用户点击、停留时间等,来动态调整 LLM 和 SRM 的权重,让推荐结果更贴近用户实时兴趣。