原文标题:70倍极致压缩!大模型的检查点再多也不怕
原文作者:机器之心
冷月清谈:
- 大模型训练中存储检查点是必要但耗费巨大的。
- 华为诺亚提出ExCP方法,通过压缩检查点残差信息和权重-优化器联合压缩,实现无损压缩率达70%。
- 该方法不仅在语言模型上表现出色,在视觉模型上也取得了良好的效果。
- 代码已开源,地址:GitHub - Gaffey/ExCP: Official implementation of ICML 2024 paper "ExCP: Extreme LLM Checkpoint Compression via Weight-Momentum Joint Shrinking".
具体方法:
- 检查点残差压缩:利用检查点之间的梯度更新的稀疏性,压缩检查点残差信息。
- 权重-优化器动量联合压缩:将优化器中动量与权重结合压缩,提高总体压缩率。
- 非均匀量化和编码压缩:进一步降低压缩文件大小。
实验结果:
- 在大语言模型和ViT-L32视觉模型上均取得了显著的压缩效果,无损压缩率达70%。
- 消融实验表明,残差剪枝方法有效减少了剪枝损失。
- 压缩前后模型的问答能力保持良好。
怜星夜思:
2、ExCP方法与其他模型压缩技术相比,优势和劣势是什么?
3、ExCP方法在实际应用中有哪些潜在的挑战?
原文内容
AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected];[email protected]
-
文章地址:https://arxiv.org/abs/2406.11257
-
仓库地址:https://github.com/Gaffey/ExCP


© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]