大模型微调新选择:LoRA、QLoRA、DoRA 原理与应用

探索LoRA、QLoRA、DoRA三种PEFT方法,解决大模型微调成本高、耗显存难题,助力普通人也能高效微调大模型。

原文标题:不用顶配 GPU!普通人也能上手的大模型微调技巧(附代码)

原文作者:数据派THU

冷月清谈:

本文深入探讨了三种参数高效微调(PEFT)方法:LoRA、QLoRA 和 DoRA,旨在解决大模型微调过程中遇到的高成本和显存消耗问题。LoRA 通过引入低秩矩阵来减少训练参数,QLoRA 在 LoRA 的基础上进行量化,进一步降低显存需求,而 DoRA 则通过解耦权重矩阵的幅度和方向分量来提升微调精度。文章详细介绍了这三种方法的原理、代码实现以及基准测试结果,并分析了它们各自的优缺点和适用场景,为研究者和开发者提供了选择 PEFT 方案的实用指导。

怜星夜思:

1、LoRA虽然减少了训练参数,但微调效果似乎还是不如全量微调。有没有什么办法可以进一步提升LoRA的微调效果,让它更接近全量微调的性能?
2、QLoRA通过量化降低了显存需求,但量化本身可能会带来精度损失。那么,在实际应用中,我们应该如何权衡量化带来的显存节省和精度损失呢?有没有什么指标可以帮助我们做出判断?
3、DoRA声称在复杂推理任务上表现优于LoRA,但实验数据主要集中在常识推理数据集上。那么,DoRA在其他类型的复杂推理任务(例如,数学推理、代码生成)上的表现如何?是否也同样优于LoRA?

原文内容

图片
来源:DeepHub IMBA
本文约3800字,建议阅读8分钟
本文介绍了 LoRA、QLoRA、DoRA 三种 PEFT 方法,解决大模型微调成本高、耗显存问题。


LLaMA、Mistral、Qwen这些大语言模型动辄数十亿参数,在自定义数据上全量微调代价极高:65B 模型光是 float16 就要消耗掉约 130GB 显存,顶配硬件跑个几天几周很正常而多数下游任务根本用不到那么多参数。


于是研究者们开始思考:能不能只调一小部分参数,效果还不差?答案是可以。这类方法统称为参数高效微调(PEFT)。LoRA、QLoRA、DoRA 各自从不同角度切入这个问题。



LoRA——低秩自适应


论文:LoRA: Low-Rank Adaptation of Large Language Models, Hu et al. (ICLR 2022)


核心思想

LoRA 的做法很简单,冻结原始权重矩阵 W在旁边挂两个小的可训练矩阵 A 和 B。前向传播时的计算表达式为:


 output = W·x + (B·A)·x × (alpha/r)


训练过程中只更新 A 和 B,W 保持不动。这里的秩 r 是分解的瓶颈维度常见取值 4、8 或 16。alpha 是缩放因子控制 LoRA 更新的强度。


参数量的减少非常明显以一个 (4096, 4096) 的权重矩阵为例,原始参数量是 1670 万换成 rank=8 的 LoRA 之后,A 的维度 (8, 4096) 有 32,768 个参数,B 的维度 (4096, 8) 同样 32,768 个,加起来总共 65,536——比原来少了 99.6%。


LoRA 论文中一个关键发现是,微调过程中大部分有意义的权重更新本来就集中在低维子空间里,所以把更新约束在低秩矩阵上并不会造成多大损失。


微软官方仓库中 Linear 层的实现:


 # Source: github.com/microsoft/LoRA — loralib/layers.py 
 
 class Linear(nn.Linear, LoRALayer):  
     def __init__(  
         self,  
         in_features: int,  
         out_features: int,  
         r: int = 0,  
         lora_alpha: int = 1,  
         lora_dropout: float = 0.,  
         merge_weights: bool = True,  
         **kwargs  
     ):  
         nn.Linear.__init__(self, in_features, out_features, **kwargs)  
         LoRALayer.__init__(self, r=r, lora_alpha=lora_alpha,  
                            lora_dropout=lora_dropout,  
                            merge_weights=merge_weights)  
         if r > 0:  
             self.lora_A = nn.Parameter(  
                 self.weight.new_zeros((r, in_features))  
             )  
             self.lora_B = nn.Parameter(  
                 self.weight.new_zeros((out_features, r))  
             )  
             self.scaling = self.lora_alpha / self.r  
             # Freeze the pretrained weights  
             self.weight.requires_grad = False  
   
     def forward(self, x: torch.Tensor):  
         if self.r > 0 and not self.merged:  
             # Original frozen weights + low-rank update  
             result = F.linear(x, self.weight, bias=self.bias)  
             result += (  
                 self.lora_dropout(x)  
                 @ self.lora_A.transpose(0, 1)  
                 @ self.lora_B.transpose(0, 1)  
             ) * self.scaling  
             return result  
         else:  
             return F.linear(x, self.weight, bias=self.bias)


实际用于替换注意力投影的写法:


 # Source: github.com/microsoft/LoRA — README [1]  
 import loralib as lora  
   
 # Before: standard attention projection  
 # qkv_proj = nn.Linear(d_model, 3*d_model)  
   
 # After: apply LoRA to Q and V, freeze K  
 qkv_proj = lora.MergedLinear(  
     d_model, 3*d_model,  
     r=8,  
     enable_lora=[True, False, True]  # Q=LoRA, K=frozen, V=LoRA  
 )  
   
 # Mark only LoRA parameters as trainable  
 lora.mark_only_lora_as_trainable(model)


基准测试结果(来自 LoRA 论文 )

论文在 GPT-2(自然语言生成)和 RoBERTa/DeBERTa(GLUE 基准)上做了评测。下面是 GPT-2 在 E2E NLG Challenge 上的成绩,LoRA 与全量微调及其他 PEFT 方法的对比:


 | Method            | Trainable Params | BLEU | NIST | MET  | ROUGE-L | CIDEr |  
 |-------------------|-----------------|------|------|------|----------|-------|  
 | Full Fine-Tuning  | 117M            | 68.2 | 8.62 | 46.2 | 71.0     | 2.47  |  
 | Adapter (Houlsby) | 1.0M            | 66.3 | 8.41 | 45.0 | 69.8     | 2.40  |  
 | Prefix Tuning     | 0.35M           | 68.1 | 8.59 | 46.3 | 70.8     | 2.47  |  
 | LoRA (r=4)        | 0.77M           | 70.4 | 8.85 | 46.8 | 71.8     | 2.53  |


LoRA 不只是持平全量微调而是在训练不到 1% 参数的情况下反超了。论文把原因归结于正则化效应:低秩约束本身起到了防止过拟合的作用。


关键超参数

秩 r 定义瓶颈维度,4 到 16 的范围能覆盖绝大多数场景,r 越大容量越高、参数也越多。Alpha(lora_alpha)是缩放因子,LoRA 更新的有效学习率等于 alpha/r一般设 alpha=2r 是不错的起点。Target Modules 决定 LoRA 挂载到哪些层,注意力中的 q_proj 和 v_proj 是最常见的选择。


QLoRA——量化 LoRA


论文:QLoRA: Efficient Finetuning of Quantized LLMs, Dettmers et al. (NeurIPS 2023) 


LoRA 没彻底解决的问题

LoRA 虽然减少了可训练参数,但基础模型还是得完整加载。65B 模型 float16 要 130GB 显存通常得上多块 A100,大部分研究者手里没这个条件。


QLoRA 先把基础模型量化成 4 位再在上面以 16 位跑 LoRA 适配器。


三大技术创新(来自 QLoRA 论文 )

QLoRA 论文同时引入了三项相互配合的技术。


第一项是 NF4(4-bit NormalFloat)一种专门针对正态分布权重设计的 4 位数据类型。神经网络权重天然服从正态分布NF4 从信息论角度是最优的编码方式,存储效率上比 INT4 和 FP4 都要高出一截。


第二项是双重量化,量化常数(把 4 位值转换回浮点时用的常数)本身也占内存,QLoRA 干脆把量化常数也给量化了,65B 模型上约省 3GB 内存。


第三项针对梯度检查点带来的内存峰值,QLoRA 利用 NVIDIA 统一内存机制,当某条序列在 GPU 上触发 OOM 风险时,自动把优化器状态卸载到 CPU RAM等需要时再换回来。


代码(来自 artidoro/qlora)

 # Source: github.com/artidoro/qlora — qlora.py [2]  
 from transformers import AutoModelForCausalLM, BitsAndBytesConfig  
 from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training  
 import torch  
   
 # Step 1: Define 4-bit quantization config (NF4)  
 bnb_config = BitsAndBytesConfig(  
     load_in_4bit=True,  
     bnb_4bit_quant_type="nf4",          # NormalFloat4  
     bnb_4bit_compute_dtype=torch.bfloat16,  # Compute in bf16  
     bnb_4bit_use_double_quant=True,     # Double quantization  
 )  
   
 # Step 2: Load base model in 4-bit  
 model = AutoModelForCausalLM.from_pretrained(  
     "meta-llama/Llama-2-7b-hf",  
     quantization_config=bnb_config,  
     device_map="auto",  
 )  
   
 # Step 3: Prepare for k-bit training (handles frozen layer casting)  
 model = prepare_model_for_kbit_training(model)  
   
 # Step 4: Apply LoRA adapters in 16-bit on top  
 lora_config = LoraConfig(  
     r=64,  
     lora_alpha=16,  
     target_modules=["q_proj", "v_proj"],  
     lora_dropout=0.05,  
     bias="none",  
     task_type="CAUSAL_LM",  
 )  
 model = get_peft_model(model, lora_config)


整个过程中基础模型权重始终保持 NF4(4 位、冻结状态)只有 LoRA 适配器权重以 bf16 精度参与训练。


基准测试结果(来自 QLoRA 论文 )

QLoRA 训练出了 Guanaco 系列模型。在 GPT-4 评估的 Vicuna 基准测试中,Guanaco 65B 用单块 48GB GPU 训练了 24 小时,就达到了 ChatGPT 性能的 99.3%。


更关键的一点是4 位量化相比 16 位 LoRA 几乎没有性能损失:


 | Method               | Model | Memory Usage | Vicuna Score vs ChatGPT |  
 |----------------------|-------|--------------|--------------------------|  
 | Full Fine-Tuning (fp16) | 65B   | >780 GB      | —                        |  
 | LoRA (fp16)          | 65B   | ~130 GB     | —                        |  
 | QLoRA (NF4)          | 65B   | ~48 GB      | 99.3%                    |  
 | QLoRA (NF4)          | 33B   | ~24 GB      | 97.8%                    |  
 | QLoRA (NF4)          | 7B    | ~5 GB       | ~87%                     |


7B Guanaco 模型只占 5GB 显存在 Vicuna 基准上却以超过 20 个百分点的差距碾压了 Alpaca 65B。这才是 QLoRA 真正革命性的地方:拿一块普通 GPU 就能微调大规模语言模型门槛一下子降到了底。


DoRA——权重分解低秩自适应


论文:DoRA: Weight-Decomposed Low-Rank Adaptation, Liu et al. (ICML 2024, Oral) 


LoRA 表现不错但和全量微调之间始终有一道精度差距,当秩取值较低时这个差距尤为明显——LoRA 没法完整复现全参数更新时的梯度学习行为。


问题出在哪?DoRA 论文提出了一种权重分解分析来回答这个问题。


核心洞察

任何权重矩阵 W 都可以拆成两个分量:


 W = m × (V / ||V||_c)


其中 m 是幅度分量,这个标量向量反映每个输出神经元权重的"大小";V / ||V||_c 是方向分量,即权重的单位方向向量。


DoRA 论文发现,全量微调时幅度和方向是以灵活、耦合的方式同步更新的。但 LoRA 的更新方式把两者绑在一起,主要只改变了方向上的朝向反而限制了模型的学习能力。


DoRA 的做法是把两者拆开:冻结分解结构后,只让 LoRA 作用于方向分量,同时把幅度 m 当作独立的可学习标量自由更新。


 W' = (m + Δm) × ((V + ΔV_LoRA) / ||V + ΔV_LoRA||_c)


这样一来 LoRA 的学习模式就更接近全量微调了。并且由于幅度和方向在部署前可以合并回单个权重矩阵,推理阶段零额外开销。


代码(来自 NVlabs/DoRA )

DoRA 的前向传播逻辑,简化后展示核心分解机制:


# Source: github.com/NVlabs/DoRA — adapted from DoRA paper implementation [3]  
import torch  
import torch.nn as nn  
import torch.nn.functional as F  
class DoRALayer(nn.Module):  
    def __init__(self, d_in, d_out, rank, lora_alpha):  
        super().__init__()  
        # Frozen pretrained weight  
        self.weight = nn.Parameter(  
            torch.randn(d_out, d_in), requires_grad=False  
        )  
        # Learnable magnitude (one scalar per output neuron)  
        self.m = nn.Parameter(  
            self.weight.norm(p=2, dim=1, keepdim=True)  
        )  
        # LoRA matrices for directional updates (trainable)  
        std = 1 / torch.sqrt(torch.tensor(rank).float())  
        self.lora_A = nn.Parameter(torch.randn(d_in, rank) * std)  
        self.lora_B = nn.Parameter(torch.zeros(rank, d_out))  
        self.rank = rank  
        self.scaling = lora_alpha / rank  
    def forward(self, x):  
        # Compute the directional update from LoRA  
        lora_update = (self.lora_A @ self.lora_B).T * self.scaling  
        # Adapted weight = base weight + LoRA update  
        adapted = self.weight + lora_update  
        # Column-wise normalization → unit direction vectors  
        column_norms = adapted.norm(p=2, dim=1, keepdim=True)  
        V_normalized = adapted / column_norms  
        # Scale by learned magnitude  
        effective_weight = self.m * V_normalized  
        return F.linear(x, effective_weight)


通过 HuggingFace PEFT 启用 DoRA(peft>=0.9.0 已支持 ):


# Source: HuggingFace PEFT documentation — DoRA is supported from peft>=0.9.0 [3]  
from peft import LoraConfig, get_peft_model  
lora_config = LoraConfig(  
    r=16,  
    lora_alpha=32,  
    target_modules=["q_proj", "v_proj"],  
    lora_dropout=0.05,  
    bias="none",  
    task_type="CAUSAL_LM",  
    use_dora=True,   # ← This single flag enables DoRA  
)  
model = get_peft_model(model, lora_config)


就一个标志位这是和 LoRA 配置的唯一区别。


基准测试结果(来自 DoRA 论文 [3])

DoRA 论文在 8 个常识推理数据集(BoolQ、PIQA、HellaSwag、WinoGrande、ARC-e、ARC-c、OBQA 及综合平均)上做了评测,在 LLaMA-7B 和 LLaMA2-7B 两个模型上与 LoRA 对比,秩相同、可训练参数量相同,确保公平:


| Method        | BoolQ | PIQA | HellaSwag | WinoGrande | ARC-e | ARC-c | OBQA | Avg   |  
|--------------|-------|------|-----------|------------|-------|-------|------|-------|  
| Full FT      | 69.4  | 82.3 | 89.7      | 82.4       | 79.8  | 60.7  | 81.6 | 77.99 |  
| LoRA (r=32)  | 68.9  | 80.9 | 90.0      | 82.1       | 78.2  | 59.8  | 80.0 | 77.13 |  
| DoRA (r=32)  | 70.0  | 83.6 | 91.0      | 83.0       | 81.4  | 65.8  | 83.4 | 79.75 |


8 个数据集上 DoRA 全面胜出。差距在复杂推理任务上尤其明显比如 ARC-c 从 LoRA 的 59.8 跳到 65.8,幅度相当大。论文还跑了 LLaVA-1.5-7B 的视觉指令调优和 VL-BART 的图像/视频-文本理解实验,DoRA 同样全面压过 LoRA。


对比


内存需求

| Method                  | LLaMA 7B | LLaMA 13B | LLaMA 33B | LLaMA 65B |  
|-------------------------|----------|-----------|-----------|-----------|  
| Full Fine-Tuning (fp16) | ~28 GB   | ~52 GB    | ~130 GB   | ~260 GB   |  
| LoRA (fp16)             | ~14 GB   | ~26 GB    | ~65 GB    | ~130 GB   |  
| QLoRA (NF4)             | ~5 GB    | ~8 GB     | ~20 GB    | ~48 GB    |  
| DoRA (fp16)             | ~14 GB   | ~26 GB    | ~65 GB    | ~130 GB   |


DoRA 因为多了一个幅度向量(每个目标层的每个输出神经元一个标量),会有少量额外开销但实际可以忽略。


与全量微调的性能对比

| Method            | Commonsense Reasoning | Instruction Tuning     | Memory     |  
|-------------------|-----------------------|------------------------|------------|  
| Full Fine-Tuning  | Baseline              | Baseline               | Very High  |  
| LoRA              | -0.86 avg             | Comparable             | Medium     |  
| QLoRA             | ~Same as LoRA         | 99.3% of ChatGPT       | Low        |  
| DoRA              | +2.62 avg over LoRA   | Better than LoRA       | Medium     |


训练速度(相对值)

 | Method | Speed                                   |  
 |--------|------------------------------------------|  
 | LoRA   | Fast                                     |  
 | DoRA   | Fast (near identical to LoRA)            |  
 | QLoRA  | Moderate (quantize/dequantize overhead)  |


各场景下的最佳选择


该用 LoRA 的场景


显存 16GB 以上,模型不超过 13B 左右想要一个稳定可靠、经过实战验证的方案。所有后续方法都建立在 LoRA 之上,HuggingFace 的 PEFT 生态围绕它搭建,工具链最成熟。没做过 PEFT 的人从这里入手最省心。


该用 QLoRA 的场景


显存小但又想跑 30B 以上的大模型。QLoRA 让单块 48GB GPU 微调 LLaMA-65B 成为现实,24GB 显存就能跑 LLaMA-33B。用免费 Colab T4(15GB 显存)想动 20B+ 模型的话,QLoRA 基本是唯一可行方案。


该用 DoRA 的场景


在跟 LoRA 一样的参数预算下追求最高精度,DoRA 是 LoRA 的即插即用替代品配置里加个 use_dora=True 就行推理零成本,并且在复杂推理任务上提升尤为突出。


该用 QLoRA + DoRA(QDoRA)的场景


既要省显存又要高精度这种组合已获官方支持,实验数据证明效果优于单纯的 QLoRA。部分早期实验甚至表明 QDoRA 能持平乃至超过全量微调。


总结


2025 年的微调生态分三层:LoRA 是底座,简单、快、生态好,多数场景够用;QLoRA 打开了消费级显卡微调大模型的大门精度还没怎么掉;DoRA 则是免费升级——跟 LoRA 成本一样但结果更好,use_dora=True 一行代码就能搞定。


三种方法各有分工,互为补充,你唯一需要考虑的是哪种 PEFT 方案最贴合自己的硬件条件和精度要求。


by Harish K


编辑:于腾凯
校对:林亦霖



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。




新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU

这个问题问得好!除了QLoRA的量化思路,还可以考虑模型蒸馏(Model Distillation),将大模型的知识迁移到小模型上,这样微调的成本自然就下来了。另外,一些混合精度训练方法,比如将部分层设置为较低精度,也能在一定程度上缓解显存压力。当然,最直接的还是优化代码,减少不必要的内存占用。

别忘了AutoML!未来的PEFT可能会更加自动化,通过算法自动选择最佳的PEFT方法和超参数。这样一来,普通用户也能轻松上手大模型微调。

除了组合现有方法,我认为还可以探索新的PEFT技术,例如动态调整LoRA秩、引入attention bias等。关键是要深入理解大模型的内部机制,找到更有效的参数更新方式。

楼上说得对,NF4 本质上是一种非均匀量化。它在正态分布的峰值附近分配更多的量化级别,而在尾部则分配较少的量化级别。这样做的好处是可以更精确地表示那些出现频率较高的权重值,从而减少整体的量化误差。而且双重量化进一步降低了量化引入的额外内存开销,这些优化结合起来,就使得 QLoRA 在保证性能的同时,实现了极高的压缩率。

解耦幅度和方向的更新,我认为关键在于避免了 LoRA 对权重更新的过度约束。LoRA 强制幅度和方向同步更新,可能导致模型陷入局部最优解。而 DoRA 允许幅度和方向独立变化,提供了更大的灵活性,使得模型能够更好地探索参数空间,找到更优的解。这种解耦的思想在很多领域都有应用,比如信号处理中的幅度和相位解调。

文章里提到,LoRA 论文作者认为是“正则化效应”。相当于给模型加了一个约束,防止过拟合。我觉得这个解释挺合理的,毕竟大模型参数太多,容易记住训练集,泛化能力反而下降。低秩约束就好像给模型戴了个镣铐,让它跳舞的时候不那么随意,反而跳得更好看了。

NF4 的优势在于更好地匹配了神经网络权重的分布特性。INT4 和 FP4 通常采用均匀量化,而 NF4 针对正态分布进行了优化,使得量化误差更小,信息损失更少。你可以想象一下,把一个圆形的东西硬塞进方形的盒子里,肯定会留有空隙,而如果盒子也是圆形的,那贴合度自然更高。