简单聊一聊大模型微调技术-LoRA

简介: LoRA(Low-Rank Adaptation)是一种用于减少大模型微调中参数数量和计算资源的技术。通过引入低秩分解,LoRA 仅更新少量参数,从而显著降低显存消耗和计算需求。适用于大规模预训练模型的微调、跨领域迁移学习、低资源设备部署和多任务学习等场景。例如,在微调 BERT 模型时,LoRA 可以仅调整约 0.1% 的参数,保持与全量微调相近的性能。

简单聊一聊大模型微调技术-LoRA

B站:肆十二-的个人空间-肆十二-个人主页-哔哩哔哩视频 (bilibili.com)

博客:肆十二-CSDN博客

问答:(10 封私信 / 72 条消息) 肆十二 - 知乎 (zhihu.com)

LoRA(Low-Rank Adaptation)模型是一种用于减少深度学习模型训练中参数数量和计算资源消耗的技术。它最早是在多头注意力机制中提出的,尤其是用于大模型的微调(fine-tuning)。LoRA 的主要思想是通过引入低秩分解(low-rank decomposition),用少量参数来逼近和微调模型,从而避免直接调整整个大模型的权重。

LoRA的核心思想

LoRA 的主要贡献在于它减少了在微调大模型时需要更新的参数数量。传统的微调方法通常会更新整个模型的参数,这在处理大规模预训练模型(如 GPT-3、BERT)时非常耗费资源。LoRA 通过插入低秩矩阵到模型的某些权重矩阵中,仅更新这些低秩矩阵,而不修改原模型权重。

其基本流程如下:

  1. 假设大模型的某个权重矩阵为 ( W ),尺寸为 ( d \times d )
  2. 将这个权重矩阵表示为两个低秩矩阵的乘积 ( W + BA ),其中 ( B ) 和 ( A ) 的尺寸分别为 ( d \times r ) 和 ( r \times d ),而 ( r \ll d ),即低秩矩阵分解。
  3. 在微调过程中,保持 ( W ) 不变,只更新 ( B ) 和 ( A )。

这种方式极大地减少了需要训练的参数量,同时保持了微调的效果。

LoRA 的应用场景

LoRA 模型非常适合在以下场景中使用:

  1. 大规模预训练语言模型的微调

    • 在对像 GPT、BERT 这样的语言模型进行微调时,LoRA 可以通过更新低秩矩阵来减少需要调整的参数数量。这样可以显著降低显存消耗以及计算资源的需求,特别适合内存有限的环境。
    • 例如,微调 GPT-3 时,通过 LoRA 可以仅调整大约 0.1% 的参数,而保持和全量微调相近的性能。
  2. 跨领域迁移学习

    • 在某些跨领域任务中,比如从自然语言理解任务迁移到医学领域的文本分析,LoRA 可以快速适应新的领域数据,而不需要对整个预训练模型重新微调。
  3. 低资源设备上的部署

    • LoRA 使得在资源受限的设备(如手机、嵌入式设备)上部署大规模语言模型变得更容易,因为只需要存储和加载小规模的低秩矩阵,而不需要加载完整的模型权重。
  4. 多任务学习

    • 由于不同任务可能需要不同的微调参数,LoRA 可以在多任务学习场景下为每个任务引入独立的低秩矩阵,避免为每个任务训练独立的完整模型。

具体案例:微调BERT模型的LoRA

假设我们有一个预训练的 BERT 模型,并且我们想要使用它来完成情感分析任务。使用 LoRA 的步骤如下:

  1. 加载预训练的 BERT 模型。
  2. 确定要微调的权重矩阵,通常是注意力机制中的 Q、K、V 矩阵。
  3. 将这些矩阵分解为低秩矩阵,并插入到 BERT 模型中。
  4. 冻结原始的 BERT 模型参数,仅训练低秩矩阵。
  5. 用训练好的低秩矩阵进行推理。

代码示例(伪代码):

import torch
from transformers import BertModel

# 加载预训练的 BERT 模型
model = BertModel.from_pretrained('bert-base-uncased')

# 假设我们要对注意力中的权重进行 LoRA 微调
class LoRALayer(torch.nn.Module):
    def __init__(self, original_layer, r=4):
        super().__init__()
        self.original_layer = original_layer
        d = original_layer.weight.size(0)  # 获取原始层的维度
        self.A = torch.nn.Parameter(torch.randn(d, r))  # A 矩阵
        self.B = torch.nn.Parameter(torch.randn(r, d))  # B 矩阵

    def forward(self, x):
        return self.original_layer(x) + x @ self.A @ self.B  # LoRA 变换

# 为 BERT 模型中的特定层引入 LoRA
for name, param in model.named_parameters():
    if 'attention' in name:  # 例如对注意力部分微调
        param.requires_grad = False  # 冻结原始模型的参数
        # 插入 LoRA 层
        model._modules[name] = LoRALayer(model._modules[name])

# 然后继续进行训练,只调整 LoRA 层的参数

LoRA 的优势

  1. 大幅减少参数量:相比于传统的微调方法,LoRA 可以只更新 1% 甚至更少的参数,显著降低了模型的训练开销。
  2. 保持模型能力:虽然更新的参数较少,但通过低秩分解,模型在下游任务中的性能与全量微调相差不大。
  3. 灵活性高:LoRA 可以适用于几乎所有的 Transformer 架构,非常灵活。

总结来说,LoRA 提供了一种有效且计算成本较低的方式来微调大模型,特别适合于大模型的扩展应用,比如在低资源环境下部署或快速适应新的任务和领域。

目录
相关文章
|
7月前
|
文字识别 前端开发
CodeFuse-VLM 开源,支持多模态多任务预训练/微调
随着huggingface开源社区的不断更新,会有更多的vision encoder 和 LLM 底座发布,这些vision encoder 和 LLM底座都有各自的强项,例如 code-llama 适合生成代码类任务,但是不适合生成中文类的任务,因此用户常常需要根据vision encoder和LLM的特长来搭建自己的多模态大语言模型。针对多模态大语言模型种类繁多的落地场景,我们搭建了CodeFuse-VLM 框架,支持多种视觉模型和语言大模型,使得MFT-VLM可以适应不同种类的任务。
755 0
|
7月前
|
自然语言处理 物联网 异构计算
比LoRA还快50%的微调方法来了!一张3090性能超越全参调优,UIUC联合LMFlow团队提出LISA
【4月更文挑战第3天】伊利诺伊大学香槟分校和LMFlow团队推出LISA,一种新型微调技术,用于解决大型语言模型的内存消耗问题。LISA基于层重要性采样,随机冻结中间层,降低内存使用,同时提供比LoRA更快的训练速度和更高性能。实验显示,LISA在相似或更低的GPU内存消耗下,超越LoRA和全参数调优。该方法提高了资源受限环境下的微调效率,有望成为LoRA的有效替代,但仍然面临内存限制和随机性影响的问题。
208 4
比LoRA还快50%的微调方法来了!一张3090性能超越全参调优,UIUC联合LMFlow团队提出LISA
|
2月前
|
机器学习/深度学习 弹性计算 人工智能
大模型进阶微调篇(三):微调GPT2大模型实战
本文详细介绍了如何在普通个人电脑上微调GPT2大模型,包括环境配置、代码实现和技术要点。通过合理设置训练参数和优化代码,即使在无独显的设备上也能完成微调,耗时约14小时。文章还涵盖了GPT-2的简介、数据集处理、自定义进度条回调等内容,适合初学者参考。
462 6
|
2月前
|
机器学习/深度学习 人工智能 算法
[大语言模型-算法优化] 微调技术-LoRA算法原理及优化应用详解
[大语言模型-算法优化] 微调技术-LoRA算法原理及优化应用详解
120 0
[大语言模型-算法优化] 微调技术-LoRA算法原理及优化应用详解
|
3月前
|
存储 人工智能 物联网
LoRA大模型微调的利器
LoRA模型是小型的Stable Diffusion模型,它们对checkpoint模型进行微小的调整。它们的体积通常是检查点模型的10到100分之一。因为体积小,效果好,所以lora模型的使用程度比较高。
LoRA大模型微调的利器
|
2月前
|
机器学习/深度学习 人工智能 算法
人工智能-大语言模型-微调技术-LoRA及背后原理简介
人工智能-大语言模型-微调技术-LoRA及背后原理简介
66 0
|
4月前
|
机器学习/深度学习 数据采集 物联网
【机器学习】Google开源大模型Gemma2:原理、微调训练及推理部署实战
【机器学习】Google开源大模型Gemma2:原理、微调训练及推理部署实战
166 0
|
7月前
|
并行计算 算法 物联网
LLM 大模型学习必知必会系列(七):掌握分布式训练与LoRA/LISA微调:打造高性能大模型的秘诀进阶实战指南
LLM 大模型学习必知必会系列(七):掌握分布式训练与LoRA/LISA微调:打造高性能大模型的秘诀进阶实战指南
LLM 大模型学习必知必会系列(七):掌握分布式训练与LoRA/LISA微调:打造高性能大模型的秘诀进阶实战指南
|
7月前
微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
研究表明,大型语言模型通过微调获取新知识可能引发幻觉,降低性能,尤其是当处理未知事实时。模型倾向于利用已有知识而非真正学习新知识。已知事实能提升性能,而未知事实则在后期微调中损害性能。使用“我不知道”来标记未知知识可减轻负面影响。最佳结果来自处理可能已知的事实,而非极其知名的事实。微调对模型知识的更新存在风险,需谨慎处理新旧知识的融合问题。建议使用RAG和策略来克服微调限制。[阅读完整论文以了解更多](https://avoid.overfit.cn/post/21daac41f99042be804b381a6a9700fb)。
108 3
|
7月前
|
人工智能 Python
LLM 大模型学习必知必会系列(八):10分钟微调专属于自己的大模型
LLM 大模型学习必知必会系列(八):10分钟微调专属于自己的大模型

热门文章

最新文章