LoRA、全参、QLoRA:显存占用结构对比

简介: 本文深入剖析大模型微调中显存占用的本质,指出LoRA、全参、QLoRA的差异不在参数量,而在“哪些组件必须常驻显存”。系统拆解显存四大构成:参数、梯度、优化器状态、中间激活,揭示三者各自保留/舍弃/压缩的部分,并强调:**激活(activations)才是OOM主因,而所有方案对此几乎无改善**。破除“换方案即省显存”误区,推动显存问题工程化诊断。

为什么大家都在“省显存”,却越来越说不清显存去哪了

在大模型微调项目里,几乎所有团队都会走到同一个阶段:

  • 显存开始吃紧
  • batch size 一减再减
  • sequence length 不敢动
  • 然后开始讨论:

“要不要换 LoRA / QLoRA?”

但非常诡异的一点是:

  • 换了方案
  • 显存确实降了一点
  • OOM 还是会来
  • 而且很难解释“为什么这次又不行了”

你会发现,讨论显存时,大家常常在说:

  • “这个方案省显存”
  • “那个方案显存占用低”

但很少有人真正说清楚:

它到底省的是哪一部分显存,
又留下了哪一部分不动。

而这,正是这篇文章要解决的问题。

先给一个非常重要的结论(一定要先看)

在正式对比之前,我先把这篇文章最重要的一句话写出来:

LoRA、全参、QLoRA 的显存差异,
不在“模型大小”,
而在“哪些东西必须常驻显存”。

如果你只是盯着参数量,
那你永远都会算错显存。

第一层:显存到底由哪几部分构成(先统一账本)

在任何一种微调方案里,显存大致可以拆成四块:

1. 模型参数(parameters)
2. 梯度(gradients)
3. 优化器状态(optimizer states)
4. 中间激活(activations)

注意一个关键事实:

不是所有方案,
都会同时保留这四样东西。

而 LoRA、全参、QLoRA 的区别,
正是体现在:
哪一块在、哪一块不在、哪一块被压缩。

21.png

显存四大构成模块

第二层:全参微调 —— 显存结构最“老实”的方案

我们先从最容易理解、但最吃显存的方案说起。

全参微调,显存里有什么?

在全参微调中:

  • 所有模型参数:在
  • 所有参数的梯度:在
  • 所有优化器状态(Adam 的 m / v):在
  • 所有中间激活:在

也就是说:

四大块,一块不少。

如果用一句话总结:

全参微调的显存结构,是“完整模型世界”。

为什么全参显存这么贵?

因为参数不仅要存一次,还要:

  • 再存一份梯度
  • 再存两份优化器状态

粗略估算(以 Adam 为例):

参数:1x
梯度:1x
优化器状态:2x
----------------
≈ 4x 参数规模

还没算 activation。

所以你看到的并不是:

“模型 7B,占 7B 显存”

而是:

“7B 模型,训练时可能占几十 GB 显存”

22.png

全参微调显存堆叠结构

第三层:LoRA —— 省掉的是“谁的梯度”

很多人对 LoRA 的第一印象是:

“LoRA 参数少,所以省显存。”

这句话只对了一半

真正准确的说法是:

LoRA 省显存,
是因为它不再为 base model 的参数保存梯度和优化器状态。

LoRA 微调时,显存里有什么?

在 LoRA 中:

  • base model 参数:在(冻结)
  • base model 梯度:不在
  • base model 优化器状态:不在

而新增的 LoRA 参数:

  • 参数:在
  • 梯度:在
  • 优化器状态:在

activation 呢?

完全一样,一点没省。

这是很多人第一次踩坑的地方。

第四层:LoRA 为什么“省得不彻底”

你可能会遇到一个很真实的现象:

  • 换 LoRA 后
  • 参数显存确实降了
  • 但 activation 还是把你顶爆

原因就在这里:

LoRA 只动了“参数相关显存”,
对 activation 显存,
几乎没有任何帮助。

而在很多大模型训练场景中:

  • 长 sequence
  • 大 hidden dim
  • 多层 attention

activation 往往才是显存大头

这也是为什么你会看到:

“LoRA + batch=1 + length=4096 还是 OOM”

这不是 LoRA 失效,
而是你省错了地方。

第五层:QLoRA —— 显存结构第一次“断裂”

QLoRA 的出现,是因为大家终于意识到:

光省梯度不够,
参数本身也太占地方了。

QLoRA 的核心思想并不是 LoRA,
而是:

把 base model 参数,
从 FP16/FP32,
压缩到 4bit。

QLoRA 下,显存里有什么?

  • base model 参数:在(4bit)
  • base model 梯度:不在
  • base model 优化器状态:不在
  • LoRA 参数 + 梯度 + 优化器状态:在
  • activation:在(通常 FP16)

注意一个非常重要的点:

QLoRA 并没有减少 activation,
它只是让“常驻参数”变得非常轻。

第六层:为什么 QLoRA 看起来“显存奇迹”,但仍然会 OOM

很多人第一次用 QLoRA 会有一种错觉:

“显存突然自由了。”

确实,在参数层面:

  • base model 显存占用骤降

但很快你会发现:

  • batch 稍微一大
  • sequence 稍微一长
  • OOM 又来了

原因很简单:

activation 从来没被压缩过。

而在 QLoRA 中,还有一个隐藏成本:

  • 量化参数需要在计算时反量化
  • 有额外的临时 buffer
  • 有时还会引入显存碎片

所以 QLoRA 解决的是:

“模型能不能被放进显存”

而不是:

“训练时显存是否稳定”

第七层:三种方案的显存占用“结构对比图景”

我们用一种更直观的方式总结:

全参微调

参数 ██████████
梯度 ██████████
优化器 ██████████
激活 ████████████████

LoRA

参数 ██████████ (冻结)
梯度 ██ (LoRA)
优化器 ██ (LoRA)
激活 ████████████████

QLoRA

参数 ██ (量化)
梯度 ██ (LoRA)
优化器 ██ (LoRA)
激活 ████████████████

你会发现一个非常刺眼的事实:

三种方案里,
激活永远是那个“最胖的块”。

第八层:为什么很多“显存问题”,换方案根本解决不了

如果你的 OOM 来源是:

  • activation
  • attention 的 L²
  • 长上下文

那你会发现:

无论是 LoRA 还是 QLoRA,
都只能延缓问题,
无法根治。

真正能影响 activation 的,是:

  • sequence length
  • batch size
  • attention 结构
  • checkpointing 策略

而不是微调方案本身。

第九层:一个极简代码视角,看三者的差别

# 全参
for p in model.parameters():
    p.requires_grad = True

# LoRA
for p in model.parameters():
    p.requires_grad = False
for p in lora_parameters:
    p.requires_grad = True

# QLoRA
quantize(model.parameters(), bits=4)
for p in model.parameters():
    p.requires_grad = False
for p in lora_parameters:
    p.requires_grad = True

注意:

没有任何一行代码,
减少了 activation。

第十层:什么时候该选哪一种(工程判断)

  • 全参微调

    • 资源充足
    • 行为需整体重塑
    • 长期维护
  • LoRA

    • 想快速试方向
    • 关注行为偏移
    • 不改模型底座
  • QLoRA

    • 显存极度受限
    • 模型太大
    • 但愿意接受计算复杂度增加

但无论选哪一种,你都必须清楚:

它解决的是哪一类显存问题,
而不是“所有显存问题”。

很多团队在 LoRA、QLoRA、全参之间反复切换,根本原因不是选错方案,而是对显存结构缺乏整体认知。用LLaMA-Factory online对不同微调方案下的显存占用和训练行为进行对照,更容易看清:真正的瓶颈在参数、梯度,还是激活阶段。

总结:显存不是一个数,而是一种结构

我用一句话,把这篇文章彻底收住:

LoRA、全参、QLoRA 的区别,
从来不在“谁更省显存”,
而在“谁把显存留给了谁”。

当你开始:

  • 把显存看成结构
  • 而不是预算
  • 在换方案之前先问一句

    “我到底想省哪一块?”

你才真正开始工程化地解决显存问题

相关文章
|
12天前
|
人工智能 自然语言处理 Shell
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
本教程指导用户在开源AI助手Clawdbot中集成阿里云百炼API,涵盖安装Clawdbot、获取百炼API Key、配置环境变量与模型参数、验证调用等完整流程,支持Qwen3-max thinking (Qwen3-Max-2026-01-23)/Qwen - Plus等主流模型,助力本地化智能自动化。
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
|
7天前
|
人工智能 安全 机器人
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI助手,支持钉钉、飞书等多平台接入。本教程手把手指导Linux下部署与钉钉机器人对接,涵盖环境配置、模型选择(如Qwen)、权限设置及调试,助你快速打造私有、安全、高权限的专属AI助理。(239字)
4318 12
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
|
8天前
|
人工智能 机器人 Linux
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI智能体,支持飞书等多平台对接。本教程手把手教你Linux下部署,实现数据私有、系统控制、网页浏览与代码编写,全程保姆级操作,240字内搞定专属AI助手搭建!
4688 17
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
|
6天前
|
人工智能 机器人 Linux
OpenClaw(Clawdbot、Moltbot)汉化版部署教程指南(零门槛)
OpenClaw作为2026年GitHub上增长最快的开源项目之一,一周内Stars从7800飙升至12万+,其核心优势在于打破传统聊天机器人的局限,能真正执行读写文件、运行脚本、浏览器自动化等实操任务。但原版全英文界面对中文用户存在上手门槛,汉化版通过覆盖命令行(CLI)与网页控制台(Dashboard)核心模块,解决了语言障碍,同时保持与官方版本的实时同步,确保新功能最快1小时内可用。本文将详细拆解汉化版OpenClaw的搭建流程,涵盖本地安装、Docker部署、服务器远程访问等场景,同时提供环境适配、问题排查与国内应用集成方案,助力中文用户高效搭建专属AI助手。
3021 8
|
10天前
|
人工智能 JavaScript 应用服务中间件
零门槛部署本地AI助手:Windows系统Moltbot(Clawdbot)保姆级教程
Moltbot(原Clawdbot)是一款功能全面的智能体AI助手,不仅能通过聊天互动响应需求,还具备“动手”和“跑腿”能力——“手”可读写本地文件、执行代码、操控命令行,“脚”能联网搜索、访问网页并分析内容,“大脑”则可接入Qwen、OpenAI等云端API,或利用本地GPU运行模型。本教程专为Windows系统用户打造,从环境搭建到问题排查,详细拆解全流程,即使无技术基础也能顺利部署本地AI助理。
7207 16
|
8天前
|
存储 人工智能 机器人
OpenClaw是什么?阿里云OpenClaw(原Clawdbot/Moltbot)一键部署官方教程参考
OpenClaw是什么?OpenClaw(原Clawdbot/Moltbot)是一款实用的个人AI助理,能够24小时响应指令并执行任务,如处理文件、查询信息、自动化协同等。阿里云推出的OpenClaw一键部署方案,简化了复杂配置流程,用户无需专业技术储备,即可快速在轻量应用服务器上启用该服务,打造专属AI助理。本文将详细拆解部署全流程、进阶功能配置及常见问题解决方案,确保不改变原意且无营销表述。
4940 5
|
10天前
|
人工智能 JavaScript API
零门槛部署本地 AI 助手:Clawdbot/Meltbot 部署深度保姆级教程
Clawdbot(Moltbot)是一款智能体AI助手,具备“手”(读写文件、执行代码)、“脚”(联网搜索、分析网页)和“脑”(接入Qwen/OpenAI等API或本地GPU模型)。本指南详解Windows下从Node.js环境搭建、一键安装到Token配置的全流程,助你快速部署本地AI助理。(239字)
4822 23
|
16天前
|
人工智能 API 开发者
Claude Code 国内保姆级使用指南:实测 GLM-4.7 与 Claude Opus 4.5 全方案解
Claude Code是Anthropic推出的编程AI代理工具。2026年国内开发者可通过配置`ANTHROPIC_BASE_URL`实现本地化接入:①极速平替——用Qwen Code v0.5.0或GLM-4.7,毫秒响应,适合日常编码;②满血原版——经灵芽API中转调用Claude Opus 4.5,胜任复杂架构与深度推理。
8974 13