【AI大模型面试宝典七】- 训练优化篇

简介: 【AI大模型面试宝典】聚焦微调核心技术:详解指令微调、RLHF对齐、LoRA高效参数调整原理与实现,涵盖矩阵低秩分解、初始化策略、变体优化及Prompt Tuning等方法对比,助你攻克大模型面试核心考点,精准提升offer竞争力!

【AI大模型面试宝典系列】从面试高频考点到核心原理拆解,从实战代码到避坑指南,帮你吃透大模型面试的每一个得分点!后续会逐个攻破面试核心模块:基础概念、架构细节、项目实操、行业题套路…… 每篇聚焦一个必考点,既能快速补短板,也能精准练重点 —— 想搞定大模型面试、无痛拿下offer?这系列直接码住!

🎯 微调概述

微调是将预训练模型适配到特定任务的关键技术,包括指令微调、对齐微调和高效参数微调。
🏗️ 微调类型
1️⃣ 指令微调 (SFT)
● 原理:在指令-响应对上训练
● 数据格式:{"instruction": "...", "output": "..."}
● 效果:提升指令遵循能力
2️⃣ 对齐微调 (RLHF)
● 流程:
a. 人类偏好数据收集
b. 奖励模型训练
c. PPO强化学习优化
● 目标:使模型行为符合人类价值观
3️⃣ 高效参数微调
LoRA (Low-Rank Adaptation)
背景
矩阵中的最大的不相关的向量个数,就叫做秩。如果矩阵中数据比较相关,则为低秩矩阵。
● 例如,一个 $m \times n$ 的矩阵,如果它的秩 r 远小于 m 和 n,那么它就是一个低秩矩阵,冗余信息很多
● 反之,若矩阵的秩等于矩阵的行数 m,或者列数 n,则它是一个满秩矩阵
● 大模型的参数矩阵中的秩往往较小,具有很强的冗余
LoRA 原理
● 原理:如果一个矩阵P(假设维度为$d \times d$ )存在大量冗余信息,即低秩特性,可以不用完整的 $d \times d$ 尺寸来表示它,可利用因式分解这个想法,用两个较小的矩阵( A和B )的乘积 BA 来表示矩阵P,其中 A 维度 $r \times d$ ,B 维度 $d \times r$ ,则 $P = AB$ ,其中 $r$ 为秩,远小于 $d$ ,A 和 B 为低秩矩阵
● 思想:将全参数微调理解为“冻住的预训练权重” + “微调过程中产生的权重更新量”,因此微调只学习“更新”的那部分参数量(与预训练权重维度相同)。同时借助矩阵分解的思想,将“更新”的大模型参数矩阵分解为两个低秩矩阵的乘积,从而减少参数量,提高训练速度
● 公式:$output = W_0x + \Delta Wx = W_0x + BAx$ 其中 $W_0$ 为预训练权重,维度为 $d \times d$ ,$x$ 为输入,$B$ 和 $A$ 为可训练参数,维度分别为 $d \times r$,$r \times d$ ( $r$ 为秩,远小于 $d$ ), $\Delta W$ 为微调过程中产生的权重更新量,即$BA$
● 效果:参数更新量由 $d \times d$ 降低为 $2 \times d \times r$ ,反向传播时,只有 A、B 获得梯度,$W_0$ 不变,因而大大减少计算量
LoRA的初始化
常见的初始化方法是:矩阵A 高斯初始化,矩阵 B 初始化为零矩阵,保证模型输出在第一步与预训练一致,避免任何初始扰动,保证不会在一开始就破坏预训练表示
● 为什么A 高斯初始化,B 初始化为零矩阵?为什么不能都高斯初始化?或者都为0,或者B 高斯初始化,A 初始化为零矩阵?

具体可参考: LoRA微调中的矩阵初始化策略:A随机与B零初始化
○ A 随机与 B 零初始化: B在第一轮即可获得梯度,更新参数,A在第一轮无法获得梯度,不更新参数,但随着B的更新,A会逐渐获得梯度,开始更新
○ A 和 B 都高斯初始化: 模型输出在第一步与预训练不一致,引入噪声,干扰训练
○ A 和 B 都初始化为零: A 和 B 均无法获得梯度,无法更新,训练无法启动
○ B 随机与 A 零初始化: 理论上可能,但会导致训练效率显著下降甚至失败。B在第一轮无法获得梯度,无法更新参数,A 在第一轮的梯度不为零(取决于随机初始化的 B),可以更新,但 A 的更新需要与 B 的更新协同才能有效调整权重。由于 B 在初始阶段无法更新,A 的更新方向会受限于初始随机的 B,导致优化过程不稳定。
LoRA作用的位置
理论上LoRA的思想可以应用到任何权值矩阵上,例如在自注意机制中有四个权值矩阵 wq,wk ,wv ,wo ,另外在Transformer的全连接中也有两个权值矩阵w_up 和 w_down。关于LoRA在Transformer的作用位置,LoRA论文在自注意力层做了一组对照实验,证明如果只将LoRA作用到某个单一矩阵上,效果不佳,如果将LoRA作用到两个矩阵上,放在 wq 和 wv 效果最好。建议在所有的权值矩阵都加上LoRA,有利于模型捕捉到所有矩阵的关键信息

LoRA中参数
● $r$ :秩,表示低秩矩阵的维度,一般取1、2、4、8、16、32,比较常见的取值是8,值越高意味着矩阵越大
● lora_alpha:缩放因子,用于调整低秩矩阵的影响力。可以理解为对BA的更新幅度进行放大或缩小
● lora_target:指示需要应用低秩适应(LoRA)模块的特定网络层或模块
LoRA的变体
● LoRA+(LoRA Plus): LoRA 的增强版本,主要通过为矩阵 A 和 B 引入不同的学习率改进Lora,其中矩阵 B 的学习率设置为矩阵 A 的 16 倍。这种策略可以显著提高训练效率,同时提升模型精度(约 2%),并将训练时间缩短 2 倍。前提:原始 LoRA 中,矩阵 A 和 B 使用相同的学习率进行更新。该方法认为当模型的宽度(即嵌入维度)较大时,这种单一学习率的设置会导致微调效果不佳。)
● QLoRA(Quantized LoRA): QLoRA 是 LoRA 的量化版本,主要通过对低秩矩阵进行量化,从而显著降低存储和计算成本。这使得模型在显存受限的环境中运行更加高效。
● AdaLoRA(Adaptive LoRA):AdaLoRA 是 LoRA 的自适应版本,它支持动态调整秩,可根据任务和数据的复杂度动态调整低秩矩阵的秩,避免了固定秩带来的限制。

Prefix Tuning
● 原理:在输入前添加可训练前缀
● 特点:仅训练前缀参数
Prompt Tuning
● 原理:学习软提示词嵌入
● 特点:简单高效
📊 微调方法对比
image.png

相关实践学习
使用PAI+LLaMA Factory微调Qwen2-VL模型,搭建文旅领域知识问答机器人
使用PAI和LLaMA Factory框架,基于全参方法微调 Qwen2-VL模型,使其能够进行文旅领域知识问答,同时通过人工测试验证了微调的效果。
机器学习概览及常见算法
机器学习(Machine Learning, ML)是人工智能的核心,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,它是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。 本课程将带你入门机器学习,掌握机器学习的概念和常用的算法。
目录
相关文章
|
21天前
|
机器学习/深度学习 人工智能 算法
【AI大模型面试宝典七】- 训练优化篇
【AI大模型面试宝典】聚焦强化学习核心考点:从SARSA轨迹、在线/离线数据来源,到同策略与异策略差异,深入解析PPO、DPO、GRPO等主流算法原理与优化技巧,助你系统掌握RLHF、奖励模型设计及训练稳定性方案,轻松应对大模型面试高频难题,快速提升实战能力,offer拿到手软!
156 0
|
14天前
|
消息中间件 运维 监控
Kafka 最佳实践:分区策略、重试、幂等生产者
Kafka 最佳实践:分区策略、重试、幂等生产者
102 3
|
21天前
|
机器学习/深度学习 人工智能
【AI大模型面试宝典四】- 基础架构篇
【AI大模型知识干货系列】深度解析Transformer位置编码:从绝对到相对,拆解Sinusoidal、RoPE、ALiBi等核心机制,对比优劣,直击面试高频问题。每篇聚焦一个知识点,助你系统掌握大模型关键技术,紧跟AI浪潮!欢迎关注、点赞、批评指正~
99 0
|
2月前
|
存储 人工智能 自然语言处理
AI 十大论文精讲(五):RAG——让大模型 “告别幻觉、实时更新” 的检索增强生成秘籍
本文解读AI十大核心论文之五——《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》。该论文提出RAG框架,通过“检索+生成”结合,解决大模型知识更新难、易幻觉、缺溯源等问题,实现小模型高效利用外部知识库,成为当前大模型落地的关键技术。
1069 155
|
22天前
|
机器学习/深度学习 人工智能 安全
构建AI智能体:八十六、大模型的指令微调与人类对齐:从知识渊博到善解人意
本文探讨了大模型从知识储备到实用助手的进化过程。首先分析了原始预训练模型存在的问题:擅长文本补全但缺乏指令理解能力,可能生成有害或无关内容。然后详细介绍了指令微调技术,通过高质量(指令-输出)数据集教会模型理解并执行翻译、总结、情感分析等任务。进一步阐述了人类对齐技术,包括基于人类反馈的强化学习(RLHF)的三个关键步骤,使模型输出不仅符合指令,更符合人类价值观。最后展示了Qwen模型微调实践,包括代码实现和效果对比。整个过程将AI从知识库转变为既强大又安全可靠的智能助手。
192 19
|
21天前
|
人工智能 C++
【AI大模型面试宝典五】- 基础架构篇
【AI大模型面试宝典】深入解析归一化技术:LayerNorm、RMSNorm原理与应用,Pre-norm vs Post-norm对比,助力掌握大模型训练稳定与加速收敛核心要点。高频考点+实战解析,轻松拿下offer!点赞关注,持续更新~ #大模型面试 #归一化
66 0
|
21天前
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型面试宝典二】— 基础架构篇
【AI大模型面试宝典】聚焦分词器核心考点!详解BPE、WordPiece、SentencePiece原理与实战,覆盖中文分词最佳实践、词汇表构建、特殊标记处理,助你轻松应对高频面试题,精准提升offer竞争力!
108 0
|
21天前
|
机器学习/深度学习 人工智能 缓存
【AI大模型面试宝典三】- 基础架构篇
【AI大模型面试宝典】聚焦注意力机制核心考点,详解自注意力、多头、交叉、GQA/MQA等架构原理与代码实现,剖析复杂度、面试高频题与工业应用,助你系统掌握Transformer核心技术,直通大模型offer!#AI面试 #深度学习
68 0