【AI系统】感知量化训练 QAT

简介: 本文介绍感知量化训练(QAT)流程,旨在减少神经网络从FP32量化至INT8时的精度损失。通过在模型中插入伪量化节点(FakeQuant)模拟量化误差,并在训练中最小化这些误差,使模型适应量化环境。文章还探讨了伪量化节点的作用、正向与反向传播处理、TensorRT中的QAT模型高效推理,以及QAT与PTQ的对比,提供了实践技巧,如从良好校准的PTQ模型开始、采用余弦退火学习率计划等。

本文将会介绍感知量化训练(QAT)流程,这是一种在训练期间模拟量化操作的方法,用于减少将神经网络模型从 FP32 精度量化到 INT8 时的精度损失。QAT 通过在模型中插入伪量化节点(FakeQuant)来模拟量化误差,并在训练过程中最小化这些误差,最终得到一个适应量化环境的模型。

文中还会讨论伪量化节点的作用、正向和反向传播中的处理方式,以及如何在 TensorRT 中使用 QAT 模型进行高效推理。此外,还提供了一些实践技巧,包括从校准良好的 PTQ 模型开始、使用余弦退火学习率计划等,以及 QAT 与后训练量化(PTQ)的比较。

感知量化训练流程

传统的训练后量化将模型从 FP32 量化到 INT8 精度时会产生较大的数值精度损失。感知量化训练(Aware Quantization Training)通过在训练期间模拟量化操作,可以最大限度地减少量化带来的精度损失。

QAT 的流程如下图所示,首先基于预训练好的模型获取计算图,对计算图插入伪量化算子。准备好训练数据进行训练或者微调,在训练过程中最小化量化误差,最终得到 QAT 之后对神经网络模型。QAT 模型需要转换去掉伪量化算子,为推理部署做准备。

image

QAT 时会往模型中插入伪量化节点 FakeQuant 来模拟量化引入的误差。端测推理的时候折叠 FakeQuant 节点中的属性到 tensor 中,在端侧推理的过程中直接使用 tensor 中带有的量化属性参数。

伪量化节点

在 QAT 过程中,所有权重和偏差都以 FP32 格式存储,反向传播照常进行。然而,在正向传播中,通过 FakeQuant 节点模拟量化。之所以称之为“fake”量化,是因为它们对数据进行量化并立即反量化,添加了类似于在量化推理过程中可能遇到的量化噪声,以模拟训练期间量化的效果。最终损失 loss 值因此包含了预期内的量化误差,使得将模型量化为 INT8 不会显著影响精度。

FakeQuant 节点通常插入在模型的以下关键部分:

  • 卷积层(Conv2D)前后:这可以帮助卷积操作在量化后适应低精度计算。
  • 全连接层(Fully Connected Layer)前后:这对于处理密集矩阵运算的量化误差非常重要。
  • 激活函数(如 ReLU)前后:这有助于在非线性变换中保持量化精度。

这些插入位置可以确保模型在训练期间模拟量化引入的噪声,从而在推理阶段更好地适应量化环境。

下面是一个计算图,同时对输入和权重插入伪量化算子:

image

伪量化节点的作用:

  1. 找到输入数据的分布,即找到 MIN 和 MAX 值;
  2. 模拟量化到低比特操作的时候的精度损失,把该损失作用到网络模型中,传递给损失函数,让优化器去在训练过程中对该损失值进行优化。

正向传播

在正向传播中,FakeQuant 节点将输入数据量化为低精度(如 INT8),进行计算后再反量化为浮点数。这样,模型在训练期间就能体验到量化引入的误差,从而进行相应的调整。为了求得网络模型 tensor 数据精确的 Min 和 Max 值,因此在模型训练的时候插入伪量化节点来模拟引入的误差,得到数据的分布。对于每一个算子,量化参数通过下面的方式得到:

Q=RS+ZS=RmaxRminQmaxQminZ=QmaxRmaxS

FakeQuant 量化和反量化的过程:

Q(x)=FakeQuant(x)=DeQuant(Quant(x))=s(Clamp(round(x/s)z)+z)

原始权重为 W,伪量化之后得到浮点值 Q(W),同理得到激活的伪量化值 Q(X)。这些伪量化得到的浮点值虽然表示为浮点数,但仅能取离散的量化级别。

正向传播的时候 FakeQuant 节点对数据进行了模拟量化规约的过程,如下图所示:

image

反向传播

在反向传播过程中,模型需要计算损失函数相对于每个权重和输入的梯度。梯度通过 FakeQuant 节点进行传递,这些节点将量化误差反映到梯度计算中。模型参数的更新因此包含了量化误差的影响,使模型更适应量化后的部署环境。按照正向传播的公式,因为量化后的权重是离散的,反向传播的时候对 W 求导数为 0:

Q(W)W=0

因为梯度为 0,所以网络学习不到任何内容,权重 W 也不会更新:

gW=LW=LQ(W)Q(W)W=0

这里可以使用直通估计器(Straight-Through Estimator,简称 STE)简单地将梯度通过量化传递,近似来计算梯度。这使得模型能够在前向传播中进行量化模拟,但在反向传播中仍然更新高精度的浮点数参数。STE 近似假设量化操作的梯度为 1,从而允许梯度直接通过量化节点:

gW=LW=LQ(W)

image

如果被量化的值在 [xmin,xmax] 范围内,STE 近似的结果为 1,否则为 0。这种方法使模型能够在训练期间适应量化噪声,从而在实际部署时能够更好地处理量化误差。如下图所示:

image

BN 折叠

在卷积或全连接层后通常会加入批量归一化操作(Batch Normalization),以归一化输出数据。在训练阶段,BN 作为一个独立的算子,统计输出的均值和方差(如下左图)。然而,为了提高推理阶段的效率,推理图将批量归一化参数“折叠”到卷积层或全连接层的权重和偏置中。也就是说,Conv 和 BN 两个算子在正向传播时可以融合为一个算子,该操作称为 BN 折叠(如右下图)。

image

为了准确地模拟量化效果,我们需要模拟这种折叠,并在通过批量归一化参数缩放权重后对其进行量化。我们通过以下方式做到这一点:

wfold:=γwEMA(σ2B)+ϵ

其中 γ 是批量归一化的尺度参数,EMA(σ2B) 是跨批次卷积结果方差的移动平均估计,ϵ 是为了数值稳定性的常数。

推理过程

假设我们有一层的输入为 x,应用 BN 后得到输出 y,其基本公式为:

  1. 归一化:
    ˆxi=xiμBσ2B+ϵ

    其中,μB 是均值,σ2B 是方差。

  2. 缩放和平移:

yi=γˆxi+β

为了将 BN 折叠到前一层的权重和 bias 中,将 BN 的过程应用到上面的公式中,可以得到:

yi=γziμBσ2B+ϵ+β

可得:

yi=γwxi+bμBσ2B+ϵ+β

将上式拆解为对权重 w 和偏置 b 的调整:

  1. 调整后的权重 wfold

    wfold=γwσ2B+ϵ

  2. 调整后的偏置 bfold

bfold=γ(bμB)σ2B+ϵ+β

在量化感知训练中应用 BN 折叠的过程涉及将 BN 层的参数合并到前一层的权重和偏置中,并对这些合并后的权重进行量化。

BN 折叠的训练模型:

image

BN 折叠感知量化训练模型:

image

QAT 中常见的算子折叠组合还有:Conv + BN、Conv + BN + ReLU、Conv + ReLU、Linear + ReLU、BN + ReLU。

感知量化实践

感知量化训练的技巧

  1. 从已校准的表现最佳的 PTQ 模型开始

    与其从未训练或随机初始化的模型开始感知量化训练,不如从已校准的 PTQ 模型开始,这样能为 QAT 提供更好的起点。特别是在低比特宽量化情况下,从头开始训练可能会非常困难,而使用表现良好的 PTQ 模型可以帮助确保更快的收敛和更好的整体性能。

  2. 微调时间为原始训练计划的 10%

    感知量化训练不需要像原始训练那样耗时,因为模型已经相对较好地训练过,只需要调整到较低的精度。一般来说,微调时间为原始训练计划的 10% 是一个不错的经验法则。

  3. 使用从初始训练学习率 1% 开始的余弦退火学习率计划

  4. 为了让 STE 近似效果更好,最好使用小学习率。大学习率更有可能增加 STE 近似引入的方差,从而破坏已训练的网络。

  5. 使用余弦退火学习率计划可以帮助改善收敛,确保模型在微调过程中继续学习。从较低的学习率(如初始训练学习率的 1%)开始有助于模型更平稳地适应较低的精度,从而提高稳定性。直到达到初始微调学习率的 1%(相当于初始训练学习率的 0.01%)。在 QAT 的早期阶段使用学习率预热和余弦退火可以进一步提高训练的稳定性。

  6. 使用带动量的 SGD 优化器而不是 ADAM 或 RMSProp

尽管 ADAM 和 RMSProp 是深度学习中常用的优化算法,但它们可能不太适合量化感知微调。这些方法会按参数重新缩放梯度,可能会扰乱感知量化训练的敏感性。使用带动量的 SGD 优化器可以确保微调过程更加稳定,使模型能够更有控制地适应较低的精度。

通过 QAT,神经网络模型能够在保持高效推理的同时,尽量减少量化带来的精度损失,是模型压缩和部署的重要技术之一。在大多数情况下,一旦应用感知量化训练,量化推理精度几乎与浮点精度完全相同。然而,在 QAT 中重新训练模型的计算成本可能是数百个 epoch。

基于 TensorRT 实现推理

TensorRT 通过混合精度(FP32、FP16、INT8)计算、图优化和层融合等技术,显著提高了模型的推理速度和效率。TensorRT 8.0 之后的版本可以显式地加载包含有 QAT 量化信息的 ONNX 模型,实现一系列优化后,可以生成 INT8 的 engine。要使用 TensorRT 推理 QAT 模型,通常需要以下步骤:

  1. 训练并量化模型:

    首先使用训练框架(如 PyTorch、PaddlePaddle 和 MindSpore)进行量化感知训练并保存量化后的模型。

  2. 转换模型格式:

    将训练好的模型转换为 TensorRT 可以使用的 ONNX 格式。在这个过程中,转换器会将原始模型中的 FakeQuant 算子分解成 Q 和 DQ 两个算子,分别对应量化和反量化操作,包含了该层或者该激活值的量化 scale 和 zero-point。

    image

  3. 使用 TensorRT 进行转换和推理:

    使用 TensorRT 转换 ONNX 模型,为特定的 GPU 构建一个优化后的引擎。

    image

    在转换过程中,TensorRT 会对计算图进行优化:

    (1)常量的折叠:如权重的 Q 节点可与权重合并,无需在真实推理中由 FP32 的权重经过 scale 和 Z 转为 INT8 的权重。

    image

    (2)op 融合:将 Q/DQ 信息融合到算子(如 conv)中,得到量化的算子。通过 op 融合,模型计算将变为真实的 INT8 计算。

    比如可以将 DQ 和 Conv 融合,再和 Relu 融合,得到 ConvRelu,最后和下一个 Q 节点融合形成 INT8 输入和 INT8 输出的 QConvRelu 算子。如果在网络的末尾节点没有 Q 节点了(在前面已经融合了),可以将 DQ 和 Conv 融合得到 QConv 算子,输入是 INT8,输出是 FP32。

    image

值得注意的一点是,TensorRT 官方建议不要在训练框架中模拟批量归一化和 ReLU 融合,因为 TensorRT 自己的融合优化保证了融合后算术语义不变,确保推理阶段的准确性。

下面是经过 TensorRT 优化最终得到的量化推理计算图:

image

权重是 INT8 精度,FP32 的输入经过 Q 节点也被量化为 INT8,随后进行 INT8 计算,QConv 算子融合了反量化操作,最终输出的是 FP32 的结果。

当 TensorRT 检测到模型中有 QDQ 算子的时候,就会触发显式量化,可以理解为上一个 Q 和下一个 DQ 节点之间的算子都是 INT8 计算,所以 QDQ 的放置位置很重要。有些算子需要高精度输入,比如 LayerNorm(BERT), Sigmoid,TanH(LSTM);而有些算子受低精度的影响不大,如 GeLU (BERT), Softmax (BERT),可以在这些算子前面插入 QDQ 节点。

QAT 和 PTQ 对比

PTQ QAT
通常较快 较慢
无需重新训练模型 需要训练/微调模型
量化方案即插即用 量化方案即插即用(需要重新训练)
对模型最终精度控制较少 对最终精度控制更多,因为量化参数是在训练过程中学习到的

总之,PTQ 和 QAT 各有优缺点,选择哪种方法应根据具体的应用场景和资源情况来决定。对于大多数应用,PTQ 可以提供一个快速且易于实现的解决方案,而对于高精度要求的任务,QAT 则是更好的选择。

如果您想了解更多AI知识,与AI专业人士交流,请立即访问昇腾社区官方网站https://www.hiascend.com/或者深入研读《AI系统:原理与架构》一书,这里汇聚了海量的AI学习资源和实践课程,为您的AI技术成长提供强劲动力。不仅如此,您还有机会投身于全国昇腾AI创新大赛和昇腾AI开发者创享日等盛事,发现AI世界的无限奥秘~

目录
打赏
0
1
2
0
144
分享
相关文章
【03】优雅草星云物联网AI智控系统从0开发鸿蒙端适配-deveco studio-在lib目录新建自定义库UtilsLibrary,ComponentLibrary,CommonConstLibrary完成设置SettingsView.ets初始公共类书写-优雅草卓伊凡
【03】优雅草星云物联网AI智控系统从0开发鸿蒙端适配-deveco studio-在lib目录新建自定义库UtilsLibrary,ComponentLibrary,CommonConstLibrary完成设置SettingsView.ets初始公共类书写-优雅草卓伊凡
56 23
【03】优雅草星云物联网AI智控系统从0开发鸿蒙端适配-deveco studio-在lib目录新建自定义库UtilsLibrary,ComponentLibrary,CommonConstLibrary完成设置SettingsView.ets初始公共类书写-优雅草卓伊凡
Qlib:华尔街颤抖!微软开源金融AI量化投资神器,助力智能投研
Qlib是微软亚洲研究院推出的开源AI量化投资平台,提供从数据处理、模型训练到组合管理的全流程支持,内置高性能数据基础设施和多种机器学习模型。
191 19
Qlib:华尔街颤抖!微软开源金融AI量化投资神器,助力智能投研
FinGPT:华尔街颤抖!用股价训练AI,开源金融大模型预测股价准确率碾压分析师,量化交易新利器
FinGPT是基于Transformer架构的开源金融大模型,通过RLHF技术和实时数据处理能力,支持情感分析、市场预测等核心功能,其LoRA微调技术大幅降低训练成本。
94 12
FinGPT:华尔街颤抖!用股价训练AI,开源金融大模型预测股价准确率碾压分析师,量化交易新利器
AI驱动的开源治理——社会综合治理智慧化系统的技术突破
通过AI识别与智能监控精准捕捉不文明行为,生成证据链并分级预警,识别精度达98%;跨部门联动平台打破信息孤岛,实现多部门高效协作,事件处置时间缩短至5分钟;多场景适配的开源架构支持景区、校园等多样化需求,灵活部署边缘计算优化性能。试点成效显著,大幅提升治理效能。
42 14
【05】20250416优雅草星云物联网AI智控系统从0开发鸿蒙端适配-deveco studio-增加告警中心相关卡片页面WarningCardWidget相关-增加Canvas 绘制折线图-Canvas 绘制柱状图-首页-优雅草卓伊凡
【05】20250416优雅草星云物联网AI智控系统从0开发鸿蒙端适配-deveco studio-增加告警中心相关卡片页面WarningCardWidget相关-增加Canvas 绘制折线图-Canvas 绘制柱状图-首页-优雅草卓伊凡
15 0
【05】20250416优雅草星云物联网AI智控系统从0开发鸿蒙端适配-deveco studio-增加告警中心相关卡片页面WarningCardWidget相关-增加Canvas 绘制折线图-Canvas 绘制柱状图-首页-优雅草卓伊凡
SysOM AI 可观测体系:零侵入、低开销,让系统透明化
能够帮助开发者和运维人员实时监控和分析 AI 作业的运行状态,及时发现并解决性能瓶颈,从而提升整体效率和可靠性。
Spring AI与DeepSeek实战四:系统API调用
在AI应用开发中,工具调用是增强大模型能力的核心技术,通过让模型与外部API或工具交互,可实现实时信息检索(如天气查询、新闻获取)、系统操作(如创建任务、发送邮件)等功能;本文结合Spring AI与大模型,演示如何通过Tool Calling实现系统API调用,同时处理多轮对话中的会话记忆。
89 1
AI赋能油田巡检——无人机视频监控系统的技术解析
无人机油田巡检系统融合无人机硬件与AI视频监控技术,实现全域覆盖、智能分析和高效管理。通过多旋翼/固定翼无人机搭载高分辨率摄像头及传感器,采集多维数据;结合YOLOv9等算法进行异常检测,准确率高达98%。系统支持5G实时传输、边缘计算及集中化管理平台,提供可视化监控与预测性维护。基于开源框架设计,灵活扩展且成本低,大幅提升油田巡检效率与安全性。
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
36.7K star!拖拽构建AI流程,这个开源LLM应用框架绝了!
`Flowise` 是一款革命性的低代码LLM应用构建工具,开发者通过可视化拖拽界面,就能快速搭建基于大语言模型的智能工作流。该项目在GitHub上线不到1年就斩获**36.7K星标**,被开发者誉为"AI时代的乐高积木"。
110 8

热门文章

最新文章