模型部署系列 | 一文告诉你AI模型QAT量化遇到震荡问题应该如何解决呢?(二)

简介: 模型部署系列 | 一文告诉你AI模型QAT量化遇到震荡问题应该如何解决呢?(二)

4、实验


4.1、消融实验

1、振荡阻尼

在表4中,作者研究了阻尼损失的强度如何影响网络的最终精度以及训练结束时振荡权重的比例。在前3行中可以观察到,随着系数λ的增加,振荡权重的比例降低,BN重新估计前后的精度差距缩小。然而,过多的阻尼会损害最终的精度,这表明过度的正则化会抑制权重在量化级别之间的有益移动。

解决这个问题的方法是在训练过程中逐渐增加正规化权重。这允许潜在权重在训练的第一阶段更自由地移动,同时通过应用更强的正则化来减少接近收敛的有害振荡。

作者发现λ的余弦退火计划在实践中效果良好。Han等人也注意到,这种规则化在训练的早期阶段是有害的,但实际上采用了两阶段优化过程。这样的策略可以显著抑制振荡,同时不会损害准确性。最佳阻尼配置比BN后重新估计基线提高了近1%,比BN前重新估计基线改善了5%以上。

在图4(左)中还看到了阻尼对图3中相同深度可分离层的潜在重量分布的影响。正如预期的那样,潜在权重现在聚集在量化bin中心周围,在决策边界几乎没有任何权重。

2、迭代权重冻结

在表5中展示了迭代权重冻结算法对各种冻结阈值的有效性。在整个训练过程中使用恒定的阈值,可以看到残差振荡的数量随着阈值的降低而显著减少,并且网络中只保留一些低频振荡。还可以看到,前BN重新估计精度更接近后BN重新估计准确性,正如人们在训练结束时振荡较少时所预期的那样。

然而,如果振荡阈值变得太低,那么在训练的早期阶段,太多的权重会被冻结,从而降低最终的准确性。为了解决这个问题,对冻结阈值应用了一个类似于阻尼中使用的退火计划。这能够使用更强的冻结阈值,并在训练结束时冻结几乎所有的振荡,此时它们最具破坏性。

最佳冻结阈值比BN后重新估计基线提高了近1%,比BN前重新估计基线改善了5%以上。它的精度与振荡阻尼相当,同时残差振荡显著减少(0.04%对1.11%)。

在图4(右)中可以看到迭代权值冻结如何改变MobileNetV2的层conv.3.1的潜在权值分布。大部分潜在权值现在被冻结在bin中心,去除在图3中决策边界观察到的峰值。

4.2、与其他QAT方法的比较

将克服振荡的方法与其他QAT替代方案进行了比较,并证明了它们在流行的高效神经网络的低比特量化中的有效性。为了与文献中现有的方法进行比较,作者对权重和激活进行了量化。在表6中展示了MobileNetV2的结果,并证明两种算法在3-bits和4-bits量化方面都优于文献中所有竞争的QAT技术。

还在表7和表8中分别获得了MobileNetV3 Small和EfficientNet lite的最新结果。在所有情况下,本文的振荡预防方法都比常用的LSQ基线显著提高(>1%),表明本文的方法对其他高效网络的普遍适用性。

可以注意到,与LSQ基线相比,振荡抑制导致训练时间增加了约33%。另一方面,迭代权重冻结在实现类似性能的同时,计算开销可以忽略不计。


4、参考


[1].Overcoming Oscillations in Quantization-Aware Training.

相关文章
|
19天前
|
存储 移动开发 Linux
Linux系统之部署h5ai目录列表程序
【5月更文挑战第3天】Linux系统之部署h5ai目录列表程序
38 1
|
19天前
|
机器学习/深度学习 人工智能 自然语言处理
当大火的文图生成模型遇见知识图谱,AI画像趋近于真实世界
本文介绍了阿里云机器学习PAI团队开发的名为ARTIST的中文文图生成模型,该模型融合了知识图谱信息,能够生成更加符合常识的图像。ARTIST基于Transformer架构,将文图生成任务分为图像矢量量化和文本引导的图像序列生成两个阶段。在第一阶段,模型使用VQGAN对图像进行矢量量化;在第二阶段,通过GPT模型并结合知识图谱中的实体知识来生成图像序列。在MUGE中文文图生成评测基准上,ARTIST表现出色,其生成效果优于其他模型。此外,EasyNLP框架提供了简单易用的接口,用户可以基于公开的Checkpoint进行少量领域相关的微调,实现各种艺术创作。
|
4天前
|
机器学习/深度学习 人工智能 安全
Gandalf AI 通关详解(大模型安全)
Gandalf AI 通关详解(大模型安全)
|
6天前
|
人工智能 自然语言处理 安全
【大模型】 基于AI和全球化进程的权衡:开源大模型与闭源大模型
【大模型】 基于AI和全球化进程的权衡:开源大模型与闭源大模型
29 0
|
7天前
|
数据采集 SQL 人工智能
AI+低代码,打通企业大模型应用最后一公里!
在2024微软Build大会上,微软宣布50多项AI更新,包括GPT-4上云、Cobalt芯片、Team Copilot和小模型等。Team Copilot成为团队助手,管理会议并协助解决问题。GPT-4模型支持多模态处理,引领AI体验新标准。微软构建三个平台增强AI功能,推动AI应用于协同办公、低代码开发等领域。织信低代码平台结合AI技术,实现智能数据补充、内容分析和快速算法,提升企业效率,降低了对IT资源的需求。AI与低代码技术共同促进数字化转型,织信低代码已在多个行业广泛应用,其AI助手强化了用户体验和效率。未来,AI将成为软件交互的核心,低代码与AI的结合将进一步推动软件平民化。
|
8天前
|
机器学习/深度学习 存储 人工智能
构建高效AI系统:深度学习模型压缩技术
【5月更文挑战第26天】 在资源受限的应用场景中,深度学习模型往往面临存储空间和计算能力的双重挑战。本文针对这一问题,深入探讨了深度学习模型压缩技术,旨在通过降低模型复杂度来优化其性能。文中首先分析了模型压缩的必要性,随后详细介绍了知识蒸馏、网络剪枝、量化等主流压缩方法,并通过实验验证了所提技术的有效性。最后,文章展望了模型压缩领域的未来发展方向,为相关研究提供了新的视角和思路。
|
8天前
|
机器学习/深度学习 数据采集 人工智能
构建高效AI模型:深度学习优化策略和实践
【5月更文挑战第26天】 在人工智能的浪潮中,深度学习作为一项核心技术,其模型构建与优化一直是研究的热点。本文旨在探讨如何通过一系列创新性的优化策略提升深度学习模型的性能及效率。我们将从理论与实践两个维度出发,详细阐述包括数据预处理、网络结构设计、损失函数选择、正则化技巧以及超参数调整等方面的优化措施。通过这些策略的综合运用,可以显著提高模型的准确性,降低过拟合风险,并缩短训练时间,为AI领域的研究者和工程师提供有价值的参考。
|
9天前
|
存储 弹性计算 人工智能
【阿里云弹性计算】AI 训练与推理在阿里云 ECS 上的高效部署与优化
【5月更文挑战第25天】阿里云ECS为AI训练和推理提供弹性、可扩展的计算资源,确保高性能和稳定性。通过灵活配置实例类型、利用存储服务管理数据,以及优化模型和代码,用户能实现高效部署和优化。自动伸缩、任务调度和成本控制等策略进一步提升效率。随着AI技术发展,阿里云ECS将持续助力科研和企业创新,驱动人工智能新时代。
28 0
|
10天前
|
人工智能 图形学
阿里AI模型EMO免费上线通义APP
阿里AI模型EMO免费上线通义APP
48 1
|
10天前
|
存储 人工智能 Serverless
“黏土风格”轻松拿捏,基于函数计算部署 ComfyUI实现AI生图
使用阿里云函数计算FC,快速部署AI绘画工具ComfyUI,体验高质量图像生成。新用户可享180元试用额度,包括GPU、vCPU、内存和调用次数。开通FC和文件存储NAS,通过应用中心选择ComfyUI模板创建应用。
“黏土风格”轻松拿捏,基于函数计算部署 ComfyUI实现AI生图