字节开源大模型量化新思路,2-bit量化模型精度齐平fp16

简介: 【5月更文挑战第25天】字节跳动研究团队提出新型量化方法decoupleQ,实现2-bit量化模型与fp16/bf16同等精度。该方法通过参数分解,将量化转化为数学优化问题,简化处理并提高硬件兼容性。decoupleQ在大型语音模型上验证了其2-bit量化效果,降低了存储和计算成本,适用于资源受限环境。论文开源,为量化技术发展带来新视角。

在深度学习模型的部署和应用中,量化技术因其显著的压缩效果而备受关注。尤其是在实时应用中,大型模型的存储和计算成本是一个重要的考量因素。近期,字节跳动的研究团队提出了一种新的量化方法——decoupleQ,该方法通过将模型参数分解为整数和浮点数部分,实现了在极低比特率下的高模型精度,特别是在2-bit量化上取得了与fp16/bf16相当的在线精度。
decoupleQ的核心思想是将传统的启发式量化范式转变为数学优化问题。这种方法不再依赖于传统的量化细节,如处理异常值、敏感通道或确定裁剪范围等,而是将问题抽象为一个更高级别的数学优化问题。通过这种方法,decoupleQ能够以线性和均匀的方式进行量化,这使得它比非均匀量化更受硬件友好,同时也能够扩展到高比特量化以增强其鲁棒性。
在实际应用中,decoupleQ在字节跳动的大型语音模型上进行了测试,证明了其在2-bit量化下能够达到与fp16/bf16相近的精度。这一成果对于工业界大规模应用具有重要意义,因为它能够在不牺牲精度的前提下,显著降低模型的存储和计算成本。
decoupleQ的方法包含两个阶段:层级最小化和块级最小化。在层级最小化阶段,通过优化整数部分和浮点部分来最小化预量化和后量化输出之间的ℓ2损失。在块级最小化阶段,固定整数部分的权重,进一步训练规模和零点以及归一化层的参数。这种方法的提出,为后训练量化(PTQ)领域带来了新的视角和解决方案。
在实验部分,decoupleQ在ImageNet上的ResNet模型和Llama模型上进行了测试。结果显示,decoupleQ在各种设置下都优于其他方法。此外,通过消融研究,研究者们探讨了两种近似方法对模型精度的影响,以及校准数据集大小对模型精度的影响。实验结果表明,随着校准数据集大小的增加,模型的精度也随之提高。
decoupleQ的优势在于其创新的量化思路和在低比特量化上的突破。然而,这种方法也存在一些潜在的风险和挑战。例如,层或块输出的ℓ2损失最小化与模型精度之间的相关性可能并不总是强相关的。此外,decoupleQ可能会过度拟合校准数据集,尤其是在数据集较小的情况下。为了减少过度拟合的风险,可以通过增强H矩阵的对角元素值或增加校准数据的数量来降低H矩阵为不确定矩阵的可能性。
总体而言,decoupleQ为大型模型的量化提供了一种有效的新方法。它通过将量化问题转化为数学优化问题,提高了量化模型的精度,尤其是在2-bit量化上的表现。这种方法对于需要在资源受限的设备上部署大型模型的应用场景具有重要的实际意义。尽管存在一些挑战,但decoupleQ的提出无疑为量化技术的发展和应用开辟了新的道路。
字节跳动的研究团队已经将decoupleQ的代码开源,这将进一步促进该方法的研究和应用。随着深度学习模型在各行各业的广泛应用,量化技术的研究和创新将继续是学术界和工业界的热点。decoupleQ的出现,不仅为研究人员提供了新的工具和思路,也为量化技术的实际应用提供了新的可能性。

论文链接:https://arxiv.org/abs/2404.12759

目录
相关文章
|
6月前
|
自然语言处理 异构计算
ICLR 2024 Poster:精确且高效的大语言模型低比特量化方法 QLLM
【2月更文挑战第24天】ICLR 2024 Poster:精确且高效的大语言模型低比特量化方法 QLLM
163 3
ICLR 2024 Poster:精确且高效的大语言模型低比特量化方法 QLLM
|
4月前
|
机器学习/深度学习 计算机视觉
字节豆包全新图像Tokenizer:生成图像最低只需32个token,最高提速410倍
【7月更文挑战第1天】新方法将图像转为1D token序列,减少计算复杂度,提高生成效率。在保持高画质(如gFID: 1.97 on ImageNet 256x256)的同时,TiTok比现有模型快410倍。虽有资源需求及token限制问题,但展示了图像处理的新方向。[论文链接](https://arxiv.org/abs/2406.07550)
159 7
|
5月前
|
机器学习/深度学习 决策智能
**批量归一化(BN)**是2015年提出的深度学习优化技术,旨在解决**内部协变量偏移**和**梯度问题**。
【6月更文挑战第28天】**批量归一化(BN)**是2015年提出的深度学习优化技术,旨在解决**内部协变量偏移**和**梯度问题**。BN通过在每个小批量上执行**标准化**,然后应用学习到的γ和β参数,确保层间输入稳定性,加速训练,减少对超参数的敏感性,并作为隐含的正则化手段对抗过拟合。这提升了模型训练速度和性能,简化了初始化。
50 0
|
6月前
|
机器学习/深度学习 计算机视觉
CVPR 2024:字节提出新一代数据集COCONut,比COCO粒度分割更密集
【5月更文挑战第5天】在CVPR 2024会议上,字节跳动推出了COCONut数据集,作为COCO的升级版,用于更密集的图像分割任务。COCONut包含383K张图像和5.18M个分割标注,质量与规模均超越COCO,提供更准确、一致的标注,并有更多类别。其密集标注有助于理解图像细节,但大規模与高标注质量也可能带来训练资源和过拟合的挑战。[链接](https://arxiv.org/abs/2404.08639)
240 2
|
6月前
|
存储 人工智能 异构计算
清华&哈工大提出极限压缩方案:1bit量化,能力同时保留83%
【2月更文挑战第22天】清华&哈工大提出极限压缩方案:1bit量化,能力同时保留83%
107 1
清华&哈工大提出极限压缩方案:1bit量化,能力同时保留83%
|
6月前
|
机器学习/深度学习 存储 人工智能
从16-bit 到 1.58-bit :大模型内存效率和准确性之间的最佳权衡
通过量化可以减少大型语言模型的大小,但是量化是不准确的,因为它在过程中丢失了信息。通常较大的llm可以在精度损失很小的情况下量化到较低的精度,而较小的llm则很难精确量化。
176 0
|
6月前
|
机器学习/深度学习 存储 文字识别
模型精度不降反升!飞桨是这样改进PACT量化算法的!
模型精度不降反升!飞桨是这样改进PACT量化算法的!
178 0
|
6月前
|
存储 人工智能 并行计算
加速44%!RT-DETR量化无损压缩优秀实战
加速44%!RT-DETR量化无损压缩优秀实战
207 0
|
机器学习/深度学习 编解码 计算机视觉
建议背诵 | 字节用4大准则教你设计一个拥有CNN的速度,Transformer精度的模型!
建议背诵 | 字节用4大准则教你设计一个拥有CNN的速度,Transformer精度的模型!
66 0
|
机器学习/深度学习 存储 算法
量化部署必卷 | EasyQuant量化通过Scale优化轻松超越TensorRT量化(一)
量化部署必卷 | EasyQuant量化通过Scale优化轻松超越TensorRT量化(一)
248 0