压缩大型语言模型(LLMs):缩小10倍、性能保持不变

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: 尽管大规模语言模型(LLMs)在多种应用场景中表现出色,但其庞大的规模也带来了实际部署难题。本文探讨了通过模型压缩技术解决这些问题的方法,介绍了量化、剪枝和知识蒸馏三种主要压缩技术,并通过具体Python代码示例展示了如何将一个100M参数的文本分类模型压缩至52.8M参数,再通过4位量化进一步减小至原来的1/7,同时保持甚至提升性能。示例代码展示了从数据预处理、模型训练到评估的完整流程,证明了压缩技术的有效性。

尽管LLMs的巨大规模使其在广泛的应用场景中表现卓越,但这也为其在实际问题中的应用带来了挑战。本文将探讨如何通过压缩LLMs来应对这些挑战。我们将介绍关键概念,然后通过具体的Python代码实例进行演示。

2023年人工智能领域的主导思想是"更大即更好",改进语言模型的方程相对简单:更多数据 + 更多参数 + 更多计算资源 = 更优性能

虽然这种思路可能仍然适用(GPT-5即将问世?),但使用超过100B参数的模型显然面临挑战。例如一个使用FP16的100B参数模型仅存储就需要200GB空间!

大多数消费级设备(如智能手机、平板电脑、笔记本电脑)无法处理如此庞大的模型。那么,我们是否可以在不损失性能的前提下缩小这些模型呢?

模型压缩

模型压缩旨在在保持性能的同时减小机器学习模型的规模[2]。这种方法对(大型)神经网络特别有效,因为它们通常存在过度参数化的问题(即包含冗余计算单元)[3]。

模型压缩的主要优势在于降低推理成本。这意味着强大的机器学习模型可以更广泛地应用(例如,在个人笔记本电脑上本地运行LLMs),将人工智能集成到消费产品中的成本降低,以及支持设备端推理,从而增强用户隐私和安全性[3]。

压缩模型的三种方法

模型压缩技术多种多样。本文将重点介绍三大类方法。

  1. 量化 — 使用低精度数据类型表示模型
  2. 剪枝 — 移除模型中不必要的组件
  3. 知识蒸馏 — 利用大型模型训练小型模型

这些方法都相互独立,可以结合多种技术以实现最大化压缩效果!

1、量化

尽管"量化"这个术语听起来可能晦涩复杂,但其核心概念相对简单。它指的是降低模型参数的精度。可以将这个过程类比为将高分辨率图像转换为低分辨率图像,同时保持图像的主要特征。

量化技术主要分为两类:训练后量化(PTQ)量化感知训训练(QAT)

训练后量化(PTQ)

对于给定的神经网络,训练后量化(PTQ)通过将参数替换为低精度数据类型来压缩模型(例如,从FP16转换为INT-8)。这是减少模型计算需求最快速和简单的方法之一,因为它无需额外的训练或数据标注[4]。

虽然这是一种相对简便的降低模型成本的方法,但过度使用这种技术进行量化(例如,从FP16转换为INT4)通常会导致性能下降,这限制了PTQ的潜在收益[3]。

量化感知训练(QAT)

在需要更高压缩率的情况下,可以通过使用低精度数据类型从头开始训练模型来克服PTQ的局限性。这就是量化感知训练(QAT)的核心思想[5]。

尽管这种方法在技术上更具挑战性,但它可以产生显著更小且性能良好的模型。例如,BitNet架构使用三元数据类型(即1.58位)就达到了与原始Llama LLM相当的性能[6]!

PTQ和从头开始的QAT之间存在较大的技术差距。介于两者之间的一种方法是量化感知微调,它包括在量化后对预训练模型进行额外的训练[3]。

2、剪枝

剪枝的目标是移除对模型性能影响较小的组件[7]。这种方法之所以有效,是因为机器学习模型(特别是大型模型)往往会学习冗余和噪声结构[3]。

这个过程可以类比为修剪树木中的枯枝。移除这些枯枝可以减小树的体积而不会损害树的健康。

剪枝方法可以分为两类:非结构化剪枝结构化剪枝

非结构化剪枝

非结构化剪枝从神经网络中移除不重要的权重(即将其值设为零)。早期的工作如Optimal Brain Damage和Optimal Brain Surgeon通过估计剪枝对损失函数的影响来计算网络中每个参数的重要性分数[7]。

最近基于幅度的方法(即移除绝对值最小的权重)因其简单性和可扩展性而变得更加流行[7]。

虽然非结构化剪枝的细粒度特性可以显著减少参数数量,但这些收益通常需要专门的硬件才能实现[7]。非结构化剪枝会导致稀疏矩阵运算(即乘以包含大量零的矩阵),而标准硬件在执行这类运算时并不比非稀疏运算更有效。

结构化剪枝

相比之下,结构化剪枝从神经网络中移除整个结构(例如注意力头、神经元和层)[5]。这种方法避免了稀疏矩阵运算的问题,因为可以直接从模型中删除整个矩阵,而不是单个参数。

虽然识别待剪枝结构的方法多种多样,但其基本原则都是试图移除对性能影响最小的结构。参考文献[5]提供了结构化剪枝方法的详细综述。

3、知识蒸馏

知识蒸馏是一种将知识从(较大的)教师模型转移到(较小的)学生模型的技术[5]。一种常见的实现方法是使用教师模型生成预测,然后用这些预测来训练学生模型。从教师模型的输出logits(即所有可能的下一个标记的概率)中学习,可以提供比原始训练数据更丰富的信息,从而提高学生模型的性能[8]。

最新的蒸馏应用完全摒弃了对logits的依赖,转而从教师模型生成的合成数据中学习。一个典型的例子是斯坦福大学的Alpaca模型,它使用OpenAI的text-davinci-003(即原始ChatGPT模型)生成的合成数据对LLaMa 7B(基础)模型进行了微调,使其能够遵循用户指令[9]。

代码示例:使用知识蒸馏和量化压缩文本分类器

在了解了各种压缩技术的基本原理后,让我们通过一个Python实例来展示如何实际应用这些技术。在这个例子中,我们将压缩一个具有100M参数的模型,该模型用于将URL分类为安全或不安全(即钓鱼网站)。

我们首先使用知识蒸馏将100M参数模型压缩为50M参数模型。然后,通过应用4位量化,我们进一步将内存占用减少了3倍,最终得到的模型比原始模型小7倍

首先,我们导入必要的库:

 fromdatasetsimportload_dataset  

 fromtransformersimportAutoTokenizer, AutoModelForSequenceClassification  
 fromtransformersimportDistilBertForSequenceClassification, DistilBertConfig  

 importtorch  
 importtorch.nnasnn  
 importtorch.optimasoptim  
 fromtorch.utils.dataimportDataLoader  

 fromsklearn.metricsimportaccuracy_score, precision_recall_fscore_support

然后,我们从Hugging Face Hub加载数据集。这包括训练集(2100行)、测试集(450行)和验证集(450行)。

 data=load_dataset("shawhin/phishing-site-classification")

接下来,加载教师模型。我们将模型加载到Google Colab提供的T4 GPU上。

 # 使用Nvidia GPU  
 device=torch.device('cuda')  

 # 加载教师模型和分词器
 model_path="shawhin/bert-phishing-classifier_teacher"  

 tokenizer=AutoTokenizer.from_pretrained(model_path)  
 teacher_model=AutoModelForSequenceClassification.from_pretrained(model_path)  
                                                   .to(device)

教师模型是Google的bert-base-uncased模型的微调版本,用于对钓鱼网站URL进行二元分类。

对于学生模型,我们基于distilbert-base-uncased从头初始化一个新模型。我们通过移除两层和减少剩余层中的四个注意力头来修改架构。

 # 加载学生模型
 my_config=DistilBertConfig(n_heads=8, n_layers=4) # 每层减少4个头,总共减少2层  

 student_model=DistilBertForSequenceClassification  
                                     .from_pretrained("distilbert-base-uncased",  
                                     config=my_config,)  
                                     .to(device)

在训练学生模型之前,我们需要对数据集进行标记化处理。这一步至关重要,因为模型要求输入文本以特定格式表示。我们根据每个批次中最长样本的长度对样本进行填充。这允许将批次表示为PyTorch张量。

 # 定义文本预处理函数
 defpreprocess_function(examples):  
     returntokenizer(examples["text"], padding='max_length', truncation=True)  

 # 对所有数据集进行标记化
 tokenized_data=data.map(preprocess_function, batched=True)  
 tokenized_data.set_format(type='torch',   
                           columns=['input_ids', 'attention_mask', 'labels'])

训练前的另一个关键步骤是为模型定义评估策略。以下函数用于计算给定模型和数据集的准确率、精确率、召回率和F1分数

 # 评估模型性能的函数
 defevaluate_model(model, dataloader, device):  
     model.eval()  # 将模型设置为评估模式
     all_preds= []  
     all_labels= []  

     # 禁用梯度计算
     withtorch.no_grad():  
         forbatchindataloader:  
             input_ids=batch['input_ids'].to(device)  
             attention_mask=batch['attention_mask'].to(device)  
             labels=batch['labels'].to(device)  

             # 前向传播获取logits  
             outputs=model(input_ids, attention_mask=attention_mask)  
             logits=outputs.logits  

             # 获取预测结果
             preds=torch.argmax(logits, dim=1).cpu().numpy()  
             all_preds.extend(preds)  
             all_labels.extend(labels.cpu().numpy())  

     # 计算评估指标
     accuracy=accuracy_score(all_labels, all_preds)  
     precision, recall, f1, _=precision_recall_fscore_support(all_labels,   
                                                               all_preds,   
                                                 average='binary')  

     returnaccuracy, precision, recall, f1

现在开始训练过程。为了使学生模型能够同时从训练集的真实标签(硬目标)和教师模型的logits(软目标)中学习,我们需要构建一个特殊的损失函数,该函数考虑这两种目标。

这是通过将学生和教师输出概率分布的KL散度学生logits与真实标签的交叉熵损失相结合来实现的。

 # 计算蒸馏损失和硬标签损失的函数
 defdistillation_loss(student_logits, teacher_logits,   
                       true_labels, temperature, alpha):  
     # 从教师logits计算软目标
     soft_targets=nn.functional.softmax(teacher_logits/temperature, dim=1)  
     student_soft=nn.functional.log_softmax(student_logits/temperature, dim=1)  

     # 蒸馏的KL散度损失
     distill_loss=nn.functional.kl_div(student_soft,   
                                     soft_targets,   
                                     reduction='batchmean') * (temperature**2)  

     # 硬标签的交叉熵损失
     hard_loss=nn.CrossEntropyLoss()(student_logits, true_labels)  

     # 结合损失
     loss=alpha*distill_loss+ (1.0-alpha) *hard_loss  

     returnloss

定义超参数、优化器以及训练和测试数据加载器。

 # 超参数
 batch_size=32  
 lr=1e-4  
 num_epochs=5  
 temperature=2.0  
 alpha=0.5  

 # 定义优化器
 optimizer=optim.Adam(student_model.parameters(), lr=lr)  

 # 创建训练数据加载器
 dataloader=DataLoader(tokenized_data['train'], batch_size=batch_size)  
 # 创建测试数据加载器
 test_dataloader=DataLoader(tokenized_data['test'], batch_size=batch_size)

最后使用PyTorch训练学生模型。

 # 将学生模型设置为训练模式
 student_model.train()  

 # 训练模型
 forepochinrange(num_epochs):  
     forbatchindataloader:  
         # 准备输入
         input_ids=batch['input_ids'].to(device)  
         attention_mask=batch['attention_mask'].to(device)  
         labels=batch['labels'].to(device)  

         # 禁用教师模型的梯度计算
         withtorch.no_grad():  
             teacher_outputs=teacher_model(input_ids,   
                                             attention_mask=attention_mask)  
             teacher_logits=teacher_outputs.logits  

         # 学生模型前向传播
         student_outputs=student_model(input_ids,   
                                         attention_mask=attention_mask)  
         student_logits=student_outputs.logits  

         # 计算蒸馏损失
         loss=distillation_loss(student_logits, teacher_logits, labels,   
                                   temperature, alpha)  

         # 反向传播
         optimizer.zero_grad()  
         loss.backward()  
         optimizer.step()  

     print(f"第 {epoch+1} 轮训练完成,损失: {loss.item()}")  

     # 评估教师模型
     teacher_accuracy, teacher_precision, teacher_recall, teacher_f1=   
                          evaluate_model(teacher_model, test_dataloader, device)  

     print(f"教师模型 (测试集) - 准确率: {teacher_accuracy:.4f},   
                                 精确率: {teacher_precision:.4f},   
                                 召回率: {teacher_recall:.4f},   
                                 F1分数: {teacher_f1:.4f}")  

     # 评估学生模型
     student_accuracy, student_precision, student_recall, student_f1=   
                          evaluate_model(student_model, test_dataloader, device)  

     print(f"学生模型 (测试集) - 准确率: {student_accuracy:.4f},   
                                 精确率: {student_precision:.4f},   
                                 召回率: {student_recall:.4f},   
                                 F1分数: {student_f1:.4f}")  
     print("\n")  

     # 将学生模型重新设置为训练模式
     student_model.train()

训练结果如下图所示。值得注意的是,在训练结束时,学生模型在所有评估指标上都超过了教师模型

最后一步,我们可以在独立的验证集上评估模型,即未用于训练模型参数或调整超参数的数据。

 # 创建验证数据加载器
 validation_dataloader=DataLoader(tokenized_data['validation'], batch_size=8)  

 # 评估教师模型
 teacher_accuracy, teacher_precision, teacher_recall, teacher_f1=   
                    evaluate_model(teacher_model, validation_dataloader, device)  
 print(f"教师模型 (验证集) - 准确率: {teacher_accuracy:.4f},   
                            精确率: {teacher_precision:.4f},   
                            召回率: {teacher_recall:.4f},   
                            F1分数: {teacher_f1:.4f}")  

 # 评估学生模型
 student_accuracy, student_precision, student_recall, student_f1=   
                    evaluate_model(student_model, validation_dataloader, device)  
 print(f"学生模型 (验证集) - 准确率: {student_accuracy:.4f},   
                            精确率: {student_precision:.4f},   
                            召回率: {student_recall:.4f},   
                            F1分数: {student_f1:.4f}")

我们再次观察到学生模型的表现超过了教师模型。

到目前为止,我们已经将模型从109M参数(438 MB)压缩到52.8M参数(211 MB)。我们还可以更进一步,对学生模型进行量化处理。

我们使用QLoRA论文中描述的4位NormalFloat数据类型存储模型参数,并使用bfloat16进行计算[10]。

 fromtransformersimportBitsAndBytesConfig  

 # 以4位精度加载模型
 nf4_config=BitsAndBytesConfig(  
     load_in_4bit=True,  
     bnb_4bit_quant_type="nf4",  
     bnb_4bit_compute_dtype=torch.bfloat16,  
     bnb_4bit_use_double_quant=True  
 )  

 model_nf4=AutoModelForSequenceClassification.from_pretrained(model_id,   
                                                 device_map=device,   
                                                 quantization_config=nf4_config)

然后我们可以在验证集上评估量化后的模型。

 # 评估量化后的学生模型
 quantized_accuracy, quantized_precision, quantized_recall, quantized_f1=   
                        evaluate_model(model_nf4, validation_dataloader, device)  

 print("量化后性能")  
 print(f"准确率: {quantized_accuracy:.4f},   
         精确率: {quantized_precision:.4f},   
         召回率: {quantized_recall:.4f},   
         F1分数: {quantized_f1:.4f}")

量化后学生模型在验证集上的表现。

再次观察到压缩后性能略有提升。这可以从奥卡姆剃刀原理的角度理解,该原理认为在其他条件相同的情况下,更简单的模型通常更优

在这个案例中,原始模型可能对这个二元分类任务而言过于复杂。简化模型反而导致了性能的提升。

总结

尽管现代大型语言模型(LLMs)在各种任务上展现出卓越的性能,但它们的规模在实际部署中带来了诸多挑战。

近期模型压缩技术的创新有助于通过降低LLM解决方案的计算成本来缓解这些挑战。本文讨论了三大类压缩技术(量化、剪枝和知识蒸馏),并通过Python实例演示了它们的实际应用。

示例代码:

https://avoid.overfit.cn/post/abb8e1ac1ac64067b74e8e8c1cc802a0

作者: Shaw Talebi

目录
相关文章
|
3月前
|
人工智能 开发者
谷歌通过数据增强、对比调优,减少多模态模型幻觉
【9月更文挑战第16天】谷歌研究人员针对多模态大语言模型(MLLMs)中的幻觉问题,提出了一种结合数据增强与对比调优的新方法,旨在减少模型生成错误信息的情况。该方法通过生成式数据增强制造幻觉标记并与真实标记对比,利用对比损失优化模型参数,从而提升模型对真实信息的辨识能力。实验结果显示,此方法能显著降低对象幻觉现象,但在模拟复杂现实场景及计算需求方面仍面临挑战。相关研究已发布在论文《通过数据增强的对比调优减轻对象幻觉》中。
55 3
|
4月前
|
机器学习/深度学习 边缘计算 缓存
|
4月前
|
人工智能 UED
提升5.69倍,高效RAG上下文压缩方法COCOM
【8月更文挑战第7天】在AI领域,大型语言模型(LLMs)展现出了强大的计算与知识处理能力,但也面临着处理复杂任务时因上下文信息激增而导致生成时间延长的问题。为解决这一挑战,研究人员开发了COCOM上下文压缩方法,该方法通过将冗长的上下文信息压缩成简洁的上下文嵌入,有效提升了RAG系统的解码速度。实验表明,COCOM能在不牺牲答案质量的前提下,将解码时间最多提升5.69倍,极大改善了用户体验。然而,该方法也可能存在信息损失的风险,且在特定任务上的效果可能受限,因此在实际应用中需综合考量压缩率与答案质量的平衡。论文详情参见:https://arxiv.org/abs/2407.09252。
111 3
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
2024年5月大语言模型论文推荐:模型优化、缩放到推理、基准测试和增强性能
本文汇总了2024年5月发布的七篇重要大语言模型论文,涉及模型优化、缩放、推理及性能增强。
507 2
|
6月前
|
机器学习/深度学习 自然语言处理 算法
用神经架构搜索给LLM瘦身,模型变小,准确度有时反而更高
【6月更文挑战第20天】研究人员运用神经架构搜索(NAS)压缩LLM,如LLaMA2-7B,找到小而精准的子网,降低内存与计算成本,保持甚至提升性能。实验显示在多个任务上,模型大小减半,速度加快,精度不变或提升。NAS虽需大量计算资源,但结合量化技术,能有效优化大型语言模型。[论文链接](https://arxiv.org/pdf/2405.18377)**
64 3
|
6月前
|
算法 测试技术 异构计算
【SAM模型超级进化】MobileSAM轻量化的分割一切大模型出现,模型缩小60倍,速度提高40倍,效果不减
【SAM模型超级进化】MobileSAM轻量化的分割一切大模型出现,模型缩小60倍,速度提高40倍,效果不减
|
7月前
|
算法 异构计算
推测解码:在不降低准确性的情况下将LLM推理速度提高2 - 3倍
在本篇文章我们将详细讨论推测解码,这是一种可以将LLM推理速度提高约2 - 3倍而不降低任何准确性的方法。我们还将会介绍推测解码代码实现,并看看它与原始transformer 实现相比到底能快多少。
269 10
|
7月前
|
人工智能 自然语言处理 算法
2024年,将出现更大、更优的大模型
【1月更文挑战第21天】2024年,将出现更大、更优的大模型
109 3
2024年,将出现更大、更优的大模型
|
7月前
|
异构计算
针对特定领域较小的语言模型是否与较大的模型同样有效?
经过2023年的发展,大语言模型展示出了非常大的潜力,训练越来越大的模型成为有效性评估的一个关键指标,论文《A Comparative Analysis of Fine-Tuned LLMs and Few-Shot Learning of LLMs for Financial Sentiment Analysis》中,作者全面分析了微调大语言模型(llm)及其在金融情绪分析中的零样本和少样本的能力。
85 0
|
存储 机器学习/深度学习 编解码
ImageNet-1K压缩20倍,Top-1精度首超60%:大规模数据集蒸馏转折点
ImageNet-1K压缩20倍,Top-1精度首超60%:大规模数据集蒸馏转折点
208 0