在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
实时计算 Flink 版,5000CU*H 3个月
简介: 在深度学习中,学习率作为关键超参数对模型收敛速度和性能至关重要。传统方法采用统一学习率,但研究表明为不同层设置差异化学习率能显著提升性能。本文探讨了这一策略的理论基础及PyTorch实现方法,包括模型定义、参数分组、优化器配置及训练流程。通过示例展示了如何为ResNet18设置不同层的学习率,并介绍了渐进式解冻和层适应学习率等高级技巧,帮助研究者更好地优化模型训练。

在深度学习模型的训练过程中,学习率作为一个关键的超参数,对模型的收敛速度和最终性能有着重大影响。传统方法通常采用统一的学习率,但随着研究的深入,我们发现为网络的不同层设置不同的学习率可能会带来显著的性能提升。本文将详细探讨这一策略的实施方法及其在PyTorch框架中的具体应用。

层级学习率的理论基础

深度神经网络的不同层次在特征提取和信息处理上扮演着不同的角色。基于这一认知,我们可以合理推断对不同层采用差异化的学习策略可能会更有效:

  1. 底层特征提取:网络的前几层通常负责捕获通用的低级特征,如边缘、纹理等。这些特征往往具有较强的通用性和可迁移性。
  2. 高层语义理解:网络的后几层则倾向于提取更为抽象和任务相关的高级特征。
  3. 任务特定层:如全连接分类层,直接与特定任务相关。

基于上述观察我们可以制定相应的学习率策略:

  • 对于预训练的底层,使用较小的学习率以保持其已学到的通用特征。
  • 对于中间层,可以采用适中的学习率。
  • 对于任务特定的顶层,则可以使用较大的学习率以快速适应新任务。

PyTorch实现:以ResNet为例

下面我们将以ResNet18为例,演示如何在PyTorch中实现层级学习率设置。

1、模型定义

首先,我们加载预训练的ResNet18模型,并修改其最后一层以适应新的分类任务:

 importtorch
 importtorch.nnasnn
 importtorchvision.modelsasmodels

 # 加载预训练的ResNet18模型
 model=models.resnet18(pretrained=True)

 # 修改最后的全连接层以适应新的分类任务
 num_classes=10  # 假设新任务有10个类别
 model.fc=nn.Linear(model.fc.in_features, num_classes)
AI 代码解读

2、参数分组

接下来,我们将模型参数分组,为不同的层设置不同的学习率:

 # 定义不同组的学习率
 backbone_lr=1e-4  # 较小的学习率用于预训练的主干网络
 classifier_lr=1e-3  # 较大的学习率用于新的分类器层

 # 创建参数组
 params= [
     {'params': model.conv1.parameters(), 'lr': backbone_lr},
     {'params': model.bn1.parameters(), 'lr': backbone_lr},
     {'params': model.layer1.parameters(), 'lr': backbone_lr},
     {'params': model.layer2.parameters(), 'lr': backbone_lr},
     {'params': model.layer3.parameters(), 'lr': backbone_lr},
     {'params': model.layer4.parameters(), 'lr': backbone_lr},
     {'params': model.fc.parameters(), 'lr': classifier_lr}
 ]
AI 代码解读

此处我们对ResNet的各个组件进行了更细致的划分,为不同的层组设置了相应的学习率。这种方法允许我们对模型的学习过程进行更精细的控制。

优化器配置与训练过程

3、优化器设置

在确定了参数分组后,我们需要选择合适的优化器并进行配置。这里我们简单的选用Adam优化器。

 optimizer=torch.optim.Adam(params)
AI 代码解读

这种分组策略同样适用于其他PyTorch支持的优化器,PyTorch的优化器会自动识别并应用在参数分组中定义的不同学习率。这种设计使得实现层级学习率变得相对简单。

4、训练循环

实现了层级学习率后的训练循环保持不变。PyTorch会在后台自动处理不同参数组的学习率:

 # 定义损失函数
 criterion=nn.CrossEntropyLoss()

 # 训练循环
 forepochinrange(num_epochs):
     model.train()
     forinputs, labelsintrain_loader:
         optimizer.zero_grad()
         outputs=model(inputs)
         loss=criterion(outputs, labels)
         loss.backward()
         optimizer.step()

     # 在每个epoch结束后进行验证
     model.eval()
     # ... [验证代码]
AI 代码解读

5、学习率调度

除了设置初始的层级学习率,我们还可以结合学习率调度器来动态调整学习率。PyTorch提供了多种学习率调度器,如

StepLR
AI 代码解读

ReduceLROnPlateau
AI 代码解读

等。以下是一个使用

StepLR
AI 代码解读

的示例:

 fromtorch.optim.lr_schedulerimportStepLR

 scheduler=StepLR(optimizer, step_size=30, gamma=0.1)

 # 在训练循环中更新学习率
 forepochinrange(num_epochs):
     # ... [训练代码]
     scheduler.step()
AI 代码解读

这将每30个epoch将所有参数组的学习率降低为原来的0.1倍。

高级学习率优化技巧

1、渐进式解冻

在微调预训练模型时,一种有效的策略是渐进式解冻。我们可以先锁定底层,只训练顶层,然后逐步解冻更多的层:

 # 初始阶段:只训练分类器
 forparaminmodel.parameters():
     param.requires_grad=False
 model.fc.requires_grad=True

 # 训练几个epoch后
 model.layer4.requires_grad=True

 # 再过几个epoch
 model.layer3.requires_grad=True
AI 代码解读

以此类推,冻结其实意味着学习率为0,也就是不对任何参数进行更新。

2、层适应学习率

我们上面已经介绍了手动指定固定的学习率,其实我们还可以通过自定义优化器来实现,不同的层的不同的学习率范围。我们可以实现一个自定义的优化器来自动调整每一层的学习率:

 classLayerAdaptiveLR(torch.optim.Adam):
     def__init__(self, params, lr=1e-3, betas=(0.9, 0.999), eps=1e-8, weight_decay=0):
         super().__init__(params, lr, betas, eps, weight_decay)
         self.param_groups=sorted(self.param_groups, key=lambdax: id(x['params'][0]))

     defstep(self, closure=None):
         loss=None
         ifclosureisnotNone:
             loss=closure()

         forgroupinself.param_groups:
             forpingroup['params']:
                 ifp.gradisNone:
                     continue
                 grad=p.grad.data
                 state=self.state[p]

                 # 根据梯度统计调整学习率
                 iflen(state) ==0:
                     state['step'] =0
                     state['exp_avg'] =torch.zeros_like(p.data)
                     state['exp_avg_sq'] =torch.zeros_like(p.data)

                 exp_avg, exp_avg_sq=state['exp_avg'], state['exp_avg_sq']
                 beta1, beta2=group['betas']

                 state['step'] +=1

                 exp_avg.mul_(beta1).add_(grad, alpha=1-beta1)
                 exp_avg_sq.mul_(beta2).addcmul_(grad, grad, value=1-beta2)

                 denom=exp_avg_sq.sqrt().add_(group['eps'])

                 # 动态调整学习率
                 step_size=group['lr'] * (exp_avg.abs() /denom).mean().item()
                 p.data.add_(exp_avg, alpha=-step_size)

         returnloss

 # 使用示例
 optimizer=LayerAdaptiveLR(model.parameters(), lr=1e-3)
AI 代码解读

可以看到,上面我们继承自Adam优化器,这里我们不用实现优化过程只针对于针对层的学习率变化即可。

总结

层级学习率设置是一种强大的优化技术,特别适用于迁移学习和微调预训练模型的场景。通过精心设计的学习率策略,可以在保留预训练模型通用特征的同时有效地适应新任务。结合其他高级技巧,如渐进式解冻、层适应学习率,可以进一步提升模型的训练效率和性能。

在实际应用中,最佳的学习率配置往往需要通过实验来确定。建议研究者根据具体任务和模型架构进行适当的调整和实验,以获得最佳的训练效果。

https://avoid.overfit.cn/post/c13411d085974b02bad98504f3ae3fc1

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
目录
打赏
0
4
4
0
533
分享
相关文章
深度学习实践技巧:提升模型性能的详尽指南
深度学习模型在图像分类、自然语言处理、时间序列分析等多个领域都表现出了卓越的性能,但在实际应用中,为了使模型达到最佳效果,常规的标准流程往往不足。本文提供了多种深度学习实践技巧,包括数据预处理、模型设计优化、训练策略和评价与调参等方面的详细操作和代码示例,希望能够为应用实战提供有效的指导和支持。
基于昇腾用PyTorch实现传统CTR模型WideDeep网络
本文介绍了如何在昇腾平台上使用PyTorch实现经典的WideDeep网络模型,以处理推荐系统中的点击率(CTR)预测问题。
257 66
用PyTorch从零构建 DeepSeek R1:模型架构和分步训练详解
本文详细介绍了DeepSeek R1模型的构建过程,涵盖从基础模型选型到多阶段训练流程,再到关键技术如强化学习、拒绝采样和知识蒸馏的应用。
244 3
用PyTorch从零构建 DeepSeek R1:模型架构和分步训练详解
深度学习在资源利用率优化中的应用:让服务器更聪明
深度学习在资源利用率优化中的应用:让服务器更聪明
117 6
PyTorch团队为TorchAO引入1-8比特量化,提升ARM平台性能
PyTorch团队推出创新技术,在其低精度计算库TorchAO中引入低位运算符支持,实现1至8位精度的嵌入层权重量化及8位动态量化激活的线性运算符。该技术通过模块化设计和高效硬件利用,优化了资源受限环境下的深度学习计算,提升了计算效率并降低了资源消耗。新内核与PyTorch生态系统无缝集成,支持即时执行、编译优化及边缘计算,为开发者提供全方位性能优势。测试结果显示,多层次量化策略显著提升了计算效率,保持了模型精度。这一突破为深度学习框架优化开辟了多个研究方向,推动了人工智能在边缘计算等领域的广泛应用。
119 11
PyTorch团队为TorchAO引入1-8比特量化,提升ARM平台性能
MNN:阿里开源的轻量级深度学习推理框架,支持在移动端等多种终端上运行,兼容主流的模型格式
MNN 是阿里巴巴开源的轻量级深度学习推理框架,支持多种设备和主流模型格式,具备高性能和易用性,适用于移动端、服务器和嵌入式设备。
704 18
MNN:阿里开源的轻量级深度学习推理框架,支持在移动端等多种终端上运行,兼容主流的模型格式
使用Python实现智能食品消费需求分析的深度学习模型
使用Python实现智能食品消费需求分析的深度学习模型
114 21
深度学习在安全事件检测中的应用:守护数字世界的利器
深度学习在安全事件检测中的应用:守护数字世界的利器
114 22
深度学习在故障检测中的应用:从理论到实践
深度学习在故障检测中的应用:从理论到实践
275 6
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等