在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
实时计算 Flink 版,5000CU*H 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
简介: 在深度学习中,学习率作为关键超参数对模型收敛速度和性能至关重要。传统方法采用统一学习率,但研究表明为不同层设置差异化学习率能显著提升性能。本文探讨了这一策略的理论基础及PyTorch实现方法,包括模型定义、参数分组、优化器配置及训练流程。通过示例展示了如何为ResNet18设置不同层的学习率,并介绍了渐进式解冻和层适应学习率等高级技巧,帮助研究者更好地优化模型训练。

在深度学习模型的训练过程中,学习率作为一个关键的超参数,对模型的收敛速度和最终性能有着重大影响。传统方法通常采用统一的学习率,但随着研究的深入,我们发现为网络的不同层设置不同的学习率可能会带来显著的性能提升。本文将详细探讨这一策略的实施方法及其在PyTorch框架中的具体应用。

层级学习率的理论基础

深度神经网络的不同层次在特征提取和信息处理上扮演着不同的角色。基于这一认知,我们可以合理推断对不同层采用差异化的学习策略可能会更有效:

  1. 底层特征提取:网络的前几层通常负责捕获通用的低级特征,如边缘、纹理等。这些特征往往具有较强的通用性和可迁移性。
  2. 高层语义理解:网络的后几层则倾向于提取更为抽象和任务相关的高级特征。
  3. 任务特定层:如全连接分类层,直接与特定任务相关。

基于上述观察我们可以制定相应的学习率策略:

  • 对于预训练的底层,使用较小的学习率以保持其已学到的通用特征。
  • 对于中间层,可以采用适中的学习率。
  • 对于任务特定的顶层,则可以使用较大的学习率以快速适应新任务。

PyTorch实现:以ResNet为例

下面我们将以ResNet18为例,演示如何在PyTorch中实现层级学习率设置。

1、模型定义

首先,我们加载预训练的ResNet18模型,并修改其最后一层以适应新的分类任务:

 importtorch
 importtorch.nnasnn
 importtorchvision.modelsasmodels

 # 加载预训练的ResNet18模型
 model=models.resnet18(pretrained=True)

 # 修改最后的全连接层以适应新的分类任务
 num_classes=10  # 假设新任务有10个类别
 model.fc=nn.Linear(model.fc.in_features, num_classes)

2、参数分组

接下来,我们将模型参数分组,为不同的层设置不同的学习率:

 # 定义不同组的学习率
 backbone_lr=1e-4  # 较小的学习率用于预训练的主干网络
 classifier_lr=1e-3  # 较大的学习率用于新的分类器层

 # 创建参数组
 params= [
     {'params': model.conv1.parameters(), 'lr': backbone_lr},
     {'params': model.bn1.parameters(), 'lr': backbone_lr},
     {'params': model.layer1.parameters(), 'lr': backbone_lr},
     {'params': model.layer2.parameters(), 'lr': backbone_lr},
     {'params': model.layer3.parameters(), 'lr': backbone_lr},
     {'params': model.layer4.parameters(), 'lr': backbone_lr},
     {'params': model.fc.parameters(), 'lr': classifier_lr}
 ]

此处我们对ResNet的各个组件进行了更细致的划分,为不同的层组设置了相应的学习率。这种方法允许我们对模型的学习过程进行更精细的控制。

优化器配置与训练过程

3、优化器设置

在确定了参数分组后,我们需要选择合适的优化器并进行配置。这里我们简单的选用Adam优化器。

 optimizer=torch.optim.Adam(params)

这种分组策略同样适用于其他PyTorch支持的优化器,PyTorch的优化器会自动识别并应用在参数分组中定义的不同学习率。这种设计使得实现层级学习率变得相对简单。

4、训练循环

实现了层级学习率后的训练循环保持不变。PyTorch会在后台自动处理不同参数组的学习率:

 # 定义损失函数
 criterion=nn.CrossEntropyLoss()

 # 训练循环
 forepochinrange(num_epochs):
     model.train()
     forinputs, labelsintrain_loader:
         optimizer.zero_grad()
         outputs=model(inputs)
         loss=criterion(outputs, labels)
         loss.backward()
         optimizer.step()

     # 在每个epoch结束后进行验证
     model.eval()
     # ... [验证代码]

5、学习率调度

除了设置初始的层级学习率,我们还可以结合学习率调度器来动态调整学习率。PyTorch提供了多种学习率调度器,如

StepLR

ReduceLROnPlateau

等。以下是一个使用

StepLR

的示例:

 fromtorch.optim.lr_schedulerimportStepLR

 scheduler=StepLR(optimizer, step_size=30, gamma=0.1)

 # 在训练循环中更新学习率
 forepochinrange(num_epochs):
     # ... [训练代码]
     scheduler.step()

这将每30个epoch将所有参数组的学习率降低为原来的0.1倍。

高级学习率优化技巧

1、渐进式解冻

在微调预训练模型时,一种有效的策略是渐进式解冻。我们可以先锁定底层,只训练顶层,然后逐步解冻更多的层:

 # 初始阶段:只训练分类器
 forparaminmodel.parameters():
     param.requires_grad=False
 model.fc.requires_grad=True

 # 训练几个epoch后
 model.layer4.requires_grad=True

 # 再过几个epoch
 model.layer3.requires_grad=True

以此类推,冻结其实意味着学习率为0,也就是不对任何参数进行更新。

2、层适应学习率

我们上面已经介绍了手动指定固定的学习率,其实我们还可以通过自定义优化器来实现,不同的层的不同的学习率范围。我们可以实现一个自定义的优化器来自动调整每一层的学习率:

 classLayerAdaptiveLR(torch.optim.Adam):
     def__init__(self, params, lr=1e-3, betas=(0.9, 0.999), eps=1e-8, weight_decay=0):
         super().__init__(params, lr, betas, eps, weight_decay)
         self.param_groups=sorted(self.param_groups, key=lambdax: id(x['params'][0]))

     defstep(self, closure=None):
         loss=None
         ifclosureisnotNone:
             loss=closure()

         forgroupinself.param_groups:
             forpingroup['params']:
                 ifp.gradisNone:
                     continue
                 grad=p.grad.data
                 state=self.state[p]

                 # 根据梯度统计调整学习率
                 iflen(state) ==0:
                     state['step'] =0
                     state['exp_avg'] =torch.zeros_like(p.data)
                     state['exp_avg_sq'] =torch.zeros_like(p.data)

                 exp_avg, exp_avg_sq=state['exp_avg'], state['exp_avg_sq']
                 beta1, beta2=group['betas']

                 state['step'] +=1

                 exp_avg.mul_(beta1).add_(grad, alpha=1-beta1)
                 exp_avg_sq.mul_(beta2).addcmul_(grad, grad, value=1-beta2)

                 denom=exp_avg_sq.sqrt().add_(group['eps'])

                 # 动态调整学习率
                 step_size=group['lr'] * (exp_avg.abs() /denom).mean().item()
                 p.data.add_(exp_avg, alpha=-step_size)

         returnloss

 # 使用示例
 optimizer=LayerAdaptiveLR(model.parameters(), lr=1e-3)

可以看到,上面我们继承自Adam优化器,这里我们不用实现优化过程只针对于针对层的学习率变化即可。

总结

层级学习率设置是一种强大的优化技术,特别适用于迁移学习和微调预训练模型的场景。通过精心设计的学习率策略,可以在保留预训练模型通用特征的同时有效地适应新任务。结合其他高级技巧,如渐进式解冻、层适应学习率,可以进一步提升模型的训练效率和性能。

在实际应用中,最佳的学习率配置往往需要通过实验来确定。建议研究者根据具体任务和模型架构进行适当的调整和实验,以获得最佳的训练效果。

https://avoid.overfit.cn/post/c13411d085974b02bad98504f3ae3fc1

目录
相关文章
|
11天前
|
弹性计算 人工智能 架构师
阿里云携手Altair共拓云上工业仿真新机遇
2024年9月12日,「2024 Altair 技术大会杭州站」成功召开,阿里云弹性计算产品运营与生态负责人何川,与Altair中国技术总监赵阳在会上联合发布了最新的“云上CAE一体机”。
阿里云携手Altair共拓云上工业仿真新机遇
|
8天前
|
机器学习/深度学习 算法 大数据
【BetterBench博士】2024 “华为杯”第二十一届中国研究生数学建模竞赛 选题分析
2024“华为杯”数学建模竞赛,对ABCDEF每个题进行详细的分析,涵盖风电场功率优化、WLAN网络吞吐量、磁性元件损耗建模、地理环境问题、高速公路应急车道启用和X射线脉冲星建模等多领域问题,解析了问题类型、专业和技能的需要。
2520 17
【BetterBench博士】2024 “华为杯”第二十一届中国研究生数学建模竞赛 选题分析
|
7天前
|
机器学习/深度学习 算法 数据可视化
【BetterBench博士】2024年中国研究生数学建模竞赛 C题:数据驱动下磁性元件的磁芯损耗建模 问题分析、数学模型、python 代码
2024年中国研究生数学建模竞赛C题聚焦磁性元件磁芯损耗建模。题目背景介绍了电能变换技术的发展与应用,强调磁性元件在功率变换器中的重要性。磁芯损耗受多种因素影响,现有模型难以精确预测。题目要求通过数据分析建立高精度磁芯损耗模型。具体任务包括励磁波形分类、修正斯坦麦茨方程、分析影响因素、构建预测模型及优化设计条件。涉及数据预处理、特征提取、机器学习及优化算法等技术。适合电气、材料、计算机等多个专业学生参与。
1522 14
【BetterBench博士】2024年中国研究生数学建模竞赛 C题:数据驱动下磁性元件的磁芯损耗建模 问题分析、数学模型、python 代码
|
3天前
|
存储 关系型数据库 分布式数据库
GraphRAG:基于PolarDB+通义千问+LangChain的知识图谱+大模型最佳实践
本文介绍了如何使用PolarDB、通义千问和LangChain搭建GraphRAG系统,结合知识图谱和向量检索提升问答质量。通过实例展示了单独使用向量检索和图检索的局限性,并通过图+向量联合搜索增强了问答准确性。PolarDB支持AGE图引擎和pgvector插件,实现图数据和向量数据的统一存储与检索,提升了RAG系统的性能和效果。
|
9天前
|
编解码 JSON 自然语言处理
通义千问重磅开源Qwen2.5,性能超越Llama
击败Meta,阿里Qwen2.5再登全球开源大模型王座
573 14
|
1月前
|
运维 Cloud Native Devops
一线实战:运维人少,我们从 0 到 1 实践 DevOps 和云原生
上海经证科技有限公司为有效推进软件项目管理和开发工作,选择了阿里云云效作为 DevOps 解决方案。通过云效,实现了从 0 开始,到现在近百个微服务、数百条流水线与应用交付的全面覆盖,有效支撑了敏捷开发流程。
19282 30
|
10天前
|
人工智能 自动驾驶 机器人
吴泳铭:AI最大的想象力不在手机屏幕,而是改变物理世界
过去22个月,AI发展速度超过任何历史时期,但我们依然还处于AGI变革的早期。生成式AI最大的想象力,绝不是在手机屏幕上做一两个新的超级app,而是接管数字世界,改变物理世界。
481 49
吴泳铭:AI最大的想象力不在手机屏幕,而是改变物理世界
|
1月前
|
人工智能 自然语言处理 搜索推荐
阿里云Elasticsearch AI搜索实践
本文介绍了阿里云 Elasticsearch 在AI 搜索方面的技术实践与探索。
18839 20
|
1月前
|
Rust Apache 对象存储
Apache Paimon V0.9最新进展
Apache Paimon V0.9 版本即将发布,此版本带来了多项新特性并解决了关键挑战。Paimon自2022年从Flink社区诞生以来迅速成长,已成为Apache顶级项目,并广泛应用于阿里集团内外的多家企业。
17528 13
Apache Paimon V0.9最新进展
|
2天前
|
云安全 存储 运维
叮咚!您有一份六大必做安全操作清单,请查收
云安全态势管理(CSPM)开启免费试用
364 4
叮咚!您有一份六大必做安全操作清单,请查收