即插即用 | RandomMix 集百家之长实现超越Mixup的数据增强方法!

简介: 即插即用 | RandomMix 集百家之长实现超越Mixup的数据增强方法!

数据增强是一种非常实用的技术,可以用来提高神经网络的泛化能力,防止过拟合。最近,混合样本数据增强受到了很多关注并取得了巨大的成功。为了提高混合样本数据增强的性能,最近的一系列工作致力于获取和分析图像的显著区域,并使用显著区域来指导图像混合。然而,获取图像的显著信息需要大量额外的计算。

与通过显著性分析提高性能不同,提出的方法RandomMix主要增加混合样本的多样性,以增强神经网络的泛化能力和性能。而且,RandomMix可以提高模型的鲁棒性,不需要太多额外的计算,很容易插入到训练管道中。最后在CIFAR-10/100Tiny-ImageNetImageNetGoogle Speech Commands上进行实验数据集表明RandomMix的性能优于其他最先进的混合样本数据增强方法。


1简介


深度神经网络成功的重要原因之一是它具有海量的可学习参数。但是,可以从Vapnik-Chervonenkis(VC)理论推断,当训练数据有限或不足时,更多可学习的参数更容易过拟合训练数据。此外,模型对训练数据分布之外的数据的泛化能力极其有限。为了提高神经网络的泛化能力,防止过拟合,数据增强是一种非常实用的技术。

最近,一系列混合样本数据增强方法被提出并广泛应用于深度神经网络的训练。与传统的数据增强只考虑同一类样本的邻近性不同,混合样本数据增强考虑了不同类样本之间的邻近关系。

Mixup 是混合样本数据增强的开创性工作,它使用线性插值来混合训练样本。CutMix通过将一张图像的patch粘贴到另一张图像上而不是插值来使混合样本多样化。为了提高混合样本数据增强的性能,一些最新的作品如SaliencyMixPuzzle MixCo-Mixup都专注于图像显著性分析。然而,获取图像的显著信息需要大量的额外计算。

与通过显著性分析提高性能的方法不同,本文的方法考虑通过增加混合样本的多样性来提高神经网络的性能。在前人工作的基础上提出了RandomMix,它使混合样本更加多样化,具有更好的性能。此外,RandomMix使模型更加稳健和方便使用。

作者评估了提出的方法在CIFAR-10/100Tiny-ImageNetImageNetGoogle Speech Commands数据集上的性能。实验表明,RandomMix比其他最先进的混合样本数据增强方法具有更好的性能。除了泛化性能实验外,鲁棒性实验表明,在训练期间使用RandomMix可以同时提高模型对对抗性噪声、自然噪声和样本遮挡的稳健性。


2本文方法


2.1 准备工作

Mixup是第一个混合样本数据增强方法。它结合了先验知识,即输入特征向量的线性插值应该导致相关目标的线性插值。在Mixup中,混合操作如下:

image.png

其中和是2个训练样本,是生成的训练样本,混合比λ是从beta分布中采样的, , 对于α∈(0,∞)。

结合MixupCutout的思想,CutMix提出了一种新的数据增强策略,其中在训练图像之间剪切和粘贴块,并且GT标签也与块区域按比例混合。在CutMix中,混合操作定义为:

image.png

其中M表示二进制矩形掩码,指示从2个样本中退出和填充的位置,1是填充有1的二进制掩码,表示元素乘积,混合比λ从均匀分布中采样,λ∼U(0,1)。

为了解决CutMix中标签分配错误和对象信息丢失的问题,ResizeMix通过直接将源图像调整为更小的块,然后将其粘贴到另一张图像上来混合训练数据。

对于Fmix,它使用通过对从傅里叶空间采样的低频图像应用阈值获得的随机二进制掩码,从而进一步改善CutMix混合区域的形状。

2.2 RandomMix

RandomMix的主要目标是通过整合以前的工作来提高模型的鲁棒性并增加训练数据的多样性。此外,RandomMix可以实现更好的性能,并且可以很容易地插入到现有的训练管道中。图1给出了所提方法的说明性表示。

image.png图 1

如图1所示,首先,对输入Batch进行随机样本配对。配对操作定义如下

image.png

其中randperm(·)表示随机排列。接下来,为了获得更多样化的混合样本,通过从候选中随机选择一种混合方法来混合配对样本。随机选择的定义如下,

image.png

其中CandidatesWeights是超参数。例如,可以将Candidates设置为[Mixup,CutMix,ResizeMix,Fmix],将Weights设置为[1,1,1,1]。通过相应的随机抽样得到混合比λ。最后,使用混合样本来训练模型。


3实验


3.1 CIFAR-10 and CIFAR-100

image.png

3.2 Tiny-ImageNet and ImageNet

3.3 Google Speech Commands


4参考


[1].RANDOMMIX: A MIXED SAMPLE DATA AUGMENTATION METHOD WITH MULTIPLE MIXED MODES


5推荐阅读


建议背诵 | 字节用4大准则教你设计一个拥有CNN的速度,Transformer精度的模型!

分割冠军 | 超越Swin v2、PvT v2等模型,ViT-Adaptiver实现ADE20K冠军60.5mIoU

DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作

相关文章
|
4月前
|
人工智能 自然语言处理 算法
谷歌推出”自我发现“框架,极大增强GPT-4等大模型推理能力
【4月更文挑战第20天】谷歌DeepMind团队推出了SELF-DISCOVER框架,让大型语言模型能自我发现并构建推理结构,提升在复杂任务中的性能。该框架模仿人类解决问题方式,分两阶段选择和适应原子推理模块,以解决挑战。在多任务测试中,SELF-DISCOVER相比传统方法表现出色,性能提升42%,计算量减少10至40倍。它具有跨模型应用的普适性,并与人类思维方式相通。然而,它在某些任务类型上仍有优化空间,且需解决计算成本问题。论文链接:https://arxiv.org/abs/2402.03620
73 1
|
2月前
|
机器学习/深度学习 搜索推荐 知识图谱
图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响
【7月更文挑战第22天】北大港大联手打造SelfGNN,一种结合图神经网络与自监督学习的推荐系统,专攻信息过载及数据噪声难题。SelfGNN通过短期图捕获实时用户兴趣,利用自增强学习提升模型鲁棒性,实现多时间尺度动态行为建模,大幅优化推荐准确度与时效性。经四大真实数据集测试,SelfGNN在准确性和抗噪能力上超越现有模型。尽管如此,高计算复杂度及对图构建质量的依赖仍是待克服挑战。[详细论文](https://arxiv.org/abs/2405.20878)。
56 5
|
3月前
|
机器学习/深度学习 语音技术
多模态大模型不够灵活,谷歌DeepMind创新架构Zipper:分开训练再压缩
【6月更文挑战第12天】谷歌DeepMind的Zipper架构解决了多模态大模型灵活性问题,通过分解为单模态模型并用“压缩”过程组合,实现多模态生成。该方法允许独立训练每个模态,提升灵活性和可扩展性,适用于数据有限或领域特定的模态。Zipper利用交叉注意力机制融合模态输出,适用于图像描述、语音识别等任务。尽管需要更多计算资源且性能受限于单模态模型质量,但已在ASR和TTS领域展现潜力。论文链接:https://arxiv.org/pdf/2405.18669
47 3
|
4月前
|
人工智能
MIT等首次深度研究集成LLM预测能力:可媲美人类群体准确率
【4月更文挑战第16天】研究人员集成12个大型语言模型(LLM)组成“硅基群体”,在预测比赛中与925名人类预测者对比。研究发现,LLM群体的预测准确性与人类群体无显著差异,且通过集成可抵消个体模型的偏差,提高预测准确。GPT-4和Claude 2等模型结合人类预测后,准确度提升17%至28%。然而,个别LLM预测精度不一,模型选择和校准度是提升预测性能的关键,同时LLM在时间跨度和现实场景适应性方面仍有挑战。
71 6
MIT等首次深度研究集成LLM预测能力:可媲美人类群体准确率
|
3月前
|
机器学习/深度学习 自然语言处理 物联网
ICML 2024:脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了
【6月更文挑战第4天】在ICML 2024上,研究团队提出了傅立叶变换微调(FourierFT),一种减少训练参数的新方法,替代了依赖LoRA的微调。FourierFT通过学习权重变化矩阵的稀疏频谱系数,实现了LFMs的高效微调。在多项任务上,FourierFT展示出与LoRA相当或更优的性能,参数量却大幅减少,如在LLaMA2-7B模型上,仅需0.064M参数,对比LoRA的33.5M。广泛实验验证了其在NLP和CV任务上的效果,但未来还需探索其适用性和泛化能力。论文链接:[arxiv.org/abs/2405.03003](https://arxiv.org/abs/2405.03003)
71 0
|
4月前
|
机器学习/深度学习 数据采集 人工智能
ICLR 2024:RLHF有了通用平台和基准,天大开源,专攻现实决策场景
【4月更文挑战第21天】天津大学在ICLR 2024发布RLHF新框架Uni-RLHF,以人类反馈引导强化学习,降低奖励函数设计需求,适应现实决策场景。该框架提供通用平台和基准,支持大规模众包注释,促进研究。尽管面临准确捕捉人类反馈、数据质量和多任务处理等挑战,但开源特性加速了学术进步。[链接](https://arxiv.org/abs/2402.02423)
72 0
|
4月前
|
人工智能
2024年,最先进的封闭模型将继续以显著优势胜过最先进的开放模型
【1月更文挑战第14天】2024年,最先进的封闭模型将继续以显著优势胜过最先进的开放模型
65 1
2024年,最先进的封闭模型将继续以显著优势胜过最先进的开放模型
|
4月前
|
机器学习/深度学习 编解码 数据可视化
南开大学提出YOLO-MS | 超越YOLOv8与RTMDet,即插即用打破性能瓶颈
南开大学提出YOLO-MS | 超越YOLOv8与RTMDet,即插即用打破性能瓶颈
82 1
|
4月前
|
机器学习/深度学习 存储 编解码
沈春华团队最新 | SegViT v2对SegViT进行全面升级,让基于ViT的分割模型更轻更强
沈春华团队最新 | SegViT v2对SegViT进行全面升级,让基于ViT的分割模型更轻更强
87 0
|
机器学习/深度学习
结合亲和力提高了 28.7 倍,基于端到端贝叶斯语言模型的方法设计大型、多样化的高亲和力抗体库
结合亲和力提高了 28.7 倍,基于端到端贝叶斯语言模型的方法设计大型、多样化的高亲和力抗体库
104 0