即插即用 | RandomMix 集百家之长实现超越Mixup的数据增强方法!

简介: 即插即用 | RandomMix 集百家之长实现超越Mixup的数据增强方法!

数据增强是一种非常实用的技术,可以用来提高神经网络的泛化能力,防止过拟合。最近,混合样本数据增强受到了很多关注并取得了巨大的成功。为了提高混合样本数据增强的性能,最近的一系列工作致力于获取和分析图像的显著区域,并使用显著区域来指导图像混合。然而,获取图像的显著信息需要大量额外的计算。

与通过显著性分析提高性能不同,提出的方法RandomMix主要增加混合样本的多样性,以增强神经网络的泛化能力和性能。而且,RandomMix可以提高模型的鲁棒性,不需要太多额外的计算,很容易插入到训练管道中。最后在CIFAR-10/100Tiny-ImageNetImageNetGoogle Speech Commands上进行实验数据集表明RandomMix的性能优于其他最先进的混合样本数据增强方法。


1简介


深度神经网络成功的重要原因之一是它具有海量的可学习参数。但是,可以从Vapnik-Chervonenkis(VC)理论推断,当训练数据有限或不足时,更多可学习的参数更容易过拟合训练数据。此外,模型对训练数据分布之外的数据的泛化能力极其有限。为了提高神经网络的泛化能力,防止过拟合,数据增强是一种非常实用的技术。

最近,一系列混合样本数据增强方法被提出并广泛应用于深度神经网络的训练。与传统的数据增强只考虑同一类样本的邻近性不同,混合样本数据增强考虑了不同类样本之间的邻近关系。

Mixup 是混合样本数据增强的开创性工作,它使用线性插值来混合训练样本。CutMix通过将一张图像的patch粘贴到另一张图像上而不是插值来使混合样本多样化。为了提高混合样本数据增强的性能,一些最新的作品如SaliencyMixPuzzle MixCo-Mixup都专注于图像显著性分析。然而,获取图像的显著信息需要大量的额外计算。

与通过显著性分析提高性能的方法不同,本文的方法考虑通过增加混合样本的多样性来提高神经网络的性能。在前人工作的基础上提出了RandomMix,它使混合样本更加多样化,具有更好的性能。此外,RandomMix使模型更加稳健和方便使用。

作者评估了提出的方法在CIFAR-10/100Tiny-ImageNetImageNetGoogle Speech Commands数据集上的性能。实验表明,RandomMix比其他最先进的混合样本数据增强方法具有更好的性能。除了泛化性能实验外,鲁棒性实验表明,在训练期间使用RandomMix可以同时提高模型对对抗性噪声、自然噪声和样本遮挡的稳健性。


2本文方法


2.1 准备工作

Mixup是第一个混合样本数据增强方法。它结合了先验知识,即输入特征向量的线性插值应该导致相关目标的线性插值。在Mixup中,混合操作如下:

image.png

其中和是2个训练样本,是生成的训练样本,混合比λ是从beta分布中采样的, , 对于α∈(0,∞)。

结合MixupCutout的思想,CutMix提出了一种新的数据增强策略,其中在训练图像之间剪切和粘贴块,并且GT标签也与块区域按比例混合。在CutMix中,混合操作定义为:

image.png

其中M表示二进制矩形掩码,指示从2个样本中退出和填充的位置,1是填充有1的二进制掩码,表示元素乘积,混合比λ从均匀分布中采样,λ∼U(0,1)。

为了解决CutMix中标签分配错误和对象信息丢失的问题,ResizeMix通过直接将源图像调整为更小的块,然后将其粘贴到另一张图像上来混合训练数据。

对于Fmix,它使用通过对从傅里叶空间采样的低频图像应用阈值获得的随机二进制掩码,从而进一步改善CutMix混合区域的形状。

2.2 RandomMix

RandomMix的主要目标是通过整合以前的工作来提高模型的鲁棒性并增加训练数据的多样性。此外,RandomMix可以实现更好的性能,并且可以很容易地插入到现有的训练管道中。图1给出了所提方法的说明性表示。

image.png图 1

如图1所示,首先,对输入Batch进行随机样本配对。配对操作定义如下

image.png

其中randperm(·)表示随机排列。接下来,为了获得更多样化的混合样本,通过从候选中随机选择一种混合方法来混合配对样本。随机选择的定义如下,

image.png

其中CandidatesWeights是超参数。例如,可以将Candidates设置为[Mixup,CutMix,ResizeMix,Fmix],将Weights设置为[1,1,1,1]。通过相应的随机抽样得到混合比λ。最后,使用混合样本来训练模型。


3实验


3.1 CIFAR-10 and CIFAR-100

image.png

3.2 Tiny-ImageNet and ImageNet

3.3 Google Speech Commands


4参考


[1].RANDOMMIX: A MIXED SAMPLE DATA AUGMENTATION METHOD WITH MULTIPLE MIXED MODES


5推荐阅读


建议背诵 | 字节用4大准则教你设计一个拥有CNN的速度,Transformer精度的模型!

分割冠军 | 超越Swin v2、PvT v2等模型,ViT-Adaptiver实现ADE20K冠军60.5mIoU

DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作

相关文章
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
还是原装Transformer好!北大清华团队同时揭示Mamba等推理短板
北京大学和清华大学的研究团队分别发表论文,探讨了高效Transformer模型如Sparse Transformer和Linear Transformer在推理能力和上下文检索上的局限性,强调了原装Transformer在处理复杂任务上的优势。研究显示,尽管高效模型提升了计算效率,但在某些任务上,如动态规划问题和算法问题,以及上下文信息的精准提取方面,仍不及原装Transformer。这突显了原装Transformer在复杂推理任务中的不可替代性及其架构的灵活性和可扩展性。同时,研究也为未来高效Transformer的优化提供了方向。
22 4
|
4月前
|
机器学习/深度学习 搜索推荐 知识图谱
图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响
【7月更文挑战第22天】北大港大联手打造SelfGNN,一种结合图神经网络与自监督学习的推荐系统,专攻信息过载及数据噪声难题。SelfGNN通过短期图捕获实时用户兴趣,利用自增强学习提升模型鲁棒性,实现多时间尺度动态行为建模,大幅优化推荐准确度与时效性。经四大真实数据集测试,SelfGNN在准确性和抗噪能力上超越现有模型。尽管如此,高计算复杂度及对图构建质量的依赖仍是待克服挑战。[详细论文](https://arxiv.org/abs/2405.20878)。
82 5
|
5月前
|
机器学习/深度学习 语音技术
多模态大模型不够灵活,谷歌DeepMind创新架构Zipper:分开训练再压缩
【6月更文挑战第12天】谷歌DeepMind的Zipper架构解决了多模态大模型灵活性问题,通过分解为单模态模型并用“压缩”过程组合,实现多模态生成。该方法允许独立训练每个模态,提升灵活性和可扩展性,适用于数据有限或领域特定的模态。Zipper利用交叉注意力机制融合模态输出,适用于图像描述、语音识别等任务。尽管需要更多计算资源且性能受限于单模态模型质量,但已在ASR和TTS领域展现潜力。论文链接:https://arxiv.org/pdf/2405.18669
66 3
|
5月前
|
机器学习/深度学习 自然语言处理 物联网
ICML 2024:脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了
【6月更文挑战第4天】在ICML 2024上,研究团队提出了傅立叶变换微调(FourierFT),一种减少训练参数的新方法,替代了依赖LoRA的微调。FourierFT通过学习权重变化矩阵的稀疏频谱系数,实现了LFMs的高效微调。在多项任务上,FourierFT展示出与LoRA相当或更优的性能,参数量却大幅减少,如在LLaMA2-7B模型上,仅需0.064M参数,对比LoRA的33.5M。广泛实验验证了其在NLP和CV任务上的效果,但未来还需探索其适用性和泛化能力。论文链接:[arxiv.org/abs/2405.03003](https://arxiv.org/abs/2405.03003)
108 0
|
6月前
|
机器学习/深度学习 编解码 数据可视化
南开大学提出YOLO-MS | 超越YOLOv8与RTMDet,即插即用打破性能瓶颈
南开大学提出YOLO-MS | 超越YOLOv8与RTMDet,即插即用打破性能瓶颈
109 1
|
6月前
|
机器学习/深度学习 存储 人工智能
存内计算芯片研究进展及应用—以基于NorFlash的卷积神经网络量化及部署研究突出存内计算特性
存内计算芯片研究进展及应用—以基于NorFlash的卷积神经网络量化及部署研究突出存内计算特性
386 3
|
6月前
|
机器学习/深度学习 存储 编解码
沈春华团队最新 | SegViT v2对SegViT进行全面升级,让基于ViT的分割模型更轻更强
沈春华团队最新 | SegViT v2对SegViT进行全面升级,让基于ViT的分割模型更轻更强
113 0
|
机器学习/深度学习 编解码 计算机视觉
全新轻量化模型 | 轻量化沙漏网络助力视觉感知涨点
全新轻量化模型 | 轻量化沙漏网络助力视觉感知涨点
172 0
|
机器学习/深度学习 存储 人工智能
阿里巴巴提出USI 让AI炼丹自动化了,训练任何Backbone无需超参配置,实现大一统!
阿里巴巴提出USI 让AI炼丹自动化了,训练任何Backbone无需超参配置,实现大一统!
330 0
|
人工智能
IJCAI 2022 | 用一行代码大幅提升零样本学习方法效果,南京理工&牛津提出即插即用分类器模块
IJCAI 2022 | 用一行代码大幅提升零样本学习方法效果,南京理工&牛津提出即插即用分类器模块
151 0
下一篇
无影云桌面