涨点Trick | ReLabel超越LabelSmoothing解决单图多类单标签问题(附论文与源码下载)(二)

简介: 涨点Trick | ReLabel超越LabelSmoothing解决单图多类单标签问题(附论文与源码下载)(二)

4. 讨论


4.1 Space consumption

前面提到本文利用EfficientNet-L2作为Machine Annotators分类器,其输入大小为475×475。并通过前向传播来生成标签 。保存所有类别的整个标签映射将需要超过1tb的存储:128万张图片×≈1.0TB。但是对于每个图像,超出几个top-k类的像素级预测基本上是零。因此,通过只存储每个图像的前5个预测结果来节省存储空间,结果是10个 GB标签Map数据。这相当于在原始ImageNet数据之上仅增加10%的额外空间。

4.2 Time consumption

ReLabel需要一次性的计算成本来通过Machine Annotators转发ImageNet训练图像。这个过程大约需要10小时,仅占ResNet-50整个训练时间的3.3%。对于每次训练迭代,LabelPooling在标准ImageNet监督之上执行标签映射加载和区域池化操作仅增加0.5%的训练时间。

请注意,ReLabel比知识蒸馏在计算效率上要高得多,知识蒸馏需要在每次迭代中向前通过Teacher Model。例如,KD使用EfficientNet-B7 Teacher Model所花费的训练时间是原来的4倍多。

4.3 Which machine annotator should we select?

理想情况下Machine Annotators可以为训练图像提供精确的标签。为此,本文作者考虑由几个最先进的分类器EfficientNetf-{B1、B3、B5、B7、B8}生成的ReLabel,使用JFT-300M训练EfficientNet-L2,以及使用InstagramNet-1B训练的ResNeXT_101_32x{32d,48d}。通过使用以上来自不同分类器的标签映射来训练ResNet-50。注意,ResNet-50在vanilla single labels训练时达到了top-1的验证精度77.5%。

image.png

如图所示,目标模型的总体性能遵循Machine Annotators的性能。当机器监督不够强时(如EfficientNet-B1),训练后的模型表现出严重的性能下降(76.1%)。因此最终选择了EfficientNet-L2作为Machine Annotators,使ResNet-50的性能达到最佳(78.9%)。

4.4 Factor analysis of ReLabel

ReLabel是multi-label和pixel-wise。为了检验这两种性质的必要性,进行了消融实验。考虑到RoIAlign区域池化后localized single labels是通过argmax取代操作获得L_{loc,single}\in {0,1}^C。

对于全局multi-label,本文在标签映射上使用全局平均池化,而不是RoIAlign,从而产生标签。

最后,通过先执行全局平均池化,再执行argmax操作便可以得到全局单标签$L_{loc,single}\in {0,1}^C;注意标签与原始ImageNet标签有相同的格式,只不过是由机器生成的。

image.png

这4个变量的结果如表所示。观察到78.9%的ReLabel性能,去除多标签和本地化标签分别导致下降0.5和0.4。

当两者都缺失时有1.4下降。因此,认为这2种因素对于良好的性能都是不可或缺的。还要注意,与原始ImageNet标签相比,机器生成的global, single labels不会带来任何收益。这进一步表明了上述属性从Machine Annotators中获得最大益处的重要性。

4.5 Confidence of ReLabel supervision

本文研究了在random crop和groundtruth bounding box的不同重叠水平下,ReLabel监督的置信度。

如图所示,绘制了5万个random crop样本。根据合并标签的最大分类概率来衡量ReLabel监督的置信度(即,其中)。

结果如图所示。ReLabel整体的平均监督程度遵循对象存在的程度,特别是与对象区域重叠较小的情况(IoU<0.4)。

例如,当IoU为0时(即random crop在目标区域之外),则标签置信度低于0.6为训练模型提供了一些不确定性信号。


5 实验


5.1 与其他标签操作的比较

通过上表可以看出,与Label Smoothing和Label Clean相比,ReLabel提升比较明显。

由上表可以看出,通过在ResNet的基础模型上使用ReLabel可以有效的提升Top-1的精度,如果结合CutMix一起使用,提升也会更加的明显。

由上表可以看出,ReLabel方法具有一定的泛化性,不仅仅只在ResNet上有效,在EfficientNet和ResNeXT上依旧有效。

5.2 Transfer Learning

可以看出在检测任务上也有很好的性能。

可以看出在多类分类问题任务上也有很好的性能。


参考


[1].Re-labeling ImageNet:from Single to Multi-Labels, from Global to Localized Labels.

[2].https://github.com/naver-ai/relabel_imagenet.

相关文章
|
机器学习/深度学习 编解码 算法
DL之DeepLabv2:DeepLab v2算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之DeepLabv2:DeepLab v2算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之DeepLabv2:DeepLab v2算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
|
机器学习/深度学习 计算机视觉
涨点Trick | ReLabel超越LabelSmoothing解决单图多类单标签问题(附论文与源码下载)(一)
涨点Trick | ReLabel超越LabelSmoothing解决单图多类单标签问题(附论文与源码下载)(一)
121 0
|
机器学习/深度学习 编解码 PyTorch
涨点Trick | 你还在用MaxPooling和AvgPooling?SoftPool带你起飞(附论文与源码下载​)(二)
涨点Trick | 你还在用MaxPooling和AvgPooling?SoftPool带你起飞(附论文与源码下载​)(二)
409 0
|
机器学习/深度学习 计算机视觉 网络架构
涨点Trick | 你还在用MaxPooling和AvgPooling?SoftPool带你起飞(附论文与源码下载​)(一)
涨点Trick | 你还在用MaxPooling和AvgPooling?SoftPool带你起飞(附论文与源码下载​)(一)
169 0
|
编解码 计算机视觉
最强检测 | YOLO V4?都是弟弟! CenterNet2以56.4mAP超越当前所有检测模型(附源码与论文)(二)
最强检测 | YOLO V4?都是弟弟! CenterNet2以56.4mAP超越当前所有检测模型(附源码与论文)(二)
240 0
|
计算机视觉
最强检测 | YOLO V4?都是弟弟! CenterNet2以56.4mAP超越当前所有检测模型(附源码与论文)(一)
最强检测 | YOLO V4?都是弟弟! CenterNet2以56.4mAP超越当前所有检测模型(附源码与论文)(一)
129 0
|
机器学习/深度学习 SQL 编解码
涨点明显 | 港中文等提出SplitNet结合Co-Training提升Backbone性能(附源码和论文)(一)
涨点明显 | 港中文等提出SplitNet结合Co-Training提升Backbone性能(附源码和论文)(一)
171 0
涨点明显 | 港中文等提出SplitNet结合Co-Training提升Backbone性能(附源码和论文)(二)
涨点明显 | 港中文等提出SplitNet结合Co-Training提升Backbone性能(附源码和论文)(二)
97 0
|
自然语言处理 区块链
长文本生成更流畅,斯坦福研究者引入时间控制方法,论文入选ICLR 2022
长文本生成更流畅,斯坦福研究者引入时间控制方法,论文入选ICLR 2022
|
机器学习/深度学习 自然语言处理 算法
【论文笔记】文本版的Mixup数据增强算法:SSMix
【论文笔记】文本版的Mixup数据增强算法:SSMix
707 0
【论文笔记】文本版的Mixup数据增强算法:SSMix