3实验
3.1 消融实验
如表7所示,原始的ConvNeXt比Swin-Transformer具有更强的鲁棒性,但不如FAN-ViT和FAN-Swin模型。同时,FAN-hybrid具有与FAN-vit和FAN-swin相当的鲁棒性,并且对于干净数据集和已损坏数据集都具有更高的精度,这意味着FAN也可以有效地增强基于CNN的模型的鲁棒性。与FAN-Swin类似,FAN-Hybrid对于大分辨率的输入和密集的预测任务具有高效性,有利于下游任务。
3.2 SOTA对比
4参考
[1].Understanding The Robustness in Vision Transformers.
5推荐阅读
NAS-ViT | 超低FLOPs与Params实现50FPS的CPU推理,精度却超越ResNet50!!!
PolyLoss | 统一CE Loss与Focal Loss,PolyLoss用1行代码+1个超参完成超车!!!
超越 Swin、ConvNeXt | Facebook提出Neighborhood Attention Transformer