即插即用 | 英伟达提出FAN,鲁棒性和高效性超越ConvNeXt、Swin(二)

简介: 即插即用 | 英伟达提出FAN,鲁棒性和高效性超越ConvNeXt、Swin(二)

3实验


3.1 消融实验

image.png

如表7所示,原始的ConvNeXt比Swin-Transformer具有更强的鲁棒性,但不如FAN-ViT和FAN-Swin模型。同时,FAN-hybrid具有与FAN-vit和FAN-swin相当的鲁棒性,并且对于干净数据集和已损坏数据集都具有更高的精度,这意味着FAN也可以有效地增强基于CNN的模型的鲁棒性。与FAN-Swin类似,FAN-Hybrid对于大分辨率的输入和密集的预测任务具有高效性,有利于下游任务。

3.2 SOTA对比

image.png


4参考


[1].Understanding The Robustness in Vision Transformers.


5推荐阅读


NAS-ViT | 超低FLOPs与Params实现50FPS的CPU推理,精度却超越ResNet50!!!

PolyLoss | 统一CE Loss与Focal Loss,PolyLoss用1行代码+1个超参完成超车!!!

超越 Swin、ConvNeXt | Facebook提出Neighborhood Attention Transformer

相关文章
|
19天前
|
机器学习/深度学习 编解码 数据可视化
即插即用 | 高效多尺度注意力模型成为YOLOv5改进的小帮手
即插即用 | 高效多尺度注意力模型成为YOLOv5改进的小帮手
151 1
|
19天前
|
机器学习/深度学习 编解码 数据可视化
南开大学提出YOLO-MS | 超越YOLOv8与RTMDet,即插即用打破性能瓶颈
南开大学提出YOLO-MS | 超越YOLOv8与RTMDet,即插即用打破性能瓶颈
54 1
|
19天前
|
机器学习/深度学习 编解码 数据可视化
即插即用 | 清华大学提出Focused Linear Attention取代Self-Attention成为ViT的新宠
即插即用 | 清华大学提出Focused Linear Attention取代Self-Attention成为ViT的新宠
95 0
|
19天前
|
机器学习/深度学习
YOLOv8改进 | 主干篇 | EfficientViT高效的特征提取网络完爆MobileNet系列(轻量化网络结构)
YOLOv8改进 | 主干篇 | EfficientViT高效的特征提取网络完爆MobileNet系列(轻量化网络结构)
248 0
|
机器学习/深度学习 存储 数据可视化
即插即用 | 英伟达提出FAN,鲁棒性和高效性超越ConvNeXt、Swin(一)
即插即用 | 英伟达提出FAN,鲁棒性和高效性超越ConvNeXt、Swin(一)
67 0
|
机器学习/深度学习 编解码 计算机视觉
三星提出XFormer | 超越MobileViT、DeiT、MobileNet等模型
三星提出XFormer | 超越MobileViT、DeiT、MobileNet等模型
405 0
|
编解码 监控 算法
Efficient-HRNet | EfficientNet思想+HRNet技术会不会更强更快呢?(一)
Efficient-HRNet | EfficientNet思想+HRNet技术会不会更强更快呢?(一)
153 0
|
编解码 监控 数据可视化
Efficient-HRNet | EfficientNet思想+HRNet技术会不会更强更快呢?(二)
Efficient-HRNet | EfficientNet思想+HRNet技术会不会更强更快呢?(二)
176 0
|
机器学习/深度学习 编解码 PyTorch
港中文提出 EdgeViT | 超越MobileViT与MobileNet,实现Transformer在CPU上实时
港中文提出 EdgeViT | 超越MobileViT与MobileNet,实现Transformer在CPU上实时
206 0
|
机器学习/深度学习 PyTorch 算法框架/工具
即插即用 | 超越CBAM,全新注意力机制,GAM不计成本提高精度(附Pytorch实现)
即插即用 | 超越CBAM,全新注意力机制,GAM不计成本提高精度(附Pytorch实现)
671 0