NeurIPS 2022 | 百度提出超快Transformer分割模型RTFormer,180FPS+81mIOU(二)

简介: NeurIPS 2022 | 百度提出超快Transformer分割模型RTFormer,180FPS+81mIOU(二)

3、实验


3.1、消融实验

1、不同形式注意力的对比

为了验证提出的注意力的有效性,将RTFormer块中使用的注意力替换为不同类型和组合。如表5a所示,给出了多头自注意力、多头external attentionGPU-Friendly attention 交叉分辨注意力的不同组合的结果。

例如,“GFA+CA”意味着在低分辨率分支中使用GFA,在高分辨率分支中则使用CA。此外,通过M=d×r调整了多头外部注意中的超参数M,其中r是一个缩减率。可以发现,GPU-Friendly attention 优于所有多头外部注意设置,并且在M=d时比最佳注意设置更快,同时,GPU-Friendly attention 比多头自注意力更有效,性能相当。

这表明,在类似GPU的设备上,GPU-Friendly attention多头自注意力多头external attention在性能和效率之间取得更好的平衡。当引入交叉分辨率注意力时,性能会进一步提高,而FPS仅下降不到2。

2、不同形式的FFN的对比

表5b显示了由两个MLP层和一个3×3深度卷积层组成的典型FFN的结果,以及提出的包含两个3×3卷积层的FFN。结果表明,提出的FFN不仅在mIoU上,而且在FPS上都优于典型的FFN。这表明提出的FFN更适合于应该考虑类GPU设备延迟的情况。

3、分组双重标准化中组数的影响

研究了在使用GPU Friendly Attention对两个分支进行分组双重标准化的情况下,分组数目的影响。表5c显示了不同配置的结果。例如,“8+2”表示在低分辨率分支中使用8个组,在高分辨率分支中则使用2个组。特别是,当组的数目设置为1时,分组的双重归一化会退化为原始的双重归一化。在这里,当组数为8和2时,可以获得最佳mIoU,这说明分组的双重归一化比原始的双重归一化性能更好。值得注意的是,改变分组双重归一化中的组数并不影响推理效率,这使得GPU Friendly Attention能够在组数较大时保持较高的FPS。

4、交叉特征的空间大小对交叉分辨率注意的影响

image.png

作者还研究了交叉分辨率注意力中交叉特征的空间大小,包括应用6×6、8×8和12×12。如表5d所示,根据FPSmIoU之间的权衡,RTFormer Slim的交叉特征的8×8空间大小是最佳的。在一定程度上,这表明与高分辨率特征尺寸相近的交叉特征的空间尺寸是合适的,因为RTFormer Slim的高分辨率特征维数为64,等于8×8。

3.2、泛化性分析

表3显示了关于ADE20K的结果。RTFormer Base实现了42.1%的卓越mIoU和71.4FPS,优于所有其他方法。例如,与DDRNet-23-Slim相比,RTFormer Slim实现了更好的mIoU 36.7%,并且保持了几乎相同的速度。图6显示了ADE20K验证集的定性结果。与DDRNet-23相比,RTFormer显示了更好的细节和上下文信息。总之,这些结果表明,RTFormer在广义场景中的实时语义分割方面也显示出非常有前景的性能。在COCOStuff上,如表4所示,RTFormer Base以143.3 FPS的速度达到35.3 mIoU,以相当的推理速度超过DDRNet-23约3%,并创下了新的一流水平。

3.3、SOTA对比

3.4、分类实验对比


4、参考


[1].RTFormer: Efficient Design for Real-Time Semantic Segmentation with Transformer.


5、推荐阅读


即插即用 | CNN与Transformer都通用的Trick,即插即涨点即提速!

目标检测改进 | 如何使用IOU改进自注意力以提升Sparse RCNN目标检测性能

重参巅峰 | 你喜欢的RepVGG其实也是有缺陷的,RepOpt才是重参的巅峰

相关实践学习
基于阿里云DeepGPU实例,用AI画唯美国风少女
本实验基于阿里云DeepGPU实例,使用aiacctorch加速stable-diffusion-webui,用AI画唯美国风少女,可提升性能至高至原性能的2.6倍。
相关文章
|
2月前
|
机器学习/深度学习 计算机视觉
Backbone创新 | 中科大联合百度提出全新Transformer Backbone
Backbone创新 | 中科大联合百度提出全新Transformer Backbone
37 1
Backbone创新 | 中科大联合百度提出全新Transformer Backbone
|
11月前
|
机器学习/深度学习 编解码 机器人
NeurIPS 2022 | 百度提出超快Transformer分割模型RTFormer,180FPS+81mIOU(一)
NeurIPS 2022 | 百度提出超快Transformer分割模型RTFormer,180FPS+81mIOU(一)
125 0
|
2月前
|
存储 Kubernetes 容器
百度搜索:蓝易云【Kubernetes使用helm部署NFS Provisioner】
现在,你已经成功使用Helm部署了NFS Provisioner,并且可以在Kubernetes中创建使用NFS存储的PersistentVolumeClaim。
44 10
|
2月前
百度搜索:蓝易云【什么是HTTP长轮询?】
现在,HTTP长轮询逐渐被WebSocket等更高效的实时通信技术所替代,但了解HTTP长轮询仍然有助于理解实时数据推送的基本原理。
86 9
|
2月前
|
移动开发 Shell Linux
百度搜索:蓝易云【Shell错误:/bin/bash^M: bad interpreter: No such file or directory】
将 `your_script.sh`替换为你的脚本文件名。运行此命令后,脚本文件的换行符将被转换为Linux格式,然后就可以在Linux系统上正常执行脚本了。
33 8
|
2月前
百度搜索:蓝易云【ipmitool配置BMC的ip】
以上操作将配置BMC的IP地址为新的值。请注意,操作BMC需要谨慎,确保你对服务器有足够的权限,并且仔细检查新的IP地址、子网掩码和默认网关,以免导致服务器网络失联。
35 7
|
2月前
|
缓存 网络协议 Linux
百度搜索:蓝易云【解决github push/pull报错443】
通过以上方法,你有望解决GitHub push/pull报错443的问题。如果问题仍然存在,建议检查GitHub的状态页面,看是否有正在维护或故障的情况。
82 3
|
2月前
|
Kubernetes 应用服务中间件 nginx
百度搜索:蓝易云【使用Kubernetes部署Nginx应用教程】
现在,你已经成功在Kubernetes集群上部署了Nginx应用。通过访问Service的外部IP地址,你可以访问Nginx服务。
42 4
|
2月前
|
Linux Perl
百度搜索:蓝易云【Linux常用命令awk】
以上仅是awk命令的一些常见用法,它还有许多更复杂的功能和用法,可以根据需要灵活运用。awk在文本处理和数据分析中非常实用,是Linux系统中的一把利器。
25 2
|
2月前
|
编解码 应用服务中间件 nginx
百度搜索:蓝易云【基于Nginx与Nginx-rtmp-module实现】
综上所述,基于Nginx与Nginx-rtmp-module的组合,可以搭建一个功能强大的流媒体服务器,用于实现直播和点播服务。
41 1