Transformer 系列| Transformer又搞事情!TransReID首次在ReID中应用,结果喜人(文末获取论文)(二)

简介: Transformer 系列| Transformer又搞事情!TransReID首次在ReID中应用,结果喜人(文末获取论文)(二)

4 实验


4.1 基础实验

对于实验想必大家对于公开数据集已经非常熟悉了,作者对于比较主流的公开数据集都进行了实验,数据集列表如下:

下面是一些主流Backbone与基于Transformer的对比结果,可以看出把图像分为12份得到的语义嵌入的结果比ResNet50、101、152以及ResNeSt50、200都要好:

image.png

下表是SOTA模型的对比表,可以看出TransReID已经达到SOTA水平,同时也超越了很多主流的ReID模型,诸如,CBN、OSNet、MGN、HOReID等。同时对于具有遮挡的ReID任务也有比较好的效果,同时TransReID在车辆ReID也达到了SOTA水平。

image.png

4.2 消融实验

通过下表可以看出,SIE可以编码不同的相机组合ID和/或视角信息。

在下图的图4a和图4b中,摄像机和视角之间的分布差距明显。当在Vit-BoT中引入SIE模块时,在下图的图4c和图4d中减少了摄像头间/视角和摄像头内/视角之间的分布差距,这说明SIE模块可以减少各种摄像头以及视角造成的外观偏差。

在Vit-BoT的基础上,JPM在MSMT17和VeRi-776上分别提升了2.6%的mAP和1.0%的mAP。增加k组的数量可以提高性能,同时也略微增加了推理时间。论文建议k=4是权衡速度和性能一个不错的选择。


5 参考


[1].TransReID: Transformer-based Object Re-Identification.

相关文章
|
17天前
|
机器学习/深度学习 算法 网络架构
神经网络架构殊途同归?ICML 2024论文:模型不同,但学习内容相同
【8月更文挑战第3天】《神经语言模型的缩放定律》由OpenAI研究人员完成并在ICML 2024发表。研究揭示了模型性能与大小、数据集及计算资源间的幂律关系,表明增大任一资源均可预测地提升性能。此外,论文指出模型宽度与深度对性能影响较小,较大模型在更多数据上训练能更好泛化,且能高效利用计算资源。研究提供了训练策略建议,对于神经语言模型优化意义重大,但也存在局限性,需进一步探索。论文链接:[https://arxiv.org/abs/2001.08361]。
17 1
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
极智AI | 变形金刚大家族Transformer ViT CLIP BLIP BERT模型结构
大家好,我是极智视界,本文整理介绍一下 Transformer ViT CLIP BLIP BERT 模型结构。
265 0
|
机器学习/深度学习 编解码 自然语言处理
Transformer 系列| Transformer又搞事情!TransReID首次在ReID中应用,结果喜人(文末获取论文)(一)
Transformer 系列| Transformer又搞事情!TransReID首次在ReID中应用,结果喜人(文末获取论文)(一)
345 0
Transformer 系列| Transformer又搞事情!TransReID首次在ReID中应用,结果喜人(文末获取论文)(一)
|
机器学习/深度学习 数据挖掘
ICLR 2023 | DIFFormer: 扩散过程启发的Transformer(3)
ICLR 2023 | DIFFormer: 扩散过程启发的Transformer
166 0
|
机器学习/深度学习
ICLR 2023 | DIFFormer: 扩散过程启发的Transformer(1)
ICLR 2023 | DIFFormer: 扩散过程启发的Transformer
117 0
|
异构计算
ICLR 2023 | DIFFormer: 扩散过程启发的Transformer(2)
ICLR 2023 | DIFFormer: 扩散过程启发的Transformer
178 0
|
机器学习/深度学习 编解码 人工智能
CVPR 2023 | 谷歌、MIT提出统一框架MAGE:表征学习超MAE,无监督图像生成超越 Latent Diffusion
CVPR 2023 | 谷歌、MIT提出统一框架MAGE:表征学习超MAE,无监督图像生成超越 Latent Diffusion
109 0
|
数据挖掘 测试技术 Go
超越YOLOv7 | YOLOv6论文放出,重参+自蒸馏+感知量化+...各种Tricks大放异彩(一)
超越YOLOv7 | YOLOv6论文放出,重参+自蒸馏+感知量化+...各种Tricks大放异彩(一)
227 0
|
异构计算
超越YOLOv7 | YOLOv6论文放出,重参+自蒸馏+感知量化+...各种Tricks大放异彩(二)
超越YOLOv7 | YOLOv6论文放出,重参+自蒸馏+感知量化+...各种Tricks大放异彩(二)
153 0
|
机器学习/深度学习 编解码 数据可视化
全面超越Swin Transformer | Facebook用ResNet思想升级MViT(一)
全面超越Swin Transformer | Facebook用ResNet思想升级MViT(一)
246 0