DETR也需要学习 | DETR-Distill模型蒸馏让DETR系类模型持续发光发热!!!(二)

简介: DETR也需要学习 | DETR-Distill模型蒸馏让DETR系类模型持续发光发热!!!(二)

4、实验


4.1、消融实验

1、主要结果

2、分析渐进式蒸馏

image.png

3、分类和回归分支样本消融

image.png

4、特色分区规划策略分析

image.png

image.png

4.2、COCO

image.png

4.3、Distilling to Lightweight Backbones

image.png

4.4、Self-Distillation


5、参考


[1].DETRDistill: A Universal Knowledge Distillation Framework for DETR-families.


6、推荐阅读


目标检测系列 | 无NMS的端到端目标检测模型,超越OneNet,FCOS等SOTA!

目标检测落地技能 | 拥挤目标检测你是如何解决的呢?改进Copy-Paste解决拥挤问题!

多目标跟踪新SOTA | TransTrack改进版本来啦,模型减小58.73%,复杂性降低78.72%

相关文章
|
计算机视觉
迟到的 HRViT | Facebook提出多尺度高分辨率ViT,这才是原汁原味的HRNet思想(二)
迟到的 HRViT | Facebook提出多尺度高分辨率ViT,这才是原汁原味的HRNet思想(二)
281 0
|
12天前
|
机器学习/深度学习 编解码 人工智能
扩散模型失宠?端侧非自回归图像生成基础模型Meissonic登场,超越SDXL!
Meissonic是一种新型图像生成模型,采用非自回归的掩码图像建模(MIM)方法,在性能和效率上超越了当前最先进的扩散模型SDXL。其创新点包括改进的注意力机制、多尺度特征提取、先进位置编码策略和优化采样条件等,能够生成高质量、高分辨率图像。此外,Meissonic引入人类偏好评分和特征压缩层,提升图像质量和计算效率。尽管存在一些挑战,Meissonic为统一语言-视觉模型的发展提供了新思路,并在创意设计、虚拟现实等领域展现出广泛应用前景。
64 24
|
8月前
|
人工智能 计算机视觉
论文介绍:MDTv2——提升图像合成能力的掩码扩散变换器
【5月更文挑战第18天】MDTv2是掩码扩散变换器的升级版,旨在增强图像合成模型DPMs处理语义关系的能力。通过掩码操作和不对称扩散变换,MDTv2能学习图像的完整语义信息,提升学习效率和图像质量。MDTv2采用优化的网络结构和训练策略,如长快捷方式、密集输入和时间步适应损失权重,实现SOTA性能,FID分数达到1.58,训练速度比DiT快10倍。尽管计算成本高和泛化能力待验证,MDTv2为图像合成领域开辟了新方向。[链接: https://arxiv.org/abs/2303.14389]
228 1
|
8月前
|
机器学习/深度学习
YOLOv8改进 | 2023主干篇 | RepViT从视觉变换器(ViT)的视角重新审视CNN
YOLOv8改进 | 2023主干篇 | RepViT从视觉变换器(ViT)的视角重新审视CNN
442 1
YOLOv8改进 | 2023主干篇 | RepViT从视觉变换器(ViT)的视角重新审视CNN
|
机器学习/深度学习 测试技术 计算机视觉
【计算机视觉 | ViT-G】谷歌大脑提出 ViT-G:缩放视觉 Transformer,高达 90.45% 准确率
谷歌大脑提出 ViT-G:缩放视觉 Transformer,高达 90.45% 准确率
|
8月前
|
机器学习/深度学习 人工智能 计算机视觉
CVPR 2023 | AdaAD: 通过自适应对抗蒸馏提高轻量级模型的鲁棒性
CVPR 2023 | AdaAD: 通过自适应对抗蒸馏提高轻量级模型的鲁棒性
270 0
|
8月前
|
机器学习/深度学习 编解码
YOLOv5改进 | 2023主干篇 | RepViT从视觉变换器(ViT)的视角重新审视CNN
YOLOv5改进 | 2023主干篇 | RepViT从视觉变换器(ViT)的视角重新审视CNN
354 0
|
8月前
|
机器学习/深度学习 自然语言处理 算法
从滑动窗口到YOLO、Transformer:目标检测的技术革新
从滑动窗口到YOLO、Transformer:目标检测的技术革新
203 0
|
机器学习/深度学习 自然语言处理 算法
DETR也需要学习 | DETR-Distill模型蒸馏让DETR系类模型持续发光发热!!!(一)
DETR也需要学习 | DETR-Distill模型蒸馏让DETR系类模型持续发光发热!!!(一)
333 0
|
数据可视化
车道线模型落地技巧 | LGAD注意力蒸馏让模型更鲁棒(二)
车道线模型落地技巧 | LGAD注意力蒸馏让模型更鲁棒(二)
165 0