【vision transformer】LETR论文解读及代码实战(一)

简介: 【vision transformer】LETR论文解读及代码实战

LETR: Line Segment Detection Using Transformers without Edges

基于vision-transformer/DETR 提取wireframe的网络框架,截止日前实现了sota性能。

论文:https://arxiv.org/abs/2101.01909

代码:https://github.com/mlpc-ucsd/LETR

该部分是论文解读:

08fe6bad38a04e0b8721806894866b77.png

该论文是DETR在wireframe 数据集任务上的变体迁移,也是vision transformer在wirefame上的成功尝试,实现了wreframe 检测任务的sota性能,DETR论文及代码的介绍参考

【vision transformer】DETR原理及代码详解(一)_wangshuaixian的博客-CSDN博客_detr代码详解

【vision transformer】DETR原理及代码详解(三)_wangshuaixian的博客-CSDN博客

【vision transformer】DETR原理及代码详解(四)_wangshuaixian的博客-CSDN博客

LETR论文:

(1)摘要

本文提出了一种利用transformer 机制的端到端的全局线段提取网络。它不需要后处理以及中间的启发式引导。LETR取自LinE segment TRansformers,利用DETR中的三个高明之处即集成化编码和解码的tokenized查询,自注意力和联合查询,解决了该领域的三个问题:边缘元素检测,感知聚合和全局推断。

transformer通过分层的注意力机制逐步细化线段,省略了之前线段提取中的启发式设计。我们设计的transformer 配备有多尺度的encoder和decoder,直接利用端点距离损失训练---这尤其适用于实体(例如边界框无法方便表示的线段),最终实现细粒度的线段提取。

LETR在wireframe和YorkUrban数据集上显示了sota性能,也为联合端到端的通用实体检测(没法用标准物体检测框表示)指明了方向。

(2) 创新点

LETR 跳过了传统的边缘/连接/区域检测+proposals+感知分组pipline,设计了一个通用的全局端到端线段分割的目标检测算法。LETR论文灵感来自于:transformer框架中的具有集成编码和解码功能的标记化查询,自注意力机制,匈牙利匹配算法的隐式覆盖了线段检测中的(信息检测、感知分组和整体评估)的重要内容。

41e60c8379d1488caf5a3de358912968.png

(3)主要贡献

除以上提到的两点外, 本文针对DETR框架的创新:

LETR在DETR 中引进了两个新的算法,

第一:多尺度的编码器/解码器,如下图所示,多尺度的encoder/decoder分阶段处理再融合,提高线段检测的精度;

第二:训练时直接用端点距离作为损失函数,解决了像线一样无法用标准bbox 表示特征的实体利用transformer框架检测的障碍。

3c34d5d808cc43be9966823a4d290fec.png

(4)LETR流程

  (1)Image feature extraction:

输入一张图像,通过cnn backbone 降维获得图像深度特征map  :(h×w×c)

  (2)Image feature encoding:

图像深度特征map flattened后维度为: (hw×c),然后通过多头注意力机制encode为

(hw×c),然后喂入FFN层。

  (3)Line segment detection:

在transformer 解码阶段,N可学习的线段候选 (N×C)通过交叉注意力机制与encoder 的输出交互

 ( 4)Line segment prediction:

     在transformer decoder 的顶层用两个预测头实现线段预测。线坐标通过多层感知机MLP预测,置信度通过线性层打分。

(5)挖掘点

                     self-attention and cross-attention(自注意力和交叉注意力)

                     Transformer encoder

                     Transformer decoer

                     Coarse-to-Fine Strategy (由粗到细的策略)

                     Biparttite Matching

(6)损失函数:  Line segment losses

classification loss:   binary cross-entropy loss

627664b9db19430cbf6351e7cd2f3f35.png

distance loss:L1 loss 用来回归线段的端点

d639e91fa0f140a5a6022b6dfe374e2f.png

LERT最后删除了DETR 中的GIOU损失,因为GIOU是针对bbox的,采用损失为:

f5c1b7392eeb41ca86362a3df9c6c1f7.png

(5)LETR的实验结果:

0c8edabd7f4c48d78842708fc6ce4428.png


目录
相关文章
|
数据可视化 PyTorch 算法框架/工具
使用PyTorch搭建VGG模型进行图像风格迁移实战(附源码和数据集)
使用PyTorch搭建VGG模型进行图像风格迁移实战(附源码和数据集)
1120 1
|
7月前
|
人工智能 编解码 自动驾驶
RF-DETR:YOLO霸主地位不保?开源 SOTA 实时目标检测模型,比眨眼还快3倍!
RF-DETR是首个在COCO数据集上突破60 mAP的实时检测模型,结合Transformer架构与DINOv2主干网络,支持多分辨率灵活切换,为安防、自动驾驶等场景提供高精度实时检测方案。
825 6
RF-DETR:YOLO霸主地位不保?开源 SOTA 实时目标检测模型,比眨眼还快3倍!
|
7月前
|
机器学习/深度学习 API 语音技术
基于DeepSeek的多媒体应用技术探索与实践
随着人工智能技术的快速发展,深度学习在多媒体领域的应用日益广泛。DeepSeek作为一种先进的深度学习框架,凭借高效的计算能力和灵活的模型构建方式,逐渐成为多媒体处理中的重要工具。本文将深入探讨DeepSeek在图像处理、视频分析、音频处理等方面的应用,并结合代码示例展示其技术实现。DeepSeek支持多种神经网络架构,提供丰富的预训练模型和易于使用的API,适用于图像分类、目标检测、视频分类、动作识别、语音识别等任务。未来,DeepSeek有望在多模态学习、自监督学习和模型压缩与加速等方面取得突破,推动多媒体处理技术的进一步发展。
465 21
|
12月前
|
机器学习/深度学习 数据可视化 自动驾驶
YOLO11-seg分割如何训练自己的数据集(道路缺陷)
本文介绍了如何使用自己的道路缺陷数据集训练YOLOv11-seg模型,涵盖数据集准备、模型配置、训练过程及结果可视化。数据集包含4029张图像,分为训练、验证和测试集。训练后,模型在Mask mAP50指标上达到0.673,展示了良好的分割性能。
4679 4
|
9月前
|
机器学习/深度学习 人工智能 计算机视觉
NeurIPS 2024:无需训练,一个框架搞定开放式目标检测、实例分割
在NeurIPS 2024会议上,论文提出了一种名为VL-SAM的框架,旨在解决开放式目标检测和实例分割任务。该框架结合了视觉语言模型(VLM)和Segment-Anything模型(SAM),利用注意力图作为提示,在无需额外训练的情况下实现未知物体的检测与分割。实验结果显示,VL-SAM在长尾实例分割数据集(LVIS)和角落情况目标检测数据集(CODA)上均表现出色,展示了其在现实世界应用中的潜力。然而,注意力图质量和计算复杂性仍是潜在挑战。
355 19
|
12月前
|
机器学习/深度学习 人工智能 文字识别
ultralytics YOLO11 全新发布!(原理介绍+代码详见+结构框图)
本文详细介绍YOLO11,包括其全新特性、代码实现及结构框图,并提供如何使用NEU-DET数据集进行训练的指南。YOLO11在前代基础上引入了新功能和改进,如C3k2、C2PSA模块和更轻量级的分类检测头,显著提升了模型的性能和灵活性。文中还对比了YOLO11与YOLOv8的区别,并展示了训练过程和结果的可视化
17914 0
|
机器学习/深度学习 算法 PyTorch
【SAHI】即插即用| SAHI操作可有效解决小目标检测过程中的难点!实现涨点
【SAHI】即插即用| SAHI操作可有效解决小目标检测过程中的难点!实现涨点
1035 1
|
人工智能 程序员 开发者
新手指南: 微软Copilot国内能用吗?
微软Copilot 是由 GitHub 和 OpenAI 联合开发的一款 AI 结对编程工具,它就像一位经验丰富的程序员,在你编写代码时提供实时的代码建议和补全。Copilot 基于 OpenAI 的 Codex 模型,该模型经过了数十亿行公开代码的训练,能够理解多种编程语言和框架。
|
机器学习/深度学习 计算机视觉 索引
目标检测无痛涨点新方法 | DRKD蒸馏让ResNet18拥有ResNet50的精度(一)
目标检测无痛涨点新方法 | DRKD蒸馏让ResNet18拥有ResNet50的精度(一)
815 0
|
SQL API
【vision transformer】DETR原理及代码详解(四)
【vision transformer】DETR原理及代码详解
795 0