Transformers 4.37 中文文档(六十五)(1)

简介: Transformers 4.37 中文文档(六十五)


原文:huggingface.co/docs/transformers

条件 DETR

原始文本:huggingface.co/docs/transformers/v4.37.2/en/model_doc/conditional_detr

概述

条件 DETR 模型是由孟德普、陈晓康、范泽佳、曾刚、李厚强、袁宇辉、孙磊、王京东在用于快速训练收敛的条件 DETR中提出的。条件 DETR 提出了一种用于快速 DETR 训练的条件交叉注意力机制。条件 DETR 的收敛速度比 DETR 快 6.7 倍至 10 倍。

论文摘要如下:

最近开发的 DETR 方法将 Transformer  编码器和解码器架构应用于目标检测,并取得了令人满意的性能。在本文中,我们处理了关键问题,即训练收敛速度慢,并提出了一种用于快速 DETR  训练的条件交叉注意力机制。我们的方法受到了 DETR  中的交叉注意力高度依赖内容嵌入以定位四个极点并预测框的启发,这增加了对高质量内容嵌入的需求,从而增加了训练难度。我们的方法,称为条件  DETR,从解码器嵌入中学习一个条件空间查询,用于解码器多头交叉注意力。好处在于通过条件空间查询,每个交叉注意力头都能关注包含不同区域的带,例如一个对象极点或对象框内的区域。这缩小了用于定位不同区域进行对象分类和框回归的空间范围,从而减轻了对内容嵌入的依赖并简化了训练。实证结果表明,对于骨干网络  R50 和 R101,条件 DETR 的收敛速度提高了 6.7 倍,对于更强大的骨干网络 DC5-R50 和 DC5-R101,提高了 10  倍。代码可在github.com/Atten4Vis/ConditionalDETR找到。

条件 DETR 相对于原始 DETR 显示出更快的收敛速度。摘自原始论文

此模型由DepuMeng贡献。原始代码可在此处找到。

资源

  • 目标检测任务指南

ConditionalDetrConfig

class transformers.ConditionalDetrConfig

<来源>

( use_timm_backbone = True backbone_config = None num_channels = 3 num_queries = 300 encoder_layers = 6 encoder_ffn_dim = 2048 encoder_attention_heads = 8 decoder_layers = 6 decoder_ffn_dim = 2048 decoder_attention_heads = 8 encoder_layerdrop = 0.0 decoder_layerdrop = 0.0 is_encoder_decoder = True activation_function = 'relu' d_model = 256 dropout = 0.1 attention_dropout = 0.0 activation_dropout = 0.0 init_std = 0.02 init_xavier_std = 1.0 auxiliary_loss = False position_embedding_type = 'sine' backbone = 'resnet50' use_pretrained_backbone = True dilation = False class_cost = 2 bbox_cost = 5 giou_cost = 2 mask_loss_coefficient = 1 dice_loss_coefficient = 1 cls_loss_coefficient = 2 bbox_loss_coefficient = 5 giou_loss_coefficient = 2 focal_alpha = 0.25 **kwargs )

参数

  • use_timm_backbone (bool, 可选, 默认为True) — 是否使用timm库作为骨干。如果设置为False,将使用AutoBackbone API。
  • backbone_config (PretrainedConfigdict, 可选) — 骨干模型的配置。仅在use_timm_backbone设置为False时使用,此时默认为ResNetConfig()
  • num_channels (int, 可选, 默认为 3) — 输入通道的数量。
  • num_queries (int, 可选, 默认为 100) — 对象查询的数量,即检测槽位。这是 ConditionalDetrModel 在单个图像中可以检测到的对象的最大数量。对于 COCO 数据集,我们建议使用 100 个查询。
  • d_model (int, 可选, 默认为 256) — 层的维度。
  • encoder_layers (int, 可选, 默认为 6) — 编码器层数。
  • decoder_layers (int, 可选, 默认为 6) — 解码器层数。
  • encoder_attention_heads (int, 可选, 默认为 8) — Transformer 编码器中每个注意力层的注意力头数。
  • decoder_attention_heads (int, 可选, 默认为 8) — Transformer 解码器中每个注意力层的注意力头数。
  • decoder_ffn_dim (int, optional, defaults to 2048) — 解码器中“中间”(通常称为前馈)层的维度。
  • encoder_ffn_dim (int, optional, defaults to 2048) — 解码器中“中间”(通常称为前馈)层的维度。
  • activation_function (str or function, optional, defaults to "relu") — 编码器和池化器中的非线性激活函数(函数或字符串)。如果是字符串,支持"gelu""relu""silu""gelu_new"
  • dropout (float, optional, defaults to 0.1) — 嵌入、编码器和池化器中所有全连接层的丢弃概率。
  • attention_dropout (float, optional, defaults to 0.0) — 注意力概率的丢弃比率。
  • activation_dropout (float, optional, defaults to 0.0) — 全连接层内激活的丢弃比率。
  • init_std (float, optional, defaults to 0.02) — 用于初始化所有权重矩阵的截断正态初始化器的标准差。
  • init_xavier_std (float, optional, defaults to 1) — 用于 HM Attention map 模块中 Xavier 初始化增益的缩放因子。
  • encoder_layerdrop (float, optional, defaults to 0.0) — 编码器的 LayerDrop 概率。有关更多详细信息,请参阅 LayerDrop 论文)。
  • decoder_layerdrop (float, optional, defaults to 0.0) — 解码器的 LayerDrop 概率。有关更多详细信息,请参阅 LayerDrop 论文)。
  • auxiliary_loss (bool, optional, defaults to False) — 是否使用辅助解码损失(每个解码器层的损失)。
  • position_embedding_type (str, optional, defaults to "sine") — 在图像特征之上使用的位置嵌入的类型。其中之一是"sine""learned"
  • backbone (str, optional, defaults to "resnet50") — 在use_timm_backbone = True时要使用的卷积主干的名称。支持 timm 包中的任何卷积主干。有关所有可用模型的列表,请参见此页面
  • use_pretrained_backbone (bool, optional, defaults to True) — 是否对主干使用预训练权重。仅在use_timm_backbone = True时支持。
  • dilation (bool, optional, defaults to False) — 是否在最后的卷积块(DC5)中用膨胀替换步幅。仅在use_timm_backbone = True时支持。
  • class_cost (float, optional, defaults to 1) — 匈牙利匹配成本中分类错误的相对权重。
  • bbox_cost (float, optional, defaults to 5) — 匈牙利匹配成本中边界框坐标的 L1 误差的相对权重。
  • giou_cost (float, optional, defaults to 2) — 匈牙利匹配成本中边界框的广义 IoU 损失的相对权重。
  • mask_loss_coefficient (float, optional, defaults to 1) — 全景分割损失中 Focal 损失的相对权重。
  • dice_loss_coefficient (float, optional, defaults to 1) — 全景分割损失中 DICE/F-1 损失的相对权重。
  • bbox_loss_coefficient (float, optional, defaults to 5) — 目标检测损失中 L1 边界框损失的相对权重。
  • giou_loss_coefficient (float, optional, defaults to 2) — 目标检测损失中广义 IoU 损失的相对权重。
  • eos_coefficient (float, optional, defaults to 0.1) — 目标检测损失中“无物体”类别的相对分类权重。
  • focal_alpha (float, optional, defaults to 0.25) — 焦点损失中的 Alpha 参数。

这是用于存储 ConditionalDetrModel 配置的配置类。根据指定的参数实例化一个 Conditional DETR 模型,定义模型架构。使用默认值实例化配置将产生类似于 Conditional DETR microsoft/conditional-detr-resnet-50架构的配置。

配置对象继承自 PretrainedConfig,可用于控制模型输出。阅读 PretrainedConfig 的文档以获取更多信息。

示例:

>>> from transformers import ConditionalDetrConfig, ConditionalDetrModel
>>> # Initializing a Conditional DETR microsoft/conditional-detr-resnet-50 style configuration
>>> configuration = ConditionalDetrConfig()
>>> # Initializing a model (with random weights) from the microsoft/conditional-detr-resnet-50 style configuration
>>> model = ConditionalDetrModel(configuration)
>>> # Accessing the model configuration
>>> configuration = model.config

ConditionalDetrImageProcessor

class transformers.ConditionalDetrImageProcessor

< source >

( format: Union = <AnnotationFormat.COCO_DETECTION: 'coco_detection'> do_resize: bool = True size: Dict = None resample: Resampling = <Resampling.BILINEAR: 2> do_rescale: bool = True rescale_factor: Union = 0.00392156862745098 do_normalize: bool = True image_mean: Union = None image_std: Union = None do_pad: bool = True **kwargs )

参数

  • format (str, optional, 默认为 "coco_detection") — 注释的数据格式。其中之一为"coco_detection"或“coco_panoptic”。
  • do_resize (bool, optional, 默认为 True) — 控制是否将图像的(高度,宽度)尺寸调整为指定的size。可以被preprocess方法中的do_resize参数覆盖。
  • size (Dict[str, int] optional, 默认为 {"shortest_edge" -- 800, "longest_edge": 1333}): 调整大小后的图像(高度,宽度)尺寸。可以被preprocess方法中的size参数覆盖。
  • resample (PILImageResampling, optional, 默认为 PILImageResampling.BILINEAR) — 如果调整图像大小,则使用的重采样滤波器。
  • do_rescale (bool, optional, 默认为 True) — 控制是否按指定比例rescale_factor重新调整图像。可以被preprocess方法中的do_rescale参数覆盖。
  • rescale_factor (intfloat, optional, 默认为 1/255) — 如果重新调整图像,则使用的比例因子。可以被preprocess方法中的rescale_factor参数覆盖。do_normalize — 控制是否对图像进行归一化。可以被preprocess方法中的do_normalize参数覆盖。
  • image_mean (floatList[float], optional, 默认为 IMAGENET_DEFAULT_MEAN) — 在归一化图像时使用的均值。可以是单个值或值列表,每个通道一个值。可以被preprocess方法中的image_mean参数覆盖。
  • image_std (floatList[float], optional, 默认为 IMAGENET_DEFAULT_STD) — 在归一化图像时使用的标准差值。可以是单个值或值列表,每个通道一个值。可以被preprocess方法中的image_std参数覆盖。
  • do_pad (bool, optional, defaults to True) — 控制是否将图像填充到批处理中最大的图像并创建像素掩码。可以被preprocess方法中的do_pad参数覆盖。

构建一个 Conditional Detr 图像处理器。

preprocess

< source >

( images: Union annotations: Union = None return_segmentation_masks: bool = None masks_path: Union = None do_resize: Optional = None size: Optional = None resample = None do_rescale: Optional = None rescale_factor: Union = None do_normalize: Optional = None image_mean: Union = None image_std: Union = None do_pad: Optional = None format: Union = None return_tensors: Union = None data_format: Union = <ChannelDimension.FIRST: 'channels_first'> input_data_format: Union = None **kwargs )

参数

  • images (ImageInput) — 要预处理的图像或图像批次。期望单个图像或带有像素值范围从 0 到 255 的图像批次。如果传入像素值在 0 到 1 之间的图像,请设置do_rescale=False
  • annotations (AnnotationTypeList[AnnotationType], optional) — 与图像或图像批次关联的注释列表。如果注释用于目标检测,则注释应为具有以下键的字典:
  • “image_id” (int): 图像 id。
  • “annotations” (List[Dict]): 图像的注释列表。每个注释应为一个字典。一个图像可能没有注释,此时列表应为空。如果注释用于分割,注释应为一个具有以下键的字典:
  • “image_id” (int): 图像 id。
  • “segments_info” (List[Dict]): 图像的分段列表。每个分段应为一个字典。一个图像可能没有分段,此时列表应为空。
  • “file_name” (str): 图像的文件名。
  • return_segmentation_masks (bool, 可选, 默认为 self.return_segmentation_masks) — 是否返回分割掩模。
  • masks_path (strpathlib.Path, 可选) — 包含分割掩模的目录路径。
  • do_resize (bool, 可选, 默认为 self.do_resize) — 是否调整图像大小。
  • size (Dict[str, int], 可选, 默认为 self.size) — 调整大小后的图像尺寸。
  • resample (PILImageResampling, 可选, 默认为 self.resample) — 调整图像大小时使用的重采样滤波器。
  • do_rescale (bool, 可选, 默认为 self.do_rescale) — 是否重新缩放图像。
  • rescale_factor (float, 可选, 默认为 self.rescale_factor) — 重新缩放图像时使用的缩放因子。
  • do_normalize (bool, 可选, 默认为 self.do_normalize) — 是否规范化图像。
  • image_mean (floatList[float], 可选, 默认为 self.image_mean) — 在规范化图像时使用的均值。
  • image_std (floatList[float], 可选, 默认为 self.image_std) — 在规范化图像时使用的标准差。
  • do_pad (bool, 可选, 默认为 self.do_pad) — 是否填充图像。
  • format (strAnnotationFormat, 可选, 默认为 self.format) — 注释的格式。
  • return_tensors (strTensorType, 可选, 默认为 self.return_tensors) — 要返回的张量类型。如果为None,将返回图像列表。
  • data_format (ChannelDimensionstr, 可选, 默认为 ChannelDimension.FIRST) — 输出图像的通道维度格式。可以是以下之一:
  • "channels_first"ChannelDimension.FIRST: 图像以 (通道数, 高度, 宽度) 格式。
  • "channels_last"ChannelDimension.LAST: 图像以 (高度, 宽度, 通道数) 格式。
  • 未设置: 使用输入图像的通道维度格式。
  • input_data_format (ChannelDimensionstr, 可选) — 输入图像的通道维度格式。如果未设置,则从输入图像中推断通道维度格式。可以是以下之一:
  • "channels_first"ChannelDimension.FIRST: 图像以 (通道数, 高度, 宽度) 格式。
  • "channels_last"ChannelDimension.LAST: 图像以 (高度, 宽度, 通道数) 格式。
  • "none"ChannelDimension.NONE: 图像以 (高度, 宽度) 格式。

对图像或图像批次进行预处理,以便模型可以使用。

post_process_object_detection

< source >

( outputs threshold: float = 0.5 target_sizes: Union = None top_k: int = 100 ) → export const metadata = 'undefined';List[Dict]

参数

  • outputs (DetrObjectDetectionOutput) — 模型的原始输出。
  • threshold (float, 可选) — 保留对象检测预测的分数阈值。
  • target_sizes (torch.TensorList[Tuple[int, int]], 可选) — 形状为 (batch_size, 2) 的张量或包含每个图像目标大小 (高度, 宽度) 的元组列表 (Tuple[int, int])。如果保留为 None,则预测将不会被调整大小。
  • top_k (int, 可选, 默认为 100) — 在通过阈值过滤之前仅保留前 k 个边界框。

返回

List[Dict]

一个字典列表,每个字典包含模型预测的批次中图像的分数、标签和框。

将 ConditionalDetrForObjectDetection 的原始输出转换为最终边界框,格式为(top_left_x,top_left_y,bottom_right_x,bottom_right_y)。仅支持 PyTorch。

post_process_instance_segmentation

<来源>

( outputs threshold: float = 0.5 mask_threshold: float = 0.5 overlap_mask_area_threshold: float = 0.8 target_sizes: Optional = None return_coco_annotation: Optional = False ) → export const metadata = 'undefined';List[Dict]

参数

  • outputs(ConditionalDetrForSegmentation)- 模型的原始输出。
  • thresholdfloat可选,默认为 0.5)- 保留预测的实例掩模的概率分数阈值。
  • mask_thresholdfloat可选,默认为 0.5)- 在将预测的掩模转换为二进制值时使用的阈值。
  • overlap_mask_area_thresholdfloat可选,默认为 0.8)- 用于合并或丢弃每个二进制实例掩模中的小不连通部分的重叠掩模区域阈值。
  • target_sizesList[Tuple]可选)- 长度为(batch_size)的列表,其中每个列表项(Tuple[int, int]])对应于每个预测的请求最终大小(高度,宽度)。如果未设置,预测将不会被调整大小。
  • return_coco_annotationbool可选)- 默认为False。如果设置为True,则以 COCO 运行长度编码(RLE)格式返回分割地图。

返回

List[Dict]

一个字典列表,每个图像一个,每个字典包含两个键:

  • segmentation - 形状为(高度,宽度)的张量,其中每个像素表示segment_idList[List]的运行长度编码(RLE)的分割地图,如果 return_coco_annotation 设置为True。如果未找到任何掩模,则设置为None
  • segments_info - 包含每个段的附加信息的字典。
  • id - 表示segment_id的整数。
  • label_id - 表示与segment_id对应的标签/语义类别 id 的整数。
  • score - 具有segment_id的段的预测分数。

将 ConditionalDetrForSegmentation 的输出转换为实例分割预测。仅支持 PyTorch。

post_process_semantic_segmentation

<来源>

( outputs target_sizes: List = None ) → export const metadata = 'undefined';List[torch.Tensor]

参数

  • outputs(ConditionalDetrForSegmentation)- 模型的原始输出。
  • target_sizesList[Tuple[int, int]]可选)- 包含批处理中每个图像的目标大小(高度,宽度)的元组(Tuple[int, int])列表。如果未设置,预测将不会被调整大小。

返回

List[torch.Tensor]

长度为batch_size的列表,其中每个项目是形状为(高度,宽度)的语义分割地图,对应于目标大小条目(如果指定了target_sizes)。每个torch.Tensor的每个条目对应于语义类别 id。

将 ConditionalDetrForSegmentation 的输出转换为语义分割地图。仅支持 PyTorch。

post_process_panoptic_segmentation

<来源>

( outputs threshold: float = 0.5 mask_threshold: float = 0.5 overlap_mask_area_threshold: float = 0.8 label_ids_to_fuse: Optional = None target_sizes: Optional = None ) → export const metadata = 'undefined';List[Dict]

参数

  • outputs(ConditionalDetrForSegmentation)- 来自 ConditionalDetrForSegmentation 的输出。
  • threshold (float, 可选, 默认为 0.5) — 保留预测实例掩码的概率分数阈值。
  • mask_threshold (float, 可选, 默认为 0.5) — 将预测的掩码转换为二进制值时使用的阈值。
  • overlap_mask_area_threshold (float, 可选, 默认为 0.8) — 合并或丢弃每个二进制实例掩码中的小断开部分的重叠掩码区域阈值。
  • label_ids_to_fuse (Set[int], 可选) — 此状态中的标签将使其所有实例被融合在一起。例如,我们可以说一张图像中只能有一个天空,但可以有几个人,因此天空的标签 ID 将在该集合中,但人的标签 ID 不在其中。
  • target_sizes (List[Tuple], 可选) — 长度为(batch_size)的列表,其中每个列表项(Tuple[int, int]])对应于批处理中每个预测的请求的最终大小(高度,宽度)。如果未设置,预测将不会被调整大小。

返回

List[Dict]

一个字典列表,每个图像一个字典,每个字典包含两个键:

  • segmentation — 形状为(高度,宽度)的张量,其中每个像素代表一个segment_id,如果未找到高于threshold的掩码,则为None。如果指定了target_sizes,则将分割调整为相应的target_sizes条目。
  • segments_info — 包含每个段的附加信息的字典。
  • id — 代表segment_id的整数。
  • label_id — 代表与segment_id对应的标签/语义类别 id 的整数。
  • was_fused — 一个布尔值,如果label_idlabel_ids_to_fuse中,则为True,否则为False。同一类别/标签的多个实例被融合并分配一个单独的segment_id
  • score — 具有segment_id的段的预测分数。

将 ConditionalDetrForSegmentation 的输出转换为图像全景分割预测。仅支持 PyTorch。

ConditionalDetrFeatureExtractor

class transformers.ConditionalDetrFeatureExtractor

<来源>

( *args **kwargs )
__call__

<来源>

( images **kwargs )

预处理一张图像或一批图像。

post_process_object_detection

<来源>

( outputs threshold: float = 0.5 target_sizes: Union = None top_k: int = 100 ) → export const metadata = 'undefined';List[Dict]

参数

  • outputs (DetrObjectDetectionOutput) — 模型的原始输出。
  • threshold (float, 可选) — 保留对象检测预测的分数阈值。
  • target_sizes (torch.TensorList[Tuple[int, int]], 可选) — 形状为(batch_size, 2)的张量或包含每个图像的目标大小(高度,宽度)的元组列表(Tuple[int, int])。如果为 None,预测将不会被调整大小。
  • top_k (int, 可选, 默认为 100) — 在通过阈值筛选之前仅保留前 k 个边界框。

返回

List[Dict]

一个字典列表,每个字典包含模型预测的批处理中每个图像的分数、标签和框。

将 ConditionalDetrForObjectDetection 的原始输出转换为最终的边界框,格式为(top_left_x, top_left_y, bottom_right_x, bottom_right_y)。仅支持 PyTorch。

post_process_instance_segmentation

<来源>

( outputs threshold: float = 0.5 mask_threshold: float = 0.5 overlap_mask_area_threshold: float = 0.8 target_sizes: Optional = None return_coco_annotation: Optional = False ) → export const metadata = 'undefined';List[Dict]

参数

  • outputs (ConditionalDetrForSegmentation) — 模型的原始输出。
  • thresholdfloat可选,默认为 0.5)- 保留预测实例掩码的概率分数阈值。
  • mask_thresholdfloat可选,默认为 0.5)- 在将预测的掩码转换为二进制值时使用的阈值。
  • overlap_mask_area_thresholdfloat可选,默认为 0.8)- 用于合并或丢弃每个二进制实例掩码中的小不连续部分的重叠掩码区域阈值。
  • target_sizesList[Tuple]可选)- 长度为(batch_size)的列表,其中每个列表项(Tuple[int, int]])对应于每个预测的请求最终大小(高度,宽度)。如果未设置,预测将不会被调整大小。
  • return_coco_annotationbool可选)- 默认为False。如果设置为True,则以 COCO 运行长度编码(RLE)格式返回分割地图。

返回

List[Dict]

一个字典列表,每个图像一个字典,每个字典包含两个键:

  • segmentation - 形状为(高度,宽度)的张量,其中每个像素表示segment_id或分割地图的List[List]运行长度编码(RLE),如果 return_coco_annotation 设置为True。如果未找到高于threshold的掩码,则设置为None
  • segments_info - 包含每个段的其他信息的字典。
  • id - 表示segment_id的整数。
  • label_id - 表示与segment_id对应的标签/语义类别 id 的整数。
  • score - 具有segment_id的段的预测分数。

将 ConditionalDetrForSegmentation 的输出转换为实例分割预测。仅支持 PyTorch。

post_process_semantic_segmentation

<来源>

( outputs target_sizes: List = None ) → export const metadata = 'undefined';List[torch.Tensor]

参数

  • outputs(ConditionalDetrForSegmentation)- 模型的原始输出。
  • target_sizesList[Tuple[int, int]]可选)- 包含批处理中每个图像的目标大小(高度,宽度)的元组列表(Tuple[int, int])。如果未设置,预测将不会被调整大小。

返回

List[torch.Tensor]

一个长度为batch_size的列表,其中每个项目都是一个形状为(高度,宽度)的语义分割地图,对应于target_sizes条目(如果指定了target_sizes)。每个torch.Tensor的每个条目对应一个语义类别 id。

将 ConditionalDetrForSegmentation 的输出转换为语义分割地图。仅支持 PyTorch。

post_process_panoptic_segmentation

<来源>

( outputs threshold: float = 0.5 mask_threshold: float = 0.5 overlap_mask_area_threshold: float = 0.8 label_ids_to_fuse: Optional = None target_sizes: Optional = None ) → export const metadata = 'undefined';List[Dict]

参数

  • outputs(ConditionalDetrForSegmentation)- 来自 ConditionalDetrForSegmentation 的输出。
  • thresholdfloat可选,默认为 0.5)- 保留预测实例掩码的概率分数阈值。
  • mask_thresholdfloat可选,默认为 0.5)- 在将预测的掩码转换为二进制值时使用的阈值。
  • overlap_mask_area_thresholdfloat可选,默认为 0.8)- 用于合并或丢弃每个二进制实例掩码中的小不连续部分的重叠掩码区域阈值。
  • label_ids_to_fuseSet[int]可选)- 此状态中的标签将使其所有实例被融合在一起。例如,我们可以说图像中只能有一个天空,但可以有几个人,因此天空的标签 ID 将在该集合中,但人的标签 ID 不在其中。
  • target_sizesList[Tuple]可选)— 长度为(batch_size)的列表,其中每个列表项(Tuple[int, int])对应于批处理中每个预测的请求的最终大小(高度,宽度)。如果未设置,预测将不会被调整大小。

返回

List[Dict]

一个字典列表,每个图像一个字典,每个字典包含两个键:

  • segmentation — 形状为(height, width)的张量,其中每个像素表示一个segment_id,如果未找到上面threshold的掩码,则表示None。如果指定了target_sizes,则将分割调整为相应的target_sizes条目。
  • segments_info — 包含每个段的附加信息的字典。
  • id — 表示segment_id的整数。
  • label_id — 表示与segment_id对应的标签/语义类别 id 的整数。
  • was_fused — 一个布尔值,如果label_idlabel_ids_to_fuse中,则为True,否则为False。同一类别/标签的多个实例被融合并分配一个单一的segment_id
  • score — 具有segment_id的段的预测分数。

将 ConditionalDetrForSegmentation 的输出转换为图像全景分割预测。仅支持 PyTorch。


Transformers 4.37 中文文档(六十五)(2)https://developer.aliyun.com/article/1564131

相关文章
|
4月前
|
存储 PyTorch 算法框架/工具
Transformers 4.37 中文文档(八十七)(5)
Transformers 4.37 中文文档(八十七)
33 3
|
4月前
|
PyTorch TensorFlow 算法框架/工具
Transformers 4.37 中文文档(六十五)(3)
Transformers 4.37 中文文档(六十五)
25 1
|
4月前
|
存储 人工智能 PyTorch
Transformers 4.37 中文文档(八十七)(4)
Transformers 4.37 中文文档(八十七)
37 2
|
4月前
|
存储 编解码 PyTorch
Transformers 4.37 中文文档(八十七)(1)
Transformers 4.37 中文文档(八十七)
21 2
|
4月前
|
存储 编解码 索引
Transformers 4.37 中文文档(八十七)(3)
Transformers 4.37 中文文档(八十七)
21 2
|
4月前
|
存储 PyTorch 算法框架/工具
Transformers 4.37 中文文档(八十七)(2)
Transformers 4.37 中文文档(八十七)
24 2
|
4月前
|
PyTorch 算法框架/工具 异构计算
Transformers 4.37 中文文档(七十四)(4)
Transformers 4.37 中文文档(七十四)
45 1
|
4月前
|
PyTorch TensorFlow 算法框架/工具
Transformers 4.37 中文文档(八十八)(3)
Transformers 4.37 中文文档(八十八)
29 2
|
4月前
|
机器学习/深度学习 PyTorch TensorFlow
Transformers 4.37 中文文档(六十五)(5)
Transformers 4.37 中文文档(六十五)
23 0
|
4月前
|
PyTorch TensorFlow 算法框架/工具
Transformers 4.37 中文文档(六十五)(4)
Transformers 4.37 中文文档(六十五)
24 0