yolo-world 源码解析(一)(2)

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
简介: yolo-world 源码解析(一)

yolo-world 源码解析(一)(1)https://developer.aliyun.com/article/1483827

.\YOLO-World\configs\finetune_coco\yolo_world_l_dual_vlpan_2e-4_80e_8gpus_mask-refine_finetune_coco.py

_base_ = (
    '../../third_party/mmyolo/configs/yolov8/'
    'yolov8_l_mask-refine_syncbn_fast_8xb16-500e_coco.py')
custom_imports = dict(
    imports=['yolo_world'],
    allow_failed_imports=False)
# 定义超参数
num_classes = 80  # 类别数
num_training_classes = 80  # 训练类别数
max_epochs = 80  # 最大训练轮数
close_mosaic_epochs = 10  # 关闭镶嵌的轮数
save_epoch_intervals = 5  # 保存模型的间隔
text_channels = 512  # 文本通道数
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]  # 颈部嵌入通道数
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]  # 颈部头数
base_lr = 2e-4  # 基础学习率
weight_decay = 0.05  # 权重衰减
train_batch_size_per_gpu = 16  # 每个 GPU 的训练批次大小
load_from='pretrained_models/yolo_world_l_clip_base_dual_vlpan_2e-3adamw_32xb16_100e_o365_goldg_train_pretrained-0e566235.pth'  # 加载预训练模型路径
persistent_workers = False  # 持久化工作进程
# 模型设置
model = dict(
    type='YOLOWorldDetector',  # 模型类型
    mm_neck=True,  # 多模态颈部
    num_train_classes=num_training_classes,  # 训练类别数
    num_test_classes=num_classes,  # 测试类别数
    data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),  # 数据预处理器
    backbone=dict(
        _delete_=True,  # 删除原有的设置
        type='MultiModalYOLOBackbone',  # 多模态 YOLO 骨干网络
        image_model={{_base_.model.backbone}},  # 图像模型
        text_model=dict(
            type='HuggingCLIPLanguageBackbone',  # 文本模型
            model_name='openai/clip-vit-base-patch32',  # 模型名称
            frozen_modules=['all'])),  # 冻结模块
    neck=dict(type='YOLOWorldDualPAFPN',  # 颈部设置
              guide_channels=text_channels,  # 引导通道数
              embed_channels=neck_embed_channels,  # 嵌入通道数
              num_heads=neck_num_heads,  # 头数
              block_cfg=dict(type='MaxSigmoidCSPLayerWithTwoConv'),  # 块配置
              text_enhancder=dict(type='ImagePoolingAttentionModule',  # 文本增强器
                                  embed_channels=256,  # 嵌入通道数
                                  num_heads=8)),  # 头数
    bbox_head=dict(type='YOLOWorldHead',  # 边界框头部设置
                   head_module=dict(type='YOLOWorldHeadModule',  # 头部模块设置
                                    embed_dims=text_channels,  # 嵌入维度
                                    num_classes=num_training_classes)),  # 训练类别数
    train_cfg=dict(assigner=dict(num_classes=num_training_classes)))  # 训练配置
# 数据集设置
# 定义文本转换器,包含随机加载文本和打包检测输入两个步骤
text_transform = [
    dict(type='RandomLoadText',
         num_neg_samples=(num_classes, num_classes),
         max_num_samples=num_training_classes,
         padding_to_max=True,
         padding_value=''),
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
                    'flip_direction', 'texts'))
]
# 定义马赛克仿射变换器,包含多模态马赛克、YOLOv5复制粘贴和YOLOv5随机仿射三个步骤
mosaic_affine_transform = [
    dict(
        type='MultiModalMosaic',
        img_scale=_base_.img_scale,
        pad_val=114.0,
        pre_transform=_base_.pre_transform),
    dict(type='YOLOv5CopyPaste', prob=_base_.copypaste_prob),
    dict(
        type='YOLOv5RandomAffine',
        max_rotate_degree=0.0,
        max_shear_degree=0.0,
        max_aspect_ratio=100.,
        scaling_ratio_range=(1 - _base_.affine_scale,
                             1 + _base_.affine_scale),
        # img_scale is (width, height)
        border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),
        border_val=(114, 114, 114),
        min_area_ratio=_base_.min_area_ratio,
        use_mask_refine=_base_.use_mask2refine)
]
# 定义训练管道,包含基础预处理、马赛克仿射变换、YOLOv5多模态混合等步骤
train_pipeline = [
    *_base_.pre_transform,
    *mosaic_affine_transform,
    dict(
        type='YOLOv5MultiModalMixUp',
        prob=_base_.mixup_prob,
        pre_transform=[*_base_.pre_transform,
                       *mosaic_affine_transform]),
    *_base_.last_transform[:-1],
    *text_transform
]
# 定义第二阶段训练管道,包含文本转换器
train_pipeline_stage2 = [
    *_base_.train_pipeline_stage2[:-1],
    *text_transform
]
# 定义COCO训练数据集,包含多模态数据集和管道
coco_train_dataset = dict(
    _delete_=True,
    type='MultiModalDataset',
    dataset=dict(
        type='YOLOv5CocoDataset',
        data_root='data/coco',
        ann_file='annotations/instances_train2017.json',
        data_prefix=dict(img='train2017/'),
        filter_cfg=dict(filter_empty_gt=False, min_size=32)),
    class_text_path='data/texts/coco_class_texts.json',
    pipeline=train_pipeline)
# 定义训练数据加载器,包含持久化工作进程设置
train_dataloader = dict(
    persistent_workers=persistent_workers,
    # 设置每个 GPU 的训练批量大小
    batch_size=train_batch_size_per_gpu,
    # 设置数据集的拼接函数为 yolow_collate
    collate_fn=dict(type='yolow_collate'),
    # 设置数据集为 coco_train_dataset
    dataset=coco_train_dataset)
# 定义测试数据处理流程,包括加载文本和打包检测输入
test_pipeline = [
    *_base_.test_pipeline[:-1],  # 复制基础测试数据处理流程,去掉最后一个元素
    dict(type='LoadText'),  # 加载文本数据
    dict(
        type='mmdet.PackDetInputs',  # 打包检测输入数据
        meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
                   'scale_factor', 'pad_param', 'texts'))  # 指定元数据的键值
]
# 定义 COCO 验证数据集,包括数据集信息、类别文本路径和数据处理流程
coco_val_dataset = dict(
    _delete_=True,  # 删除原有的数据集配置
    type='MultiModalDataset',  # 多模态数据集类型
    dataset=dict(
        type='YOLOv5CocoDataset',  # 使用 YOLOv5 格式的 COCO 数据集
        data_root='data/coco',  # 数据根目录
        ann_file='annotations/instances_val2017.json',  # 标注文件路径
        data_prefix=dict(img='val2017/'),  # 图像数据前缀
        filter_cfg=dict(filter_empty_gt=False, min_size=32)),  # 数据过滤配置
    class_text_path='data/texts/coco_class_texts.json',  # 类别文本路径
    pipeline=test_pipeline)  # 数据处理流程
# 定义验证数据加载器,使用 COCO 验证数据集
val_dataloader = dict(dataset=coco_val_dataset)
# 测试数据加载器与验证数据加载器相同
test_dataloader = val_dataloader
# 训练设置
default_hooks = dict(
    param_scheduler=dict(
        scheduler_type='linear',  # 使用线性学习率调度器
        lr_factor=0.01,  # 学习率因子
        max_epochs=max_epochs),  # 最大训练轮数
    checkpoint=dict(
        max_keep_ckpts=-1,  # 保留的最大检查点数
        save_best=None,  # 保存最佳模型的配置
        interval=save_epoch_intervals))  # 保存检查点的间隔
custom_hooks = [
    dict(
        type='EMAHook',  # 指数移动平均钩子
        ema_type='ExpMomentumEMA',  # 指数动量 EMA 类型
        momentum=0.0001,  # 动量参数
        update_buffers=True,  # 更新缓冲区
        strict_load=False,  # 严格加载
        priority=49),  # 优先级
    dict(
        type='mmdet.PipelineSwitchHook',  # 数据处理流程切换钩子
        switch_epoch=max_epochs - close_mosaic_epochs,  # 切换数据处理流程的轮数
        switch_pipeline=train_pipeline_stage2)  # 切换后的数据处理流程
]
train_cfg = dict(
    max_epochs=max_epochs,  # 最大训练轮数
    val_interval=5,  # 验证间隔
    dynamic_intervals=[((max_epochs - close_mosaic_epochs), _base_.val_interval_stage2)])  # 动态间隔设置
optim_wrapper = dict(
    optimizer=dict(
        _delete_=True,  # 删除原有的优化器配置
        type='AdamW',  # 使用 AdamW 优化器
        lr=base_lr,  # 基础学习率
        weight_decay=weight_decay,  # 权重衰减
        batch_size_per_gpu=train_batch_size_per_gpu),  # 每个 GPU 的批处理大小
    paramwise_cfg=dict(
        bias_decay_mult=0.0,  # 偏置衰减倍数
        norm_decay_mult=0.0,  # 归一化层衰减倍数
        custom_keys={'backbone.text_model': dict(lr_mult=0.01),  # 自定义键值对,指定学习率倍数
                     'logit_scale': dict(weight_decay=0.0)}),  # 自定义键值对,指定权重衰减
    constructor='YOLOWv5OptimizerConstructor')  # 优化器构造器
# 评估设置
# 创建一个字典,用于配置评估器的参数
val_evaluator = dict(
    # 标记是否删除
    _delete_=True,
    # 评估器类型为 mmdet.CocoMetric
    type='mmdet.CocoMetric',
    # 提议框数量的元组
    proposal_nums=(100, 1, 10),
    # COCO 数据集的标注文件路径
    ann_file='data/coco/annotations/instances_val2017.json',
    # 评估指标为 bbox
    metric='bbox')

.\YOLO-World\configs\finetune_coco\yolo_world_l_efficient_neck_2e-4_80e_8gpus_mask-refine_finetune_coco.py

_base_ = ('../../third_party/mmyolo/configs/yolov8/'
          'yolov8_l_mask-refine_syncbn_fast_8xb16-500e_coco.py')
custom_imports = dict(imports=['yolo_world'], allow_failed_imports=False)
# 定义基础配置文件路径和自定义导入配置
# _base_ 为基础配置文件路径
# custom_imports 为自定义导入配置,包含导入模块和是否允许导入失败
# hyper-parameters
num_classes = 80
num_training_classes = 80
max_epochs = 80  # Maximum training epochs
close_mosaic_epochs = 10
save_epoch_intervals = 5
text_channels = 512
neck_embed_channels = [128, 256, _base_.last_stage_out_channels // 2]
neck_num_heads = [4, 8, _base_.last_stage_out_channels // 2 // 32]
base_lr = 2e-4
weight_decay = 0.05
train_batch_size_per_gpu = 16
load_from = 'pretrained_models/yolo_world_l_clip_base_dual_vlpan_2e-3adamw_32xb16_100e_o365_goldg_train_pretrained-0e566235.pth'
persistent_workers = False
# 定义超参数
# num_classes 为类别数量
# max_epochs 为最大训练轮数
# text_channels 为文本通道数
# neck_embed_channels 为颈部嵌入通道数
# neck_num_heads 为颈部注意力头数
# base_lr 为基础学习率
# weight_decay 为权重衰减
# train_batch_size_per_gpu 为每个 GPU 的训练批量大小
# load_from 为预训练模型路径
# persistent_workers 为是否持久化工作进程
# model settings
model = dict(
    type='YOLOWorldDetector',
    mm_neck=True,
    num_train_classes=num_training_classes,
    num_test_classes=num_classes,
    data_preprocessor=dict(type='YOLOWDetDataPreprocessor'),
    backbone=dict(
        _delete_=True,
        type='MultiModalYOLOBackbone',
        image_model={{_base_.model.backbone}},
        text_model=dict(
            type='HuggingCLIPLanguageBackbone',
            model_name='openai/clip-vit-base-patch32',
            frozen_modules=['all'])),
    neck=dict(type='YOLOWorldPAFPN',
              guide_channels=text_channels,
              embed_channels=neck_embed_channels,
              num_heads=neck_num_heads,
              block_cfg=dict(type='EfficientCSPLayerWithTwoConv')),
    bbox_head=dict(type='YOLOWorldHead',
                   head_module=dict(type='YOLOWorldHeadModule',
                                    embed_dims=text_channels,
                                    num_classes=num_training_classes)),
    train_cfg=dict(assigner=dict(num_classes=num_training_classes)))
# 定义模型设置
# type 为模型类型
# mm_neck 为是否使用多模态颈部
# data_preprocessor 为数据预处理器类型
# backbone 为骨干网络配置
# neck 为颈部网络配置
# bbox_head 为边界框头部配置
# train_cfg 为训练配置
# dataset settings
text_transform = [
# 定义数据集设���
# text_transform 为文本转换器
    # 定义一个字典,包含参数 type、num_neg_samples、max_num_samples、padding_to_max 和 padding_value
    dict(type='RandomLoadText',
         num_neg_samples=(num_classes, num_classes),
         max_num_samples=num_training_classes,
         padding_to_max=True,
         padding_value=''),
    # 定义一个字典,包含参数 type 和 meta_keys
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape', 'flip',
                    'flip_direction', 'texts'))
# 定义一个包含多个数据增强操作的列表,用于对图像进行仿射变换
mosaic_affine_transform = [
    # 多模态镶嵌操作,设置图像缩放、填充值、预处理操作
    dict(type='MultiModalMosaic',
         img_scale=_base_.img_scale,
         pad_val=114.0,
         pre_transform=_base_.pre_transform),
    # YOLOv5CopyPaste 操作,设置复制粘贴的概率
    dict(type='YOLOv5CopyPaste', prob=_base_.copypaste_prob),
    # YOLOv5RandomAffine 操作,设置随机仿射变换的参数
    dict(
        type='YOLOv5RandomAffine',
        max_rotate_degree=0.0,
        max_shear_degree=0.0,
        max_aspect_ratio=100.,
        scaling_ratio_range=(1 - _base_.affine_scale, 1 + _base_.affine_scale),
        # 图像缩放比例为 (宽度, 高度)
        border=(-_base_.img_scale[0] // 2, -_base_.img_scale[1] // 2),
        border_val=(114, 114, 114),
        min_area_ratio=_base_.min_area_ratio,
        use_mask_refine=_base_.use_mask2refine)
]
# 训练数据处理流程,包括预处理、仿射变换、MixUp 操作等
train_pipeline = [
    *_base_.pre_transform, *mosaic_affine_transform,
    # YOLOv5MultiModalMixUp 操作,设置 MixUp 操作的概率和预处理操作
    dict(type='YOLOv5MultiModalMixUp',
         prob=_base_.mixup_prob,
         pre_transform=[*_base_.pre_transform, *mosaic_affine_transform]),
    # 最后的数据处理操作,除最后一个元素外,添加文本转换操作
    *_base_.last_transform[:-1], *text_transform
]
# 第二阶段训练数据处理流程,除最后一个元素外,添加文本转换操作
train_pipeline_stage2 = [*_base_.train_pipeline_stage2[:-1], *text_transform]
# COCO 训练数据集配置,设置数据集路径、注释文件、类别文本路径和数据处理流程
coco_train_dataset = dict(_delete_=True,
                          type='MultiModalDataset',
                          dataset=dict(
                              type='YOLOv5CocoDataset',
                              data_root='data/coco',
                              ann_file='annotations/instances_train2017.json',
                              data_prefix=dict(img='train2017/'),
                              filter_cfg=dict(filter_empty_gt=False,
                                              min_size=32)),
                          class_text_path='data/texts/coco_class_texts.json',
                          pipeline=train_pipeline)
# 训练数据加载器配置,设置持久化工作进程、每个 GPU 的批处理大小、数据集和数据整理函数
train_dataloader = dict(persistent_workers=persistent_workers,
                        batch_size=train_batch_size_per_gpu,
                        collate_fn=dict(type='yolow_collate'),
                        dataset=coco_train_dataset)
# 测试数据处理流程,除最后一个元素外,保持不变
test_pipeline = [
    *_base_.test_pipeline[:-1],
    # 创建一个字典,指定类型为'LoadText'
    dict(type='LoadText'),
    # 创建一个字典,指定类型为'mmdet.PackDetInputs',并指定元数据的键值
    dict(type='mmdet.PackDetInputs',
         meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
                    'scale_factor', 'pad_param', 'texts'))
# 以下代码存在语法错误,缺少左括号,需要修复
# 定义 coco_val_dataset 字典,包含数据集信息和数据预处理流程
coco_val_dataset = dict(
    _delete_=True,
    type='MultiModalDataset',
    dataset=dict(type='YOLOv5CocoDataset',
                 data_root='data/coco',
                 ann_file='annotations/instances_val2017.json',
                 data_prefix=dict(img='val2017/'),
                 filter_cfg=dict(filter_empty_gt=False, min_size=32)),
    class_text_path='data/texts/coco_class_texts.json',
    pipeline=test_pipeline)
# 定义 val_dataloader 字典,包含验证数据集信息
val_dataloader = dict(dataset=coco_val_dataset)
# 将验证数据集赋值给测试数据集
test_dataloader = val_dataloader
# 定义默认的训练设置
default_hooks = dict(param_scheduler=dict(scheduler_type='linear',
                                          lr_factor=0.01,
                                          max_epochs=max_epochs),
                     checkpoint=dict(max_keep_ckpts=-1,
                                     save_best=None,
                                     interval=save_epoch_intervals))
# 定义自定义的训练设置
custom_hooks = [
    dict(type='EMAHook',
         ema_type='ExpMomentumEMA',
         momentum=0.0001,
         update_buffers=True,
         strict_load=False,
         priority=49),
    dict(type='mmdet.PipelineSwitchHook',
         switch_epoch=max_epochs - close_mosaic_epochs,
         switch_pipeline=train_pipeline_stage2)
]
# 定义训练配置
train_cfg = dict(max_epochs=max_epochs,
                 val_interval=5,
                 dynamic_intervals=[((max_epochs - close_mosaic_epochs),
                                     _base_.val_interval_stage2)])
# 定义优化器包装器
optim_wrapper = dict(optimizer=dict(
    _delete_=True,
    type='AdamW',
    lr=base_lr,
    weight_decay=weight_decay,
    # 设置每个 GPU 的训练批量大小
    batch_size_per_gpu=train_batch_size_per_gpu),
    # 针对参数进行配置,包括偏置项和归一化项的衰减倍数,以及自定义键值对
    paramwise_cfg=dict(bias_decay_mult=0.0,
                       norm_decay_mult=0.0,
                       custom_keys={
                           'backbone.text_model':
                           dict(lr_mult=0.01),
                           'logit_scale':
                           dict(weight_decay=0.0)
                       }),
    # 使用 YOLOWv5 优化器构造函数
    constructor='YOLOWv5OptimizerConstructor')
# 定义评估器的设置
val_evaluator = dict(_delete_=True,  # 删除原有的评估器设置
                     type='mmdet.CocoMetric',  # 使用 mmdet 库中的 CocoMetric 类
                     proposal_nums=(100, 1, 10),  # 提议框的数量设置
                     ann_file='data/coco/annotations/instances_val2017.json',  # COCO 数据集的标注文件路径
                     metric='bbox')  # 评估指标为边界框(bbox)

yolo-world 源码解析(一)(3)https://developer.aliyun.com/article/1483829

相关文章
|
1月前
|
监控 Java 应用服务中间件
高级java面试---spring.factories文件的解析源码API机制
【11月更文挑战第20天】Spring Boot是一个用于快速构建基于Spring框架的应用程序的开源框架。它通过自动配置、起步依赖和内嵌服务器等特性,极大地简化了Spring应用的开发和部署过程。本文将深入探讨Spring Boot的背景历史、业务场景、功能点以及底层原理,并通过Java代码手写模拟Spring Boot的启动过程,特别是spring.factories文件的解析源码API机制。
77 2
|
3天前
|
存储 设计模式 算法
【23种设计模式·全精解析 | 行为型模式篇】11种行为型模式的结构概述、案例实现、优缺点、扩展对比、使用场景、源码解析
行为型模式用于描述程序在运行时复杂的流程控制,即描述多个类或对象之间怎样相互协作共同完成单个对象都无法单独完成的任务,它涉及算法与对象间职责的分配。行为型模式分为类行为模式和对象行为模式,前者采用继承机制来在类间分派行为,后者采用组合或聚合在对象间分配行为。由于组合关系或聚合关系比继承关系耦合度低,满足“合成复用原则”,所以对象行为模式比类行为模式具有更大的灵活性。 行为型模式分为: • 模板方法模式 • 策略模式 • 命令模式 • 职责链模式 • 状态模式 • 观察者模式 • 中介者模式 • 迭代器模式 • 访问者模式 • 备忘录模式 • 解释器模式
【23种设计模式·全精解析 | 行为型模式篇】11种行为型模式的结构概述、案例实现、优缺点、扩展对比、使用场景、源码解析
|
3天前
|
设计模式 存储 安全
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
结构型模式描述如何将类或对象按某种布局组成更大的结构。它分为类结构型模式和对象结构型模式,前者采用继承机制来组织接口和类,后者釆用组合或聚合来组合对象。由于组合关系或聚合关系比继承关系耦合度低,满足“合成复用原则”,所以对象结构型模式比类结构型模式具有更大的灵活性。 结构型模式分为以下 7 种: • 代理模式 • 适配器模式 • 装饰者模式 • 桥接模式 • 外观模式 • 组合模式 • 享元模式
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
|
3天前
|
设计模式 存储 安全
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
创建型模式的主要关注点是“怎样创建对象?”,它的主要特点是"将对象的创建与使用分离”。这样可以降低系统的耦合度,使用者不需要关注对象的创建细节。创建型模式分为5种:单例模式、工厂方法模式抽象工厂式、原型模式、建造者模式。
【23种设计模式·全精解析 | 创建型模式篇】5种创建型模式的结构概述、实现、优缺点、扩展、使用场景、源码解析
|
26天前
|
缓存 监控 Java
Java线程池提交任务流程底层源码与源码解析
【11月更文挑战第30天】嘿,各位技术爱好者们,今天咱们来聊聊Java线程池提交任务的底层源码与源码解析。作为一个资深的Java开发者,我相信你一定对线程池并不陌生。线程池作为并发编程中的一大利器,其重要性不言而喻。今天,我将以对话的方式,带你一步步深入线程池的奥秘,从概述到功能点,再到背景和业务点,最后到底层原理和示例,让你对线程池有一个全新的认识。
54 12
|
22天前
|
PyTorch Shell API
Ascend Extension for PyTorch的源码解析
本文介绍了Ascend对PyTorch代码的适配过程,包括源码下载、编译步骤及常见问题,详细解析了torch-npu编译后的文件结构和三种实现昇腾NPU算子调用的方式:通过torch的register方式、定义算子方式和API重定向映射方式。这对于开发者理解和使用Ascend平台上的PyTorch具有重要指导意义。
|
4天前
|
安全 搜索推荐 数据挖掘
陪玩系统源码开发流程解析,成品陪玩系统源码的优点
我们自主开发的多客陪玩系统源码,整合了市面上主流陪玩APP功能,支持二次开发。该系统适用于线上游戏陪玩、语音视频聊天、心理咨询等场景,提供用户注册管理、陪玩者资料库、预约匹配、实时通讯、支付结算、安全隐私保护、客户服务及数据分析等功能,打造综合性社交平台。随着互联网技术发展,陪玩系统正成为游戏爱好者的新宠,改变游戏体验并带来新的商业模式。
|
1月前
|
存储 安全 Linux
Golang的GMP调度模型与源码解析
【11月更文挑战第11天】GMP 调度模型是 Go 语言运行时系统的核心部分,用于高效管理和调度大量协程(goroutine)。它通过少量的操作系统线程(M)和逻辑处理器(P)来调度大量的轻量级协程(G),从而实现高性能的并发处理。GMP 模型通过本地队列和全局队列来减少锁竞争,提高调度效率。在 Go 源码中,`runtime.h` 文件定义了关键数据结构,`schedule()` 和 `findrunnable()` 函数实现了核心调度逻辑。通过深入研究 GMP 模型,可以更好地理解 Go 语言的并发机制。
|
1月前
|
消息中间件 缓存 安全
Future与FutureTask源码解析,接口阻塞问题及解决方案
【11月更文挑战第5天】在Java开发中,多线程编程是提高系统并发性能和资源利用率的重要手段。然而,多线程编程也带来了诸如线程安全、死锁、接口阻塞等一系列复杂问题。本文将深度剖析多线程优化技巧、Future与FutureTask的源码、接口阻塞问题及解决方案,并通过具体业务场景和Java代码示例进行实战演示。
58 3
|
2月前
|
存储
让星星⭐月亮告诉你,HashMap的put方法源码解析及其中两种会触发扩容的场景(足够详尽,有问题欢迎指正~)
`HashMap`的`put`方法通过调用`putVal`实现,主要涉及两个场景下的扩容操作:1. 初始化时,链表数组的初始容量设为16,阈值设为12;2. 当存储的元素个数超过阈值时,链表数组的容量和阈值均翻倍。`putVal`方法处理键值对的插入,包括链表和红黑树的转换,确保高效的数据存取。
64 5

热门文章

最新文章

推荐镜像

更多