TPAMI 2024:ProCo: 无限contrastive pairs的长尾对比学习

简介: 【8月更文挑战第17天】在深度学习领域,长尾分布问题困扰着视觉识别任务。针对监督对比学习(SCL)在长尾数据中受限于批量大小的问题,清华大学的研究者在TPAMI 2024发表了一种概率对比学习方法ProCo。ProCo通过估计特征空间中的样本分布,允许在小批量数据中高效构建对比对,采用vMF混合模型简化分布估计,实现无限对比对的采样和封闭形式的对比损失,有效解决了SCL的固有问题。此方法不仅提升了长尾类别的识别精度,还适用于半监督学习场景。尽管存在假设限制和超参数调整需求,ProCo在多种任务和数据集上展示了显著的性能提升。

在深度学习领域,长尾分布问题一直是视觉识别任务中的一个难题。长尾分布指的是在现实世界的数据集中,少数类别拥有大量样本,而大多数类别只有少量样本,形成一种从“头”到“尾”样本数量指数级递减的不平衡分布。这种不平衡的数据分布对标准的监督学习算法构成了挑战,因为这些算法主要是为平衡的数据集设计的。近年来,监督对比学习(Supervised Contrastive Learning, SCL)因其在缓解数据不平衡方面的潜力而受到关注。然而,SCL的性能受限于其需要足够大的批量数据来构建涵盖所有类别的对比对,这在类别不平衡的数据中难以实现。

针对这一问题,清华大学的Chaoqun Du、Yulin Wang、Shiji Song和Gao Huang在IEEE TPAMI 2024年的一篇论文中提出了一种新颖的概率对比学习方法——ProCo(Probabilistic Contrastive Learning)。ProCo算法的核心思想是通过估计每个类别在特征空间中的样本数据分布,并据此采样对比对。ProCo算法的提出,旨在解决SCL在处理长尾分布数据时对大批量数据的依赖性,通过引入von Mises-Fisher(vMF)分布的混合模型来估计特征分布,从而允许在小批量数据中高效地估计所有类别的分布参数。

ProCo算法的提出,是对现有对比学习技术的一次重要补充。它通过简化的假设——即对比学习中的归一化特征遵循单位空间上的vMF分布——实现了两个主要优势:首先,可以通过仅使用第一阶样本矩来估计分布参数,这可以在不同批次中高效地在线计算;其次,基于估计的分布,vMF分布允许我们采样无限数量的对比对,并导出期望对比损失的封闭形式,从而实现高效优化。

ProCo算法不仅适用于长尾问题,还可以直接应用于半监督学习,通过为未标记数据生成伪标签,进而用于估计样本的分布。理论上,论文对ProCo的误差界限进行了分析,并通过在监督/半监督视觉识别和目标检测任务上的广泛实验结果证明了ProCo在多个数据集上持续超越现有方法的性能。

然而,ProCo算法也有其局限性。首先,ProCo依赖于vMF分布的假设,这可能不适用于所有类型的数据分布。此外,ProCo算法在实际应用中可能需要调整多个超参数以适应不同的数据集和任务,这可能会增加模型训练的复杂性。尽管如此,ProCo算法在处理长尾分布问题上展现出的潜力和效果是值得肯定的。

论文的实验部分对ProCo算法进行了深入的评估。作者在多个长尾和平衡数据集上进行了实验,包括CIFAR10/100-LT、ImageNet-LT、iNaturalist 2018和LVIS v1。实验结果表明,ProCo在各种情况下都能有效地提高模型的泛化性能,尤其是在长尾类别上。此外,ProCo算法在半监督学习任务中也显示出了良好的性能,证明了其在现实世界不平衡数据集中的应用潜力。

论文链接: https://arxiv.org/pdf/2403.06726

目录
相关文章
|
SQL 数据可视化 关系型数据库
DataX教程(05)- DataX Web项目实践
DataX教程(05)- DataX Web项目实践
5438 0
DataX教程(05)- DataX Web项目实践
【科研指南8】如何快速批量下载一篇论文后的所有的参考文献?附赠Endnote分组论文管理
【科研指南8】如何快速批量下载一篇论文后的所有的参考文献?附赠Endnote分组论文管理
3313 0
|
机器学习/深度学习 编解码 人工智能
人脸表情[七种表情]数据集(15500张图片已划分、已标注)|适用于YOLO系列深度学习分类检测任务【数据集分享】
本数据集包含15,500张已划分、已标注的人脸表情图像,覆盖惊讶、恐惧、厌恶、高兴、悲伤、愤怒和中性七类表情,适用于YOLO系列等深度学习模型的分类与检测任务。数据集结构清晰,分为训练集与测试集,支持多种标注格式转换,适用于人机交互、心理健康、驾驶监测等多个领域。
解决SpringBoot无法访问静态资源文件
解决SpringBoot无法访问静态资源文件
解决SpringBoot无法访问静态资源文件
|
机器学习/深度学习
ProCo: 无限contrastive pairs的长尾对比学习——TPAMI 2024最新成果解读
【10月更文挑战第3天】《ProCo: Infinite Contrastive Pairs for Long-Tailed Contrastive Learning》是TPAMI 2024的最新成果,针对现实世界图像数据中的长尾分布问题,提出了一种通过生成无限对比对来提升模型效果的方法。ProCo包括构建原型网络、生成对比对、设计对比损失函数及优化策略。实验结果显示,ProCo在多个长尾数据集上显著优于现有方法。此外,还提供了简化版示例代码,便于读者理解和应用。未来,该领域有望涌现更多创新研究。
393 3
|
存储 Linux KVM
Proxmox VE (PVE) 主要架构和重要服务介绍
Proxmox VE (PVE) 是一款开源的虚拟化平台,它基于 KVM (Kernel-based Virtual Machine) 和 LXC (Linux Containers) 技术,支持虚拟机和容器的运行。PVE 还提供高可用集群管理、软件定义存储、备份和恢复以及网络管理等企业级功能。
4369 7
|
11月前
|
人工智能 数据安全/隐私保护 Docker
短短时间,疯狂斩获1.9k star,开源AI神器AingDesk:一键部署上百模型,本地运行还能联网搜索!
AingDesk 是一款开源的本地 AI 模型管理工具,已获 1.9k Star。它支持一键部署上百款大模型(如 DeepSeek、Llama),适配 CPU/GPU,可本地运行并联网搜索。五大核心功能包括零门槛模型部署、实时联网搜证、私人知识库搭建、跨平台共享和智能体工厂,满足学术、办公及团队协作需求。相比 Ollama 和 Cherry Studio,AingDesk 更简单易用,适合技术小白、团队管理者和隐私敏感者。项目地址:https://github.com/aingdesk/AingDesk。
1275 3
|
机器学习/深度学习 算法 PyTorch
DeepSeek 背后的技术:GRPO,基于群组采样的高效大语言模型强化学习训练方法详解
强化学习(RL)是提升大型语言模型(LLM)推理能力的重要手段,尤其在复杂推理任务中表现突出。DeepSeek团队通过群组相对策略优化(GRPO)方法,在DeepSeek-Math和DeepSeek-R1模型中取得了突破性成果,显著增强了数学推理和问题解决能力。GRPO无需价值网络,采用群组采样和相对优势估计,有效解决了传统RL应用于语言模型时的挑战,提升了训练效率和稳定性。实际应用中,DeepSeek-Math和DeepSeek-R1分别在数学推理和复杂推理任务中展现了卓越性能。未来研究将聚焦于改进优势估计、自适应超参数调整及理论分析,进一步拓展语言模型的能力边界。
2463 8
DeepSeek 背后的技术:GRPO,基于群组采样的高效大语言模型强化学习训练方法详解
|
监控 IDE Java
如何在无需重新启动服务器的情况下在 Spring Boot 上重新加载我的更改?
如何在无需重新启动服务器的情况下在 Spring Boot 上重新加载我的更改?
1509 8
|
设计模式 存储 算法
《设计模式:可复用面向对象软件的基础(典藏版)》
本书是埃里克·伽玛著作,涵盖180个笔记,主要介绍面向对象设计模式,包括MVC、设计模式编目、组织编目、实现描述、复用机制、运行时与编译时结构关联、设计支持变化等方面。书中详细解释了23种设计模式,如Abstract Factory、Adapter、Bridge、Builder等,按创建型、结构型、行为型分类,旨在提高软件可复用性和灵活性。
1336 0
《设计模式:可复用面向对象软件的基础(典藏版)》

热门文章

最新文章