机器学习新宠:对比学习论文实现大合集,60多篇分门别类,从未如此全面(一)

简介: 机器学习新宠:对比学习论文实现大合集,60多篇分门别类,从未如此全面(一)

大家好,我是对白。


最近对比学习真的太火了,已然成为各大顶会争相投稿的一个热门领域,而它火的原因也很简单,就是因为它解决了有监督训练标注数据有限这个典型问题(这个问题在工业界非常滴常见)。所以对比学习的出现,给CV、NLP和推荐都带来了极大的福音,具体来说:


1、在CV领域,解决了“在没有更大标注数据集的情况下,如何采用自监督预训练模式,来从中吸取图像本身的先验知识分布,得到一个预训练模型”的问题;


2、在NLP领域,验证了”自监督预训练使用的数据量越大,模型越复杂,那么模型能够吸收的知识越多,对下游任务效果来说越好“这样一个客观事实;


3、在推荐领域,解决了以下四个原因:数据的稀疏性、Item的长尾分布、跨域推荐中多个不同的view聚合问题以及增加模型的鲁棒性或对抗噪音,感兴趣地可以看我写的这篇文章:推荐系统中不得不学的对比学习(Contrastive Learning)方法


因此为了更加清楚的掌握对比学习的前沿方向与最新进展,我为大家整理了最近一年来各大顶会中对比学习相关的论文,一共涵盖:


ICLR2021,SIGIR2021,WWW2021,CVPR2021,AAAI2021,NAACL2021,ICLR2020,NIPS2020,CVPR2020,ICML2020,KDD2020共十一个会议60多篇论文。本次整理以long paper和research paper为主,也包含少量的short paper和industry paper。由于工作量巨大,难免有疏漏,欢迎大家在评论区指正。


本文整理的论文列表已经同步更新到GitHub,GitHub上会持续更新顶会论文,欢迎大家关注和star~


https://github.com/coder-duibai/Contrastive-Learning-Papers-Codes


分成九类


1111.png

222.png


我将60多篇论文和它们的代码,分到了九个类别里。


333.gif


1.Computer Vision


第一类是计算机视觉,也是内容最饱满的章节,有19篇论文的代码。


不乏最近非常著名的模型,例如何恺明提出的MoCo和MoCo v2以及Geoffrey Hinton提出的SimCLR和SimCLR v2便属于这一类。


1. [PCL] Prototypical Contrastive Learning of Unsupervised


Representations.ICLR2021. Authors:Junnan Li, Pan Zhou, Caiming Xiong, Steven C.H. Hoi. paper code


2. [BalFeat] Exploring Balanced Feature Spaces for Representation Learning. ICLR2021.Authors:Bingyi Kang, Yu Li, Sa Xie, Zehuan Yuan, Jiashi Feng. paper


3. [MiCE] MiCE: Mixture of Contrastive Experts for Unsupervised Image Clustering. ICLR2021. Authors:Tsung Wei Tsai, Chongxuan Li, Jun Zhu. paper code


4. [i-Mix] i-Mix: A Strategy for Regularizing Contrastive Representation Learning. ICLR2021.


Authors:Kibok Lee, Yian Zhu, Kihyuk Sohn, Chun-Liang Li, Jinwoo Shin, Honglak Lee. paper code


5. Contrastive Learning with Hard Negative Samples.ICLR2021.


Authors:Joshua Robinson, Ching-Yao Chuang, Suvrit Sra, Stefanie Jegelka. paper code


6. [LooC] What Should Not Be Contrastive in Contrastive Learning. ICLR2021.


Authors:Tete Xiao, Xiaolong Wang, Alexei A. Efros, Trevor Darrell. paper


7. [MoCo] Momentum Contrast for Unsupervised Visual Representation Learning. CVPR2020.


Authors:Kaiming He, Haoqi Fan, Yuxin Wu, Saining Xie, Ross Girshick. paper code


8. [MoCo v2] Improved Baselines with Momentum Contrastive Learning.


Authors:Xinlei Chen, Haoqi Fan, Ross Girshick, Kaiming He. paper code


9. [SimCLR] A Simple Framework for Contrastive Learning of Visual Representations. ICML2020. Authors:Ting Chen, Simon Kornblith, Mohammad Norouzi, Geoffrey Hinton. paper code


10. [SimCLR v2] Big Self-Supervised Models are Strong Semi-Supervised Learners. NIPS2020.


Authors:Ting Chen, Simon Kornblith, Kevin Swersky, Mohammad Norouzi, Geoffrey Hinton. paper code


11. [BYOL] Bootstrap your own latent: A new approach to self-supervised Learning.


Authors:Jean-Bastien Grill, Florian Strub, Florent Altché, Corentin Tallec, Pierre H, etc.


12. [SwAV] Unsupervised Learning of Visual Features by Contrasting Cluster Assignments. NIPS2020. Authors:Mathilde Caron, Ishan Misra, Julien Mairal, Priya Goyal, Piotr Bojanowski, Armand Joulin. paper code


13. [SimSiam] Exploring Simple Siamese Representation Learning. CVPR2021.


Authors:Xinlei Chen, Kaiming He. paper code


14. Hard Negative Mixing for Contrastive Learning. NIPS2020.


Authors:Yannis Kalantidis, Mert Bulent Sariyildiz, Noe Pion, Philippe Weinzaepfel, Diane Larlus. paper


15. Supervised Contrastive Learning. NIPS2020. Authors:Prannay Khosla, Piotr Teterwak, Chen Wang, Aaron Sarna, Yonglong Tian, Phillip Isola, Aaron Maschinot, Ce Liu, Dilip Krishnan. paper


16. [LoCo] LoCo: Local Contrastive Representation Learning. NIPS2020.


Authors:Yuwen Xiong, Mengye Ren, Raquel Urtasun. paper


17. What Makes for Good Views for Contrastive Learning?. NIPS2020.


Authors:Yonglong Tian, Chen Sun, Ben Poole, Dilip Krishnan, Cordelia Schmid, Phillip Isola. paper


18. [ContraGAN] ContraGAN: Contrastive Learning for Conditional Image Generation. NIPS2020.


Authors:Minguk Kang, Jaesik Park. paper code


19. [SpCL] Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive Object Re-ID. NIPS2020.


Authors:Yixiao Ge, Feng Zhu, Dapeng Chen, Rui Zhao, Hongsheng Li. paper code


相关文章
|
1月前
|
机器学习/深度学习 人工智能 算法
【AAAI 2024】再创佳绩!阿里云人工智能平台PAI多篇论文入选
阿里云人工智能平台PAI发表的多篇论文在AAAI-2024上正式亮相发表。AAAI是由国际人工智能促进协会主办的年会,是人工智能领域中历史最悠久、涵盖内容最广泛的国际顶级学术会议之一,也是中国计算机学会(CCF)推荐的A类国际学术会议。论文成果是阿里云与浙江大学、华南理工大学联合培养项目等共同研发,深耕以通用人工智能(AGI)为目标的一系列基础科学与工程问题,包括多模态理解模型、小样本类增量学习、深度表格学习和文档版面此次入选意味着阿里云人工智能平台PAI自研的深度学习算法达到了全球业界先进水平,获得了国际学者的认可,展现了阿里云人工智能技术创新在国际上的竞争力。
|
3月前
|
机器学习/深度学习 算法
机器学习 - [集成学习]Bagging算法的编程实现
机器学习 - [集成学习]Bagging算法的编程实现
32 1
|
2月前
|
机器学习/深度学习 算法 数据可视化
计算机视觉+深度学习+机器学习+opencv+目标检测跟踪+一站式学习(代码+视频+PPT)-2
计算机视觉+深度学习+机器学习+opencv+目标检测跟踪+一站式学习(代码+视频+PPT)
96 0
|
2月前
|
机器学习/深度学习 Ubuntu Linux
计算机视觉+深度学习+机器学习+opencv+目标检测跟踪+一站式学习(代码+视频+PPT)-1
计算机视觉+深度学习+机器学习+opencv+目标检测跟踪+一站式学习(代码+视频+PPT)
55 1
|
10天前
|
机器学习/深度学习 人工智能 运维
|
11天前
|
机器学习/深度学习 人工智能 自然语言处理
|
15天前
|
机器学习/深度学习 数据可视化 算法
【python】Python大豆特征数据分析 [机器学习版一](代码+论文)【独一无二】
【python】Python大豆特征数据分析 [机器学习版一](代码+论文)【独一无二】
|
22天前
|
机器学习/深度学习 弹性计算 数据可视化
玩ST、肿瘤研究的来学习一下!16分Nature子刊的单细胞空间转录组+机器学习
Nature Communications 发表了一项关于空间转录组和机器学习在肿瘤研究中的应用。研究聚焦于HPV阴性口腔鳞状细胞癌,通过整合单细胞和空间转录组分析,揭示了肿瘤核心(TC)和前沿边缘(LE)的独特转录特征。TC和LE的基因表达模式与多种癌症的预后相关,其中LE基因标志关联不良预后,而TC则与较好预后相关。利用机器学习,研究人员建立了预测模型,识别出跨癌症类型的保守TC和LE特征。此外,他们还分析了RNA剪接动态,发现了潜在的治疗脆弱性。这项工作为肿瘤生物学和靶向治疗提供了新见解,并为药物开发提供了依据。
22 0
|
2月前
|
机器学习/深度学习 自然语言处理 算法
从零开始学习机器学习
【2月更文挑战第3天】机器学习是一种人工智能技术,它可以通过计算机程序来自动化地进行数据分析和预测。本文将从零开始介绍机器学习的基本概念和算法,为您打开机器学习的大门。
17 0
|
3月前
|
机器学习/深度学习 人工智能
【人工智能】<吴恩达-机器学习>多变量线性回归&学习率&特征值
【1月更文挑战第26天】【人工智能】<吴恩达-机器学习>多变量线性回归&学习率&特征值