开发者社区> 程序员对白> 正文

ICLR2021对比学习(Contrastive Learning)NLP领域论文进展梳理(二)

简介: ICLR2021对比学习(Contrastive Learning)NLP领域论文进展梳理(二)
+关注继续查看

Towards Robust and Efficient Contrastive Textual Representation Learning


任务:语言模型预训练


5png.png


本文分析了目前将对比学习用于文本表示学习存在的问题(2.2节),包括:


对比学习中,如果采用KL散度作为训练目标,训练过程会不稳定;


对比学习要求一个较大的负样本集合,效率低。


对于第一个问题,作者添加了一个Wasserstein约束,来增强其训练时的稳定性;对于第二个问题,作者提出了只采样最近的K个负样本,称为Active Negative-sample selection(和NIPS那篇:Hard Negatives Mixing比较类似)。


Self-supervised Contrastive Zero to Few-shot Learning from Small, Long-tailed Text data


任务:文本匹配;多标签文本分类


6.png


本文主要尝试解决多标签文本分类问题,特别是其存在的长尾标签问题(即当数据较少时,类别分布往往不均匀,会存在大量很多只出现了一两次的标签,同时少量类别频繁出现)。


本文主要将多标签分类任务建模成类似文本匹配的形式。将采样不同的正负标签,同时也会从句子中采样文本片段,构成伪标签。这四种形式的标签(正标签、负标签、正伪标签、负伪标签)编码后,和句子编码拼接,经过一个匹配层,通过二分类交叉熵损失(BCE),或NCE损失(将正例区别于负例)训练匹配模型。


Approximate Nearest Neighbor Negative Contrastive Learning for Dense Text Retrieval


任务:稠密文本检索


7.png


本文研究文本检索领域,不同于传统的利用词级别进行检索(稀疏检索),本文通过训练文本表示进行文本检索(称为Dence Retrieval,DR)。DR包含两个阶段:


预训练一个模型,将文本编码成一个向量,训练目标是使得similar pairs具有最大的相似度分数;


通过训练好的编码模型,将文本编码、索引,根据query的相似度执行检索。


本文主要关注于第一阶段,即如何训练一个好的表示。本文从一个假设出发:负样本采样方法是限制DR性能的瓶颈。本文的贡献:


提出了一种更好的负采样方法,用于采样优质的dissimilar pairs;


本文提出的效果能让训练更快收敛;


本文提出的方法相比基于BERT的方法提升了100倍效率,同时达到了相似的准确率。


本文所提出的负采样方法是一种不断迭代的形式,将ANN索引的结果用于负样本采样,随后进一步训练模型;模型训练完之后,用于更新文档表示以及索引。




版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
Paper之ACL&EMNLP:2009年~2019年ACL计算语言学协会年会&EMNLP自然语言处理的经验方法会议历年最佳论文简介及其解读
Paper之ACL&EMNLP:2009年~2019年ACL计算语言学协会年会&EMNLP自然语言处理的经验方法会议历年最佳论文简介及其解读
171 0
给Bert加速吧!NLP中的知识蒸馏论文 Distilled BiLSTM解读
给Bert加速吧!NLP中的知识蒸馏论文 Distilled BiLSTM解读
206 0
ICLR2021对比学习(Contrastive Learning)NLP领域论文进展梳理(一)
ICLR2021对比学习(Contrastive Learning)NLP领域论文进展梳理(一)
193 0
清华大学NLP组年末巨献:机器翻译必读论文列表
昨天,清华大学自然语言处理组(THUNLP)整理的机器翻译论文阅读清单在 GitHub 上上线了。对于元旦和寒假期间想要积累机器翻译背景知识、追踪前沿技术的同学来说,这份列表再合适不过了。
196 0
NLP之WE之CBOW&Skip-Gram:CBOW&Skip-Gram算法概念相关论文、原理配图、关键步骤之详细攻略
NLP之WE之CBOW&Skip-Gram:CBOW&Skip-Gram算法概念相关论文、原理配图、关键步骤之详细攻略
73 0
一周AI最火论文 | 万物皆可预训练,NLP和CV皆获巨大性能提升
一周AI最火论文 | 万物皆可预训练,NLP和CV皆获巨大性能提升
96 0
NLP领域近期有哪些值得读的开源论文?(附下载)
本文为你分享10篇值得读的NLP论文,带源代码的那种~
1309 0
ACL 2019 | 基于知识增强的语言表示模型,多项NLP任务表现超越BERT(附论文解读)
本文提出了一种新方法,将知识图谱的信息加入到模型的训练中。
996 0
+关注
程序员对白
微信公众号:对白的算法屋,分享AI前沿算法和技术干货,回复「对白笔记」,即可领取我的原创算法笔记和工作心得。
文章
问答
文章排行榜
最热
最新
相关电子书
更多
《搜索NLP行业模型和轻量化客户定制》
立即下载
自然语言处理得十个发展趋势
立即下载
深度学习与自然语言处理
立即下载