中国接收论文量登顶,斩获最佳论文:ACL 2021统计数据出炉

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
简介: 2021 年的 ACL 上,国人论文的占比继续增加,最佳论文奖也被收入囊中。

8 月 2 日,计算语言学、自然语言处理领域顶会第 59 届 ACL 大会及第 11 届亚洲自然语言处理学术会议 IJCNLP 联合会议(ACL-IJCNLP)以线上方式举行。

作为自然语言处理(NLP)领域的顶级学术会议,今年的 ACL 大会已是第 59 届,会议举办时间为 8 月 2 日 - 5 日。

中科院自动化所研究员宗成庆老师担任了今年的 ACL-IJCNLP 主席,程序主席包括华盛顿大学的夏飞教授(Fei Xia)和香港理工大学的李文捷(Wenjie Li)教授以及罗马大学的 Roberto Navigli。

在上周六机器之心于北京举办的 ACL 2021 论文分享会上,宗成庆老师向我们介绍了本届会议的一些数据信息。随着大会的开幕,我们可以看到更多有关今年 ACL 的论文数据,包括热门主题、中国学者的论文数据等。

从公开数据我们可以看到,今年共有 3350 篇投稿,其中包括 2327 篇长论文和 1023 篇短论文,这个数据相比去年(3429 篇)略有减少。在所有研究之中,有 710 篇最终被接收,接收率 21.2%。在今年的会议中,另有 493 篇论文被接收为 Findings,这额外 14.9% 的论文被接收到了大会的 Findings 子刊。

微信图片_20211206102236.jpg


在论文的方向上,机器学习、翻译、信息提取、语言交互系统等方向是人们探索的主流:

微信图片_20211206102240.jpg


值得注意的是,该会来自中国的论文投稿数量已经大幅超越美国,并领先其他国家与地区:共有 1239 篇论文投稿来自中国大陆,其中 251 篇被接收,接收率 20.3%。

微信图片_20211206102244.jpg


最佳论文 & 杰出论文

在大会正式召开之前,程序委员会公布了全部论文奖项。本届大会的最佳论文《Vocabulary Learning via Optimal Transport for Neural Machine Translation》来自中国机构字节跳动火山翻译团队,提出了一种新的词表学习方案 VOLT,在多种翻译任务上取得了优秀的结果。

微信图片_20211206102250.jpg



有趣的是,该研究修改前的版本曾投至另一个机器学习顶会 ICLR 2021。在 Openreview 网站上现在还能看到该论文及匿名评审的结果。当时四名评审给出的意见是 3、3、4、4——未达到接收标准,作者做了 rebuttal 之后撤稿转投 ACL 并获得了人们的认可。

从评审者的角度来看,这篇 ACL 2021 最佳论文和以往有所不同——以往经常是开创了新的方向,而今年研究的想法非常创新,且工作极为细致透彻。这是以往中国大陆学者所很少能够做到的程度。

今年的最佳主题论文(Best theme paper)研究来自卡耐基梅隆大学、巴伊兰大学、加劳德特大学与艾伦人工智能研究所等机构。第一作者殷绮妤(Kayo Yin)本科毕业于巴黎综合理工学院,目前是卡耐基梅隆大学的在读研究生。

微信图片_20211206102253.jpg


论文链接:https://arxiv.org/abs/2105.05222

此外,还有六篇论文获得了 ACL 2021 的杰出论文荣誉,包括港中文、腾讯 AI Lab、斯坦福大学(李飞飞、曼宁等人团队)的研究。

从 ACL 的论文投稿和接收数量来看,近几年来中国的 NLP 领域从追赶者逐渐成为国际舞台的主力军。对比曾在北京举办的 ACL 2015:那时中国的论文投稿数量还不及美国,整个大会也只有 318 篇接收论文。

微信图片_20211206102257.jpg


仍要关注到的是,国内论文投稿的接收率仍不及美国,在 NLP 的大方向上,还有很多地方值得努力。

宗成庆表示,国内论文数量的增长是人工智能领域近年来火热,以及新技术应用前景所推动的结果。随着 NLP 的发展,未来我们或许能看到更多投身这一领域的学者。

相关文章
|
存储 编解码 监控
C++与OpenGL结合实现的屏幕监控软件:高性能屏幕录制解决方案
使用C++和OpenGL结合,本文展示了如何创建高性能屏幕录制软件。通过OpenGL的`glReadPixels`获取屏幕图像,存储为视频文件,再利用C++的网络编程(如libcurl)将监控数据提交到网站。示例代码包括了屏幕捕获和数据上传的简单实现。
513 2
|
存储 安全 Shell
Git clone 克隆私有项目
Git clone 克隆私有项目
Git clone 克隆私有项目
|
3月前
|
机器学习/深度学习 自然语言处理 前端开发
国内快递地址解析技术的工作原理详解
随着电商和快递行业快速发展,非结构化地址问题日益突出,如字段混杂、拼写错误等,传统方式难以高效处理。为此,探数平台推出基于NLP和地理信息的快递地址解析API,可将原始地址文本解析为标准结构化字段(如省、市、区、街道等),并支持收件人姓名与电话提取。 技术上,该API采用深度学习模型(如BERT、BiLSTM)进行语义理解,结合地址知识图谱实现纠错与补全。服务支持SaaS调用或私有化部署,性能稳定,适用于各类前端场景。通过地址结构化处理,企业可显著提升订单处理效率,减少配送错误,优化用户体验,助力全链路智能化升级。无论是电商平台还是物流系统,均可从中受益。
269 0
|
11月前
FFmpeg【SDK01】日志和字典的使用
FFmpeg中日志功能的使用方法,包括日志级别的设置和AVDictionary的基本操作,同时展示了字符串解析函数如av_parse_video_size、av_parse_video_rate和av_parse_time的应用。
143 2
|
8月前
|
人工智能 自然语言处理 数据库
CHRONOS:阿里通义联合上海交大推出时间线摘要生成框架,适用于大规模新闻数据的时间线生成任务
CHRONOS 是由阿里通义实验室与上海交大联合推出的时间线摘要生成框架,支持开放域与封闭域,通过迭代自问自答机制生成连贯的时间线摘要,适用于新闻、金融、教育等多个领域。
416 15
CHRONOS:阿里通义联合上海交大推出时间线摘要生成框架,适用于大规模新闻数据的时间线生成任务
|
机器学习/深度学习 自然语言处理 物联网
Chronos: 将时间序列作为一种语言进行学习
Chronos框架预训练时间序列模型,将序列值转为Transformer模型的tokens。通过缩放、量化处理,模型在合成及公共数据集上训练,参数量20M至710M不等。优于传统和深度学习模型,展示出色零样本预测性能。使用分类交叉熵损失,支持多模态输出分布学习。数据增强策略包括TSMix和KernelSynth。实验显示大型Chronos模型在概率和点预测上超越多种基线,且微调小型模型表现优异。虽然推理速度较慢,但其通用性简化了预测流程。论文探讨了优化潜力和未来研究方向。
771 3
|
自然语言处理 测试技术 异构计算
使用Accelerate库在多GPU上进行LLM推理
大型语言模型(llm)已经彻底改变了自然语言处理领域。随着这些模型在规模和复杂性上的增长,推理的计算需求也显著增加。为了应对这一挑战利用多个gpu变得至关重要。
2114 0
|
Cloud Native jenkins 持续交付
【云原生】使用PyCharm上传代码到Gitlab仓库并在Jenkins构建
【云原生】使用PyCharm上传代码到Gitlab仓库并在Jenkins构建
604 0
|
机器学习/深度学习 人工智能 PyTorch
Transformers 4.37 中文文档(三十二)(1)
Transformers 4.37 中文文档(三十二)
207 0
|
固态存储
身份证,港澳通行证,台胞证,护照正则表达式
身份证,港澳通行证,台胞证,护照正则表达式
1833 0