本周重要论文包括:ACL 2022 最佳论文、最佳主题论文和杰出论文,以及谷歌公布的包含 17 大类、1030 个家用物品的 13GB 家用物品 3D 扫描数据集。
目录:
Learned Incremental Representations for Parsing
Requirements and Motivations of Low-Resource Speech Synthesis for Language Revitalization
Evaluating Factuality in Text Simplification
Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation
PP-YOLOE: An evolved version of YOLO
Google Scanned Objects: A High-Quality Dataset of 3D Scanned Household Items
Ditch the Gold Standard: Re-evaluating Conversational Question Answering
ArXiv Weekly Radiostation:NLP、CV、ML 更多精选论文(附音频)
论文 1:Learned Incremental Representations for Parsing
- 作者:Nikita Kitaev、Thomas Lu、Dan Klein
- 论文地址:https://aclanthology.org/2022.acl-long.220.pdf
摘要:该研究提出了一种增量句法表示,该表示包括为句子中的每个单词分配一个离散标签,其中标签是使用句子前缀的严格增量处理来预测的,并且句子标签序列完全确定了解析树。该研究旨在诱导一种句法表示,它只在句法选择由输入逐渐显示时才确定这些选择,这与标准表示形成鲜明对比,标准表示必须进行输出选择,例如推测性的附件,然后抛出相互冲突的分析。
该研究学习的表示在 Penn Treebank 上达到了 93.72 F1,且每个单词只有 5 bit;在每个单词为 8 bit 时,该研究在 Penn Treebank 上达到了 94.97 F1,这和使用相同的预训练嵌入时的 SOTA 解析模型相当。该研究还对系统学习到的表示进行了分析,他们研究了系统捕获的可解释句法特征等属性,以及句法歧义的延迟解决机制。
解析器使用不同句法表示和预训练编码器时,在 WSJ 测试集上的 F1 分数。
使用不同模型上下文时,在 WSJ 开发集上的解析性能。
将本研究的 read-out 网络应用于句法标记序列的前缀表明句法决策致力于增量,并且不是所有的都推迟到句子最后。 推荐:加州大学伯克利分校的这项增量句法表示研究被评为 ACL 2022 最佳论文。
论文 2:Requirements and Motivations of Low-Resource Speech Synthesis for Language Revitalization
- 作者:Aidan Pine、Dan Wells、Nathan Brinklow 等
- 论文地址:https://aclanthology.org/2022.acl-long.507.pdf
摘要:该研究阐述了语音合成系统的发展动机和目的,以振兴语言。通过为加拿大使用的三种土著语言 (Kanien 'kéha, Gitksan 和 SENĆOŦEN) 构建语音合成系统,该研究重新评估了需要多少数据才能构建具有 SOTA 性能的低资源语音合成系统。例如,该研究在英语数据的初步结果表明,在训练数据上训练 1 小时的 FastSpeech2 模型可以产生与训练 10 小时的 Tacotron2 模型语音自然度相当。
最后,该研究们鼓励在语音合成领域进行评估和课堂整合来进行未来研究,以实现语言复兴。
在 LJ 语料库上训练 100k 步后提取的 Tacotron2 注意力网络权重的可视化图。
来自 MUSHRA 问题中调研数据的箱型图,比较了 Tacotron2 (TT2) 和 FastSpeech2 (FS2) 模型与有限的训练数据量。
推荐:ACL 2022 最佳主题论文。