每日学术速递1.31

本文涉及的产品
NLP自然语言处理_高级版,每接口累计50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_基础版,每接口每天50万次
简介: 最近几十年来,通过语言模型构建知识图谱(KG)嵌入取得了经验上的成功。然而,基于语言模型的KG嵌入通常被部署为静态的人工制品,在部署后不重新训练的情况下进行修改是具有挑战性的。为了解决这个问题,我们在本文中提出了一个编辑基于语言模型的KG嵌入的新任务。

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理


今天带来的arXiv上最新发表的3篇NLP论文。


Subjects: cs.CL、cs.AI、cs.DB、cs.LG


1.Editing Language Model-based Knowledge Graph Embeddings


9dc52c1d6c18e3b0a91a089659cf0c79.png


标题:编辑基于语言模型的知识图谱嵌入


作者: Siyuan Cheng, Ningyu Zhang, Bozhong Tian, Zelin Dai, Feiyu Xiong, Wei Guo, Huajun Chen


文章L接:arxiv.org/abs/2301.10405v1


项目代码:github.com/zjunlp/promptkg


7d2d7a18b849a7ec2422305714d15b44.png

b0f17538c1ca7a46ff872570fa93d4e3.png


8c582fd7a5b359b63293de2e1ee171e8.png


摘要:


       最近几十年来,通过语言模型构建知识图谱(KG)嵌入取得了经验上的成功。然而,基于语言模型的KG嵌入通常被部署为静态的人工制品,在部署后不重新训练的情况下进行修改是具有挑战性的。为了解决这个问题,我们在本文中提出了一个编辑基于语言模型的KG嵌入的新任务。所提出的任务旨在实现对KG嵌入的数据高效和快速更新,而不损害其余部分的性能。我们建立了四个新的数据集。E-FB15k237、A-FB15k237、E-WN18RR和A-WN18RR,并评估了几个知识编辑基线,证明了以前的模型处理拟议的挑战性任务的能力有限。我们进一步提出了一个简单而强大的基线,称为KGEditor,它利用超网络的额外参数层来编辑/添加事实。综合实验结果表明,KGEditor在更新特定的事实时可以表现得更好,同时不影响其他低训练资源。


Recently decades have witnessed the empirical success of framing Knowledge Graph (KG) embeddings via language models. However, language model-based KG embeddings are usually deployed as static artifacts, which are challenging to modify without re-training after deployment. To address this issue, we propose a new task of editing language model-based KG embeddings in this paper. The proposed task aims to enable data-efficient and fast updates to KG embeddings without damaging the performance of the rest. We build four new datasets: E-FB15k237, A-FB15k237, E-WN18RR, and A-WN18RR, and evaluate several knowledge editing baselines demonstrating the limited ability of previous models to handle the proposed challenging task. We further propose a simple yet strong baseline dubbed KGEditor, which utilizes additional parametric layers of the hyper network to edit/add facts. Comprehensive experimental results demonstrate that KGEditor can perform better when updating specific facts while not affecting the rest with low training resources.


2.ExaRanker: Explanation-Augmented Neural Ranker


354068afbca46bc3102fbee37eeeab49.png


标题:解释增强型神经排行器


作者: Fernando Ferraretto, Thiago Laitz, Roberto Lotufo, Rodrigo Nogueira


文章L接:arxiv.org/abs/2301.10521v1


项目代码:github.com/unicamp-dl/exaranker


4ffcbdb6c599e99bcf103fb5b0d0d436.png

69438e36a643ea338f9a9a14c5ea1d61.png


摘要:


       最近的工作表明,诱导大型语言模型(LLM)在输出答案之前产生解释是一种有效的策略,可以提高各种推理任务的性能。在这项工作中,我们表明,神经排名器也能从解释中受益。我们使用GPT-3.5等LLMs来增加带有解释的检索数据集,并训练一个序列到序列的排名模型,为给定的查询-文档对输出一个相关性标签和一个解释。我们的模型被称为ExaRanker,在几千个带有合成解释的例子上进行了微调,其表现与在3倍以上没有解释的例子上进行微调的模型相当。此外,ExaRanker模型在排名过程中不产生额外的计算成本,并允许按需请求解释。


Recent work has shown that inducing a large language model (LLM) to generate explanations prior to outputting an answer is an effective strategy to improve performance on a wide range of reasoning tasks. In this work, we show that neural rankers also benefit from explanations. We use LLMs such as GPT-3.5 to augment retrieval datasets with explanations and train a sequence-to-sequence ranking model to output a relevance label and an explanation for a given query-document pair. Our model, dubbed ExaRanker, finetuned on a few thousand examples with synthetic explanations performs on par with models finetuned on 3x more examples without explanations. Furthermore, the ExaRanker model incurs no additional computational cost during ranking and allows explanations to be requested on demand.


3.Semi-Automated Construction of Food Composition Knowledge Base


9acd2f93a9e49c569b85ac530e8bf85a.png


标题:半自动构建食品成分知识库


作者:Jason Youn, Fangzhou Li, Ilias Tagkopoulos


文章链接:arxiv.org/abs/2301.11322v1


项目代码:github.com/ibpa/semiautomatedfoodkbc


8460f56b21765e8dd79e87b96a2f80d2.png

50b6ec267859ae2656fab5512cdfab57.png



摘要:


       食品成分知识库,储存了食品的基本植物、微观和宏观营养素,对研究和工业应用都很有用。尽管许多现有的知识库试图整理这些信息,但它们往往受到耗时的人工整理过程的限制。在食品科学领域之外,利用预先训练好的语言模型的自然语言处理方法最近显示了从非结构化文本中提取知识的可喜成果。在这项工作中,我们提出了一个半自动化的框架,用于从网上的科学文献中构建一个食品成分的知识库。为此,我们在主动学习设置中利用了预先训练好的BioBERT语言模型,从而使有限的训练数据得到最佳利用。我们的工作表明,人在回路中的模型是迈向人工智能辅助食品系统的一步,可以很好地扩展到不断增加的大数据。


A food composition knowledge base, which stores the essential phyto-, micro-, and macro-nutrients of foods is useful for both research and industrial applications. Although many existing knowledge bases attempt to curate such information, they are often limited by time-consuming manual curation processes. Outside of the food science domain, natural language processing methods that utilize pre-trained language models have recently shown promising results for extracting knowledge from unstructured text. In this work, we propose a semi-automated framework for constructing a knowledge base of food composition from the scientific literature available online. To this end, we utilize a pre-trained BioBERT language model in an active learning setup that allows the optimal use of limited training data. Our work demonstrates how human-in-the-loop models are a step toward AI-assisted food systems that scale well to the ever-increasing big data.

目录
相关文章
|
机器学习/深度学习 自然语言处理 算法
每日学术速递2.21
大规模文本到图像 (T2I) 模型令人难以置信的生成能力已经证明了学习复杂结构和有意义的语义的强大能力。然而,仅仅依靠文本提示并不能充分利用模型学到的知识,尤其是在需要灵活准确的结构控制时。在本文中,我们的目标是“挖掘”出 T2I 模型隐式学习的能力,然后显式地使用它们来更细粒度地控制生成。
114 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递4.3
最近在语言引导图像生成领域取得的突破取得了令人瞩目的成就,能够根据用户指令创建高质量和多样化的图像。尽管合成性能令人着迷,但当前图像生成模型的一个重大限制是它们在图像中生成连贯文本的能力不足,特别是对于像汉字这样的复杂字形结构。为了解决这个问题,我们引入了 GlyphDraw,这是一个通用的学习框架,旨在赋予图像生成模型生成嵌入连贯文本的图像的能力。据我们所知,这是图像合成领域第一个解决汉字生成问题的工作。
148 0
每日学术速递4.3
|
机器学习/深度学习 自然语言处理 机器人
每日学术速递3.27
向多指机器人教授灵巧性一直是机器人学领域的一项长期挑战。该领域最突出的工作集中在学习控制器或策略,这些控制器或策略对视觉观察或从视觉得出的状态估计进行操作。然而,这种方法在需要对接触力或手本身遮挡的物体进行推理的细粒度操作任务上表现不佳。
121 0
每日学术速递3.27
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递3.29
由于模型容量有限,纯基于 MLP 的神经辐射场(基于 NeRF 的方法)在大型场景上经常会出现渲染模糊的欠拟合问题。最近的方法提出在地理上划分场景并采用多个子 NeRF 分别对每个区域进行建模,从而导致训练成本和子 NeRF 的数量随着场景的扩展而线性增加。
147 0
|
机器学习/深度学习 存储 自然语言处理
每日学术速递3.23
我们介绍了 Zero-1-to-3,这是一个框架,用于在给定单个 RGB 图像的情况下更改对象的相机视点。为了在这种欠约束的环境中执行新的视图合成,我们利用了大规模扩散模型了解自然图像的几何先验。我们的条件扩散模型使用合成数据集来学习相对相机视点的控制,这允许在指定的相机变换下生成同一对象的新图像。
93 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递4.5
无论是通过从头到尾以固定分辨率处理视频,还是结合池化和缩小策略,现有的视频转换器都可以处理整个网络中的整个视频内容,而无需专门处理大部分冗余信息。在本文中,我们提出了一种 Supertoken Video Transformer (SVT),它结合了语义池模块 (SPM),根据视觉转换器的语义沿着视觉转换器的深度聚合潜在表示,从而减少视频输入中固有的冗余。
90 0
|
机器学习/深度学习 自然语言处理 算法
每日学术速递4.14
我们提出了 ImageReward——第一个通用的文本到图像人类偏好奖励模型——来解决生成模型中的各种普遍问题,并使它们与人类价值观和偏好保持一致。它的训练基于我们的系统注释管道,涵盖评级和排名组件,收集了迄今为止 137k 专家比较的数据集。
146 0
|
自然语言处理 计算机视觉
每日学术速递3.6
本文描述了一种使用与目标数据集不一定相关的多个源数据集进行语义分割的域自适应训练方法。我们通过整合来自多个源模型的预测对象概率,提出了一种软伪标签生成方法。每个源模型的预测基于源数据集和目标数据集之间的估计域相似性进行加权,以强调在与目标更相似的源上训练的模型的贡献,并生成合理的伪标签。
112 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递3.17
怪异、不寻常和离奇的图像激起观察者的好奇心,因为它们挑战常识。例如,在 2022 年世界杯期间发布的一张图片描绘了著名足球明星莱昂内尔·梅西和克里斯蒂亚诺·罗纳尔多下棋,这调皮地违反了我们对他们的比赛应该在足球场上进行的预期。人类可以轻松识别和解读这些非常规图像,但 AI 模型也能做到吗?我们介绍了 WHOOPS!,这是一个新的视觉常识数据集和基准。
135 0
|
机器学习/深度学习 自然语言处理 PyTorch
每日学术速递2.17
近年来,大型深度学习 (DL) 模型的开发有所增加,这使得训练效率变得至关重要。通常的做法是在可用性和性能之间进行权衡。一方面,诸如 PyTorch 之类的 DL 框架使用动态图来以次优模型训练性能为代价为模型开发人员提供便利。
94 0