每日学术速递1.31

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: 最近几十年来,通过语言模型构建知识图谱(KG)嵌入取得了经验上的成功。然而,基于语言模型的KG嵌入通常被部署为静态的人工制品,在部署后不重新训练的情况下进行修改是具有挑战性的。为了解决这个问题,我们在本文中提出了一个编辑基于语言模型的KG嵌入的新任务。

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理


今天带来的arXiv上最新发表的3篇NLP论文。


Subjects: cs.CL、cs.AI、cs.DB、cs.LG


1.Editing Language Model-based Knowledge Graph Embeddings


9dc52c1d6c18e3b0a91a089659cf0c79.png


标题:编辑基于语言模型的知识图谱嵌入


作者: Siyuan Cheng, Ningyu Zhang, Bozhong Tian, Zelin Dai, Feiyu Xiong, Wei Guo, Huajun Chen


文章L接:arxiv.org/abs/2301.10405v1


项目代码:github.com/zjunlp/promptkg


7d2d7a18b849a7ec2422305714d15b44.png

b0f17538c1ca7a46ff872570fa93d4e3.png


8c582fd7a5b359b63293de2e1ee171e8.png


摘要:


       最近几十年来,通过语言模型构建知识图谱(KG)嵌入取得了经验上的成功。然而,基于语言模型的KG嵌入通常被部署为静态的人工制品,在部署后不重新训练的情况下进行修改是具有挑战性的。为了解决这个问题,我们在本文中提出了一个编辑基于语言模型的KG嵌入的新任务。所提出的任务旨在实现对KG嵌入的数据高效和快速更新,而不损害其余部分的性能。我们建立了四个新的数据集。E-FB15k237、A-FB15k237、E-WN18RR和A-WN18RR,并评估了几个知识编辑基线,证明了以前的模型处理拟议的挑战性任务的能力有限。我们进一步提出了一个简单而强大的基线,称为KGEditor,它利用超网络的额外参数层来编辑/添加事实。综合实验结果表明,KGEditor在更新特定的事实时可以表现得更好,同时不影响其他低训练资源。


Recently decades have witnessed the empirical success of framing Knowledge Graph (KG) embeddings via language models. However, language model-based KG embeddings are usually deployed as static artifacts, which are challenging to modify without re-training after deployment. To address this issue, we propose a new task of editing language model-based KG embeddings in this paper. The proposed task aims to enable data-efficient and fast updates to KG embeddings without damaging the performance of the rest. We build four new datasets: E-FB15k237, A-FB15k237, E-WN18RR, and A-WN18RR, and evaluate several knowledge editing baselines demonstrating the limited ability of previous models to handle the proposed challenging task. We further propose a simple yet strong baseline dubbed KGEditor, which utilizes additional parametric layers of the hyper network to edit/add facts. Comprehensive experimental results demonstrate that KGEditor can perform better when updating specific facts while not affecting the rest with low training resources.


2.ExaRanker: Explanation-Augmented Neural Ranker


354068afbca46bc3102fbee37eeeab49.png


标题:解释增强型神经排行器


作者: Fernando Ferraretto, Thiago Laitz, Roberto Lotufo, Rodrigo Nogueira


文章L接:arxiv.org/abs/2301.10521v1


项目代码:github.com/unicamp-dl/exaranker


4ffcbdb6c599e99bcf103fb5b0d0d436.png

69438e36a643ea338f9a9a14c5ea1d61.png


摘要:


       最近的工作表明,诱导大型语言模型(LLM)在输出答案之前产生解释是一种有效的策略,可以提高各种推理任务的性能。在这项工作中,我们表明,神经排名器也能从解释中受益。我们使用GPT-3.5等LLMs来增加带有解释的检索数据集,并训练一个序列到序列的排名模型,为给定的查询-文档对输出一个相关性标签和一个解释。我们的模型被称为ExaRanker,在几千个带有合成解释的例子上进行了微调,其表现与在3倍以上没有解释的例子上进行微调的模型相当。此外,ExaRanker模型在排名过程中不产生额外的计算成本,并允许按需请求解释。


Recent work has shown that inducing a large language model (LLM) to generate explanations prior to outputting an answer is an effective strategy to improve performance on a wide range of reasoning tasks. In this work, we show that neural rankers also benefit from explanations. We use LLMs such as GPT-3.5 to augment retrieval datasets with explanations and train a sequence-to-sequence ranking model to output a relevance label and an explanation for a given query-document pair. Our model, dubbed ExaRanker, finetuned on a few thousand examples with synthetic explanations performs on par with models finetuned on 3x more examples without explanations. Furthermore, the ExaRanker model incurs no additional computational cost during ranking and allows explanations to be requested on demand.


3.Semi-Automated Construction of Food Composition Knowledge Base


9acd2f93a9e49c569b85ac530e8bf85a.png


标题:半自动构建食品成分知识库


作者:Jason Youn, Fangzhou Li, Ilias Tagkopoulos


文章链接:arxiv.org/abs/2301.11322v1


项目代码:github.com/ibpa/semiautomatedfoodkbc


8460f56b21765e8dd79e87b96a2f80d2.png

50b6ec267859ae2656fab5512cdfab57.png



摘要:


       食品成分知识库,储存了食品的基本植物、微观和宏观营养素,对研究和工业应用都很有用。尽管许多现有的知识库试图整理这些信息,但它们往往受到耗时的人工整理过程的限制。在食品科学领域之外,利用预先训练好的语言模型的自然语言处理方法最近显示了从非结构化文本中提取知识的可喜成果。在这项工作中,我们提出了一个半自动化的框架,用于从网上的科学文献中构建一个食品成分的知识库。为此,我们在主动学习设置中利用了预先训练好的BioBERT语言模型,从而使有限的训练数据得到最佳利用。我们的工作表明,人在回路中的模型是迈向人工智能辅助食品系统的一步,可以很好地扩展到不断增加的大数据。


A food composition knowledge base, which stores the essential phyto-, micro-, and macro-nutrients of foods is useful for both research and industrial applications. Although many existing knowledge bases attempt to curate such information, they are often limited by time-consuming manual curation processes. Outside of the food science domain, natural language processing methods that utilize pre-trained language models have recently shown promising results for extracting knowledge from unstructured text. In this work, we propose a semi-automated framework for constructing a knowledge base of food composition from the scientific literature available online. To this end, we utilize a pre-trained BioBERT language model in an active learning setup that allows the optimal use of limited training data. Our work demonstrates how human-in-the-loop models are a step toward AI-assisted food systems that scale well to the ever-increasing big data.

目录
相关文章
|
机器学习/深度学习 自然语言处理 测试技术
每日学术速递3.20
大型语言模型 (LLM) 可以通过生成中间思维链 (CoT) 推理步骤在少镜头和零镜头设置中执行复杂推理。此外,每个推理步骤都可以依赖外部工具来支持超出核心 LLM 功能(例如搜索/运行代码)的计算。之前关于 CoT 提示和工具使用的工作通常需要手工制作特定于任务的演示,并仔细编写模型生成与工具使用的交错脚本。
170 0
每日学术速递3.20
|
机器学习/深度学习 自然语言处理 vr&ar
每日学术速递3.14
Vision Transformers 通过将图像切片成补丁来将图像转换为序列。这些补丁的大小控制着速度/准确性的权衡,较小的补丁会以更高的计算成本导致更高的准确性,但更改补丁大小通常需要重新训练模型。在本文中,我们证明了在训练时简单地随机化补丁大小会导致一组权重在广泛的补丁大小范围内表现良好,从而可以在部署时根据不同的计算预算定制模型。
138 0
|
机器学习/深度学习 传感器 自然语言处理
每日学术速递4.23
神经辐射场 (NeRF) 能够以前所未有的视觉质量实现新颖的视图合成。然而,为了渲染逼真的图像,NeRF 需要对每个像素进行数百次深度多层感知器 (MLP) 评估。这是非常昂贵的,并且使实时渲染变得不可行,即使在强大的现代 GPU 上也是如此。
131 0
|
机器学习/深度学习 存储 自然语言处理
每日学术速递4.9
错误信息已成为一个紧迫的问题。网络上广泛存在视觉和文本形式的虚假媒体。虽然已经提出了各种 deepfake 检测和文本假新闻检测方法,但它们仅设计用于基于二进制分类的单模态伪造,更不用说分析和推理跨不同模态的细微伪造痕迹。
127 0
|
机器学习/深度学习 自然语言处理 计算机视觉
每日学术速递4.16
我们提出了 RECLIP(资源高效 CLIP),这是一种最小化 CLIP(对比语言图像预训练)计算资源占用的简单方法。受计算机视觉中从粗到精概念的启发,我们利用小图像有效地从大规模语言监督中学习,并最终使用高分辨率数据微调模型。由于视觉转换器的复杂性在很大程度上取决于输入图像的大小
176 0
|
机器学习/深度学习 自然语言处理 机器人
每日学术速递2.28
最近在机器人视觉表示学习方面的工作证明了从人类执行日常任务的大型视频数据集中学习的可行性。利用掩码自动编码和对比学习等方法,这些表示表现出向视觉运动控制的策略学习的强烈迁移。但是,机器人学习包含一系列无法控制的问题,包括掌握能力预测、语言条件模仿学习和人机协作的意图评分等。
85 0
|
机器学习/深度学习 自然语言处理 定位技术
每日学术速递3.1
文本引导的扩散模型,如 DALLE-2、IMAGEN 和 Stable Diffusion,只要给出描述所需图像内容的简短文本提示,就能够有效地生成无穷无尽的图像。在许多情况下,图像的质量也非常高。然而,这些模型通常难以组合包含多个关键对象的场景,例如具有指定位置关系的角色。
90 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递4.10
雨雪天气去除是天气退化图像恢复中的一项专门任务,旨在消除共存的雨条纹和雪颗粒。在本文中,我们提出了 RSFormer,这是一种高效且有效的 Transformer,可以应对这一挑战。最初,我们探索了层次结构中卷积网络 (ConvNets) 和视觉变换器 (ViTs) 的接近程度,并通过实验发现它们在阶段内特征学习中的表现大致相同。
131 0
|
机器学习/深度学习 自然语言处理 算法
每日学术速递4.14
我们提出了 ImageReward——第一个通用的文本到图像人类偏好奖励模型——来解决生成模型中的各种普遍问题,并使它们与人类价值观和偏好保持一致。它的训练基于我们的系统注释管道,涵盖评级和排名组件,收集了迄今为止 137k 专家比较的数据集。
154 0
|
机器学习/深度学习 存储 自然语言处理
每日学术速递4.17
扩散模型已被证明在生成高质量图像方面非常有效。然而,使大型预训练扩散模型适应新领域仍然是一个开放的挑战,这对于实际应用至关重要。本文提出了 DiffFit,这是一种参数高效策略,用于微调大型预训练扩散模型,从而能够快速适应新领域。DiffFit 非常简单,仅微调特定层中的偏差项和新添加的缩放因子
142 0