每日学术速递5.10

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: 由于对各种可能的自然语言问题进行概括的挑战,基于知识库的问答被认为是一个难题。此外,不同知识库之间知识库模式项的异质性通常需要对不同知识库问答 (KBQA) 数据集进行专门培训。为了使用统一的免训练框架处理各种 KBQA 数据集的问题,我们提出了 KB-BINDER,它首次实现了对 KBQA 任务的少样本上下文学习

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理  

Subjects: cs.CV


1.ZipIt! Merging Models from Different Tasks without Training

981667b90b828dfea2449e56f5c61c57.png


标题:压缩它!无需训练即可合并来自不同任务的模型

作者:George Stoica, Daniel Bolya, Jakob Bjorner, Taylor Hearn, Judy Hoffman

文章链接:https://arxiv.org/abs/2305.03053

5d981134284463a43b14947578c825cc.png

6a01eb37a9471016a5320d5b88d03a69.png

aa766f7f1e4920bdfacf276ecea2cd47.png

3b0647182d4495868f7ba143a85bc436.png

b03704b75d7a9cbd22de4768a290274f.png

2148cb51da1d3c67a2178fceef61eac9.png


摘要:

       典型的深度视觉识别模型能够执行他们接受过训练的一项任务。在这篇论文中,我们解决了一个极其困难的问题,即在没有任何额外训练的情况下,将具有不同初始化的完全不同的模型组合成一个多任务模型,每个模型解决一个单独的任务。模型合并的先前工作将一个模型置换到另一个模型的空间,然后将它们加在一起。虽然这适用于在同一任务上训练的模型,但我们发现这无法解释在不相交任务上训练的模型的差异。因此,我们介绍了“ZipIt!”,这是一种合并两个具有相同架构的任意模型的通用方法,它包含两个简单的策略。首先,为了解决模型之间不共享的特征,我们扩展了模型合并问题,通过定义一个通用的“zip”操作,额外允许在每个模型中合并特征。其次,我们添加了对部分压缩模型直到指定层的支持,自然地创建了一个多头模型。我们发现这两个变化相结合,比之前的工作有了惊人的 20-60% 的改进,使得在不相交任务上训练的模型的合并变得可行。

2.Automatic Prompt Optimization with "Gradient Descent" and Beam Search(CVPR 2023)

2d4ce96293e95d6bd93eabea9049d7e6.png

标题:使用“梯度下降”和波束搜索进行自动提示优化

作者:Reid Pryzant, Dan Iter, Jerry Li, Yin Tat Lee, Chenguang Zhu, Michael Zeng

文章链接:https://arxiv.org/abs/2305.03495

e1a95abd2e40e4cceb48f47fee315f6c.png

bfda5faeea2a653637a784e18837550a.png

b9bfd818bea037e04f35c42b3bb7c4d5.png

a3f117a7b334b74c019b3493f1191521.png

摘要:

       大型语言模型 (LLM) 作为通用代理已显示出令人印象深刻的性能,但它们的能力仍然高度依赖于通过繁重的试错工作手写的提示。我们针对此问题提出了一个简单且非参数的解决方案,即自动提示优化 (APO),它受数值梯度下降的启发,可以自动改进提示,假设可以访问训练数据和 LLM API。该算法使用小批量数据来形成批评当前提示的自然语言“梯度”。然后通过在梯度的相反语义方向上编辑提示,将梯度“传播”到提示中。这些梯度下降步骤由波束搜索和强盗选择程序引导,可显着提高算法效率。三个基准 NLP 任务和 LLM 越狱检测的新问题的初步结果表明,自动提示优化可以胜过之前的提示编辑技术,并通过使用数据将模糊的任务描述重写为更精确,将初始提示的性能提高多达 31%注释说明。

3.Few-shot In-context Learning for Knowledge Base Question Answering (ACL 2023)

f3b45e8afa0ddb61723c3f9d00404488.png

标题:用于知识库问答的少样本上下文学习

作者:Tianle Li, Xueguang Ma, Alex Zhuang, Yu Gu, Yu Su, Wenhu Chen

文章链接:https://arxiv.org/abs/2305.01750

8cc59bdc618ed22e6ef9259a74309e14.png

303d1c2f8886413388039d1ab14efb3a.png

7aa3dd6ca38e048516f95117aecf6b8f.png

8615d559334cf6d98b421febc8daa08c.png

摘要:

       由于对各种可能的自然语言问题进行概括的挑战,基于知识库的问答被认为是一个难题。此外,不同知识库之间知识库模式项的异质性通常需要对不同知识库问答 (KBQA) 数据集进行专门培训。为了使用统一的免训练框架处理各种 KBQA 数据集的问题,我们提出了 KB-BINDER,它首次实现了对 KBQA 任务的少样本上下文学习。首先,KB-BINDER利用像Codex这样的大型语言模型,通过模仿一些演示,生成逻辑形式作为特定问题的草稿。其次,KB-BINDER以知识库为基础,将生成的草稿与BM25分数匹配的可执行草稿进行绑定。四个公共异构 KBQA 数据集的实验结果表明,KB-BINDER 仅需少量上下文演示即可实现强大的性能。尤其是在 GraphQA 和 3-hop MetaQA 上,KB-BINDER 甚至可以超越最先进的训练模型。在 GrailQA 和 WebQSP 上,我们的模型也与其他经过全面训练的模型不相上下。我们相信 KB-BINDER 可以作为未来研究的重要基线。我们的代码可在此 https URL 上获得。

目录
相关文章
|
机器学习/深度学习 自然语言处理 算法
每日学术速递3.9
最近的视觉语言模型显示出令人印象深刻的多模态生成能力。但是,通常它们需要在海量数据集上训练大型模型。作为更具可扩展性的替代方案,我们引入了 Prismer,这是一种数据和参数高效的视觉语言模型,它利用了领域专家的集合。
137 0
每日学术速递3.9
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递5.11
网页一直是视觉语言和纯语言任务的丰富、可扩展的资源。然而,只有网页的一部分被保留:图像标题对、长文本文章或原始 HTML,永远不会全部放在一个地方。
127 0
|
机器学习/深度学习 机器人
每日学术速递2.23
本文探讨了动态系统中的离散形态对称性,这是生物学和机器人系统的主要特征。当系统的形态具有一个或多个对称平面时,它表现出形态对称性,描述了身体部位的重复和平衡分布。这些形态对称性意味着系统的动力学是对称的(或近似对称的),这进而在最优控制策略和所有与系统动态演化相关的本体感知和外感知测量中印记了对称性。
69 0
|
机器学习/深度学习 存储 自然语言处理
每日学术速递5.3
用任意语音音频生成说话人肖像是数字人和虚拟世界领域的一个关键问题。一种现代的说话人脸生成方法有望实现通用的音频-嘴唇同步、良好的视频质量和高系统效率的目标。
192 0
|
机器学习/深度学习 运维 自然语言处理
每日学术速递3.3
评估面部图像的质量对于以足够的准确性操作面部识别系统至关重要。人脸质量标准化的最新进展 (ISO/IEC WD 29794-5) 建议使用组件质量测量方法将人脸质量分解为各个因素,从而为操作员重新捕获低质量图像提供有价值的反馈。
107 0
|
机器学习/深度学习 自然语言处理 算法
每日学术速递5.7
我们考虑重建从立体相机观察到的动态场景的问题。大多数现有的立体深度方法独立处理不同的立体帧,导致时间上不一致的深度预测。时间一致性对于身临其境的 AR 或 VR 场景尤为重要,在这些场景中,闪烁会大大降低用户体验。我们提出了 DynamicStereo,这是一种基于变换器的新型架构,用于估计立体视频的视差。
101 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递4.10
雨雪天气去除是天气退化图像恢复中的一项专门任务,旨在消除共存的雨条纹和雪颗粒。在本文中,我们提出了 RSFormer,这是一种高效且有效的 Transformer,可以应对这一挑战。最初,我们探索了层次结构中卷积网络 (ConvNets) 和视觉变换器 (ViTs) 的接近程度,并通过实验发现它们在阶段内特征学习中的表现大致相同。
113 0
|
机器学习/深度学习 自然语言处理 计算机视觉
每日学术速递4.18
我们介绍了 Delta Denoising Score (DDS),这是一种用于基于文本的图像编辑的新颖评分函数,可引导对输入图像进行最小程度的修改以实现目标提示中描述的内容。DDS 利用文本到图像扩散模型的丰富生成先验,可用作优化问题中的损失项,以将图像引导至文本指示的所需方向。DDS 利用分数蒸馏采样 (SDS) 机制来进行图像编辑。我们表明,仅使用 SDS 通常会由于嘈杂的梯度而产生不详细和模糊的输出。
181 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递4.4
我们对 Embodied AI 的预训练视觉表示 (PVR) 或视觉“基础模型”进行了最大、最全面的实证研究。首先,我们策划了 CortexBench,它由 17 项不同的任务组成,涵盖运动、导航、灵巧和移动操作。接下来,我们系统地评估现有的 PVR,发现没有一个具有普遍优势。为了研究预训练数据规模和多样性的影响
102 0
|
自然语言处理 计算机视觉
每日学术速递3.6
本文描述了一种使用与目标数据集不一定相关的多个源数据集进行语义分割的域自适应训练方法。我们通过整合来自多个源模型的预测对象概率,提出了一种软伪标签生成方法。每个源模型的预测基于源数据集和目标数据集之间的估计域相似性进行加权,以强调在与目标更相似的源上训练的模型的贡献,并生成合理的伪标签。
104 0
下一篇
无影云桌面