每日学术速递3.20

简介: 大型语言模型 (LLM) 可以通过生成中间思维链 (CoT) 推理步骤在少镜头和零镜头设置中执行复杂推理。此外,每个推理步骤都可以依赖外部工具来支持超出核心 LLM 功能(例如搜索/运行代码)的计算。之前关于 CoT 提示和工具使用的工作通常需要手工制作特定于任务的演示,并仔细编写模型生成与工具使用的交错脚本。

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理


Subjects: cs.CL


1.ART: Automatic multi-step reasoning and tool-use for large language models

321154accdab2628f3a885568464c84f.png


标题:ART:大型语言模型的自动多步推理和工具使用

作者:Bhargavi Paranjape, Scott Lundberg, Sameer Singh, Hannaneh Hajishirzi, Luke Zettlemoyer, Marco Tulio Ribeiro

文章链接:https://arxiv.org/abs/2303.09014

7831f7b8d67fbb319d5ab0671e3e5519.png

b364673a7f06f2b3627b26ab0c087ec8.png

b5e6737ab1958d66ccebe69f23004315.png

摘要:

       大型语言模型 (LLM) 可以通过生成中间思维链 (CoT) 推理步骤在少镜头和零镜头设置中执行复杂推理。此外,每个推理步骤都可以依赖外部工具来支持超出核心 LLM 功能(例如搜索/运行代码)的计算。之前关于 CoT 提示和工具使用的工作通常需要手工制作特定于任务的演示,并仔细编写模型生成与工具使用的交错脚本。我们介绍了自动推理和工具使用 (ART),这是一个使用冻结的 LLM 自动生成中间推理步骤作为程序的框架。给定一个要解决的新任务,ART 从任务库中选择多步推理和工具使用的演示。在测试时,只要调用外部工具,ART 就会无缝地暂停生成,并在恢复生成之前整合它们的输出。ART 在 BigBench 和 MMLU 基准测试中对未见任务的小样本提示和自动 CoT 进行了实质性改进,并且在大多数这些任务上与手工制作的 CoT 提示的性能相匹配。ART 也是可扩展的,并且使人类可以轻松地通过纠正特定任务程序中的错误或合并新工具来提高性能,我们通过在最少的人工干预下显着提高选定任务的性能来证明这一点。

Subjects: cs.LG


2.SemDeDup: Data-efficient learning at web-scale through semantic deduplication

8a6214c8e552801dbf6db918ea6eb0da.png


标题:SemDeDup:通过语义重复数据删除进行网络规模的数据高效学习

作者:Amro Abbas, Kushal Tirumala, Dániel Simig, Surya Ganguli, Ari S. Morcos

文章链接:https://arxiv.org/abs/2303.09540

920e3713668c900e1aeca970b05d8f38.png

78e2e500693cd1c74c974fe0a77f8587.png

87d6b331903e546d41ce229cbec08554.png

摘要:

       机器学习的进步在很大程度上是由数据的大量增加推动的。然而,像 LAION 这样的大型网络规模的数据集除了搜索精确的重复项外,基本上没有经过整理,可能会留下很多冗余。在这里,我们介绍 SemDeDup,这是一种利用预训练模型的嵌入来识别和删除语义重复项的方法:语义相似但不完全相同的数据对。删除语义重复项可以保持性能并加快学习速度。通过分析 LAION 的一个子集,我们表明 SemDeDup 可以删除 50% 的数据,而性能损失最小,从而有效地将训练时间减半。此外,性能会因分布而增加。此外,通过分析在 C4(部分精选的数据集)上训练的语言模型,我们表明 SemDeDup 比之前的方法有所改进,同时提供了效率提升。SemDeDup 提供了一个示例,说明如何使用利用质量嵌入的简单方法来使模型用更少的数据更快地学习。

Subjects: cs.CV


3.Efficient Diffusion Training via Min-SNR Weighting Strategy

02e200f39ac3156e84db9f9a581c8d18.png


标题:通过 Min-SNR 加权策略进行有效的扩散训练

作者:Tiankai Hang, Shuyang Gu, Chen Li, Jianmin Bao, Dong Chen, Han Hu, Xin Geng, Baining Guo

文章链接:https://arxiv.org/abs/2302.01660v2

项目代码:https://github.com/ysig/learnable-typewriter

ad7f58c12dc25af13a61dbe02181bcd0.png

e9e1b3cc29648232495fc3a8eb856741.png

da57ae314bfbb42b80751dba56b5ceb2.png

摘要:

       去噪扩散模型一直是图像生成的主流方法,但是,训练这些模型通常会收敛缓慢。在本文中,我们发现缓慢收敛的部分原因是时间步之间的优化方向相互冲突。为了解决这个问题,我们将扩散训练视为一个多任务学习问题,并引入了一种简单而有效的方法,称为 Min-SNR- γ 。该方法根据钳位信噪比调整时间步长的损失权重,有效地平衡了时间步长之间的冲突。我们的结果表明收敛速度有了显着提高,比以前的加权策略快 3.4 倍 。它也更有效,使用比以前最先进的架构更小的架构在 ImageNet 256×256 基准测试中取得了 2.06 的新纪录 FID 分数。

目录
相关文章
|
SQL 机器学习/深度学习 自然语言处理
每日学术速递3.22
我们介绍了一种新颖的方法,通过对一种或多种字母字体进行风格化来自动生成艺术排版,以直观地传达输入词的语义,同时确保输出保持可读性。为了解决我们手头任务的各种挑战,包括相互冲突的目标(艺术风格化与易读性)、缺乏基本事实和巨大的搜索空间,我们的方法利用大型语言模型来桥接文本和视觉图像以进行风格化,并建立一个无监督的具有扩散模型骨干的生成模型。
87 0
|
机器学习/深度学习 自然语言处理 测试技术
每日学术速递4.25
场景理解的一个长期目标是获得可解释和可编辑的表示,这些表示可以直接从原始单目 RGB-D 视频构建,而不需要专门的硬件设置或先验。在存在多个移动和/或变形物体的情况下,该问题更具挑战性。传统方法通过混合简化、场景先验、预训练模板或已知变形模型来处理设置。
150 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递5.8
最近的 AI 助理代理,例如 ChatGPT,主要依靠带有人工注释的监督微调 (SFT) 和来自人类反馈的强化学习 (RLHF) 来使大型语言模型 (LLM) 的输出与人类意图保持一致,确保它们是乐于助人、合乎道德且可靠。然而,由于获得人工监督的高成本以及质量、可靠性、多样性、自我一致性和不良偏见等相关问题
154 0
|
机器学习/深度学习 自然语言处理 算法
每日学术速递3.8
扩散模型(DM)已成为生成模型的新趋势,并展示了强大的条件合成能力。其中,在大规模图像文本对上预训练的文本到图像扩散模型可通过可定制的提示高度控制。与专注于低级属性和细节的无条件生成模型不同,由于视觉语言预训练,文本到图像扩散模型包含更多高级知识。在本文中,我们提出了 VPD(具有预训练扩散模型的视觉感知),这是一种在视觉感知任务中利用预训练文本到图像扩散模型的语义信息的新框架。我们没有在基于扩散的管道中使用预训练的去噪自动编码器,而是简单地将其用作主干,旨在研究如何充分利用所学知识。
104 0
|
机器学习/深度学习 编解码 人工智能
每日学术速递5.5
我们介绍了多尺度多视图视觉变换器 (MMViT),它将多尺度特征图和多视图编码引入到变换器模型中。我们的模型对输入信号的不同视图进行编码,并构建多个通道分辨率特征阶段
135 0
|
机器学习/深度学习 自然语言处理 测试技术
每日学术速递4.22
在本文中,我们关注在未观察到的光照条件下从神经辐射场 (NeRF) 渲染新视图的问题。为此,我们引入了一个新的数据集,称为 ReNe (Relighting NeRF),在一次一光 (OLAT) 条件下构建真实世界的对象,并用准确的地面实况相机和光姿态进行注释。
103 0
|
机器学习/深度学习 自然语言处理 自动驾驶
每日学术速递5.9
目标跟踪的大多数先前进展是在具有良好照明的白天场景中实现的。迄今为止,最先进的技术很难在夜间发挥其优势,从而大大阻碍了与视觉跟踪相关的无人机 (UAV) 应用的扩展
130 0
|
机器学习/深度学习 存储 自然语言处理
每日学术速递4.29
我们提出了一种将点云渲染为表面的新方法。所提出的方法是可区分的,不需要特定场景的优化。这种独特的功能支持开箱即用的表面法线估计、渲染房间尺度点云、逆向渲染和全局照明光线追踪。与专注于将点云转换为其他表示(例如曲面或隐式函数)的现有工作不同,我们的关键思想是直接推断光线与给定点云表示的底层表面的交点。
106 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递4.20
建造一个可以通过观察人类来理解和学习互动的机器人激发了几个视觉问题。然而,尽管在静态数据集上取得了一些成功的结果,但目前的模型如何直接用在机器人上仍然不清楚。在本文中,我们旨在通过以环境为中心的方式利用人类互动视频来弥合这一差距。利用人类行为的互联网视频,我们训练了一个视觉可供性模型,该模型估计人类可能在场景中的位置和方式进行交互
91 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递4.4
我们对 Embodied AI 的预训练视觉表示 (PVR) 或视觉“基础模型”进行了最大、最全面的实证研究。首先,我们策划了 CortexBench,它由 17 项不同的任务组成,涵盖运动、导航、灵巧和移动操作。接下来,我们系统地评估现有的 PVR,发现没有一个具有普遍优势。为了研究预训练数据规模和多样性的影响
92 0