每日学术速递3.20

简介: 大型语言模型 (LLM) 可以通过生成中间思维链 (CoT) 推理步骤在少镜头和零镜头设置中执行复杂推理。此外,每个推理步骤都可以依赖外部工具来支持超出核心 LLM 功能(例如搜索/运行代码)的计算。之前关于 CoT 提示和工具使用的工作通常需要手工制作特定于任务的演示,并仔细编写模型生成与工具使用的交错脚本。

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理


Subjects: cs.CL


1.ART: Automatic multi-step reasoning and tool-use for large language models

321154accdab2628f3a885568464c84f.png


标题:ART:大型语言模型的自动多步推理和工具使用

作者:Bhargavi Paranjape, Scott Lundberg, Sameer Singh, Hannaneh Hajishirzi, Luke Zettlemoyer, Marco Tulio Ribeiro

文章链接:https://arxiv.org/abs/2303.09014

7831f7b8d67fbb319d5ab0671e3e5519.png

b364673a7f06f2b3627b26ab0c087ec8.png

b5e6737ab1958d66ccebe69f23004315.png

摘要:

       大型语言模型 (LLM) 可以通过生成中间思维链 (CoT) 推理步骤在少镜头和零镜头设置中执行复杂推理。此外,每个推理步骤都可以依赖外部工具来支持超出核心 LLM 功能(例如搜索/运行代码)的计算。之前关于 CoT 提示和工具使用的工作通常需要手工制作特定于任务的演示,并仔细编写模型生成与工具使用的交错脚本。我们介绍了自动推理和工具使用 (ART),这是一个使用冻结的 LLM 自动生成中间推理步骤作为程序的框架。给定一个要解决的新任务,ART 从任务库中选择多步推理和工具使用的演示。在测试时,只要调用外部工具,ART 就会无缝地暂停生成,并在恢复生成之前整合它们的输出。ART 在 BigBench 和 MMLU 基准测试中对未见任务的小样本提示和自动 CoT 进行了实质性改进,并且在大多数这些任务上与手工制作的 CoT 提示的性能相匹配。ART 也是可扩展的,并且使人类可以轻松地通过纠正特定任务程序中的错误或合并新工具来提高性能,我们通过在最少的人工干预下显着提高选定任务的性能来证明这一点。

Subjects: cs.LG


2.SemDeDup: Data-efficient learning at web-scale through semantic deduplication

8a6214c8e552801dbf6db918ea6eb0da.png


标题:SemDeDup:通过语义重复数据删除进行网络规模的数据高效学习

作者:Amro Abbas, Kushal Tirumala, Dániel Simig, Surya Ganguli, Ari S. Morcos

文章链接:https://arxiv.org/abs/2303.09540

920e3713668c900e1aeca970b05d8f38.png

78e2e500693cd1c74c974fe0a77f8587.png

87d6b331903e546d41ce229cbec08554.png

摘要:

       机器学习的进步在很大程度上是由数据的大量增加推动的。然而,像 LAION 这样的大型网络规模的数据集除了搜索精确的重复项外,基本上没有经过整理,可能会留下很多冗余。在这里,我们介绍 SemDeDup,这是一种利用预训练模型的嵌入来识别和删除语义重复项的方法:语义相似但不完全相同的数据对。删除语义重复项可以保持性能并加快学习速度。通过分析 LAION 的一个子集,我们表明 SemDeDup 可以删除 50% 的数据,而性能损失最小,从而有效地将训练时间减半。此外,性能会因分布而增加。此外,通过分析在 C4(部分精选的数据集)上训练的语言模型,我们表明 SemDeDup 比之前的方法有所改进,同时提供了效率提升。SemDeDup 提供了一个示例,说明如何使用利用质量嵌入的简单方法来使模型用更少的数据更快地学习。

Subjects: cs.CV


3.Efficient Diffusion Training via Min-SNR Weighting Strategy

02e200f39ac3156e84db9f9a581c8d18.png


标题:通过 Min-SNR 加权策略进行有效的扩散训练

作者:Tiankai Hang, Shuyang Gu, Chen Li, Jianmin Bao, Dong Chen, Han Hu, Xin Geng, Baining Guo

文章链接:https://arxiv.org/abs/2302.01660v2

项目代码:https://github.com/ysig/learnable-typewriter

ad7f58c12dc25af13a61dbe02181bcd0.png

e9e1b3cc29648232495fc3a8eb856741.png

da57ae314bfbb42b80751dba56b5ceb2.png

摘要:

       去噪扩散模型一直是图像生成的主流方法,但是,训练这些模型通常会收敛缓慢。在本文中,我们发现缓慢收敛的部分原因是时间步之间的优化方向相互冲突。为了解决这个问题,我们将扩散训练视为一个多任务学习问题,并引入了一种简单而有效的方法,称为 Min-SNR- γ 。该方法根据钳位信噪比调整时间步长的损失权重,有效地平衡了时间步长之间的冲突。我们的结果表明收敛速度有了显着提高,比以前的加权策略快 3.4 倍 。它也更有效,使用比以前最先进的架构更小的架构在 ImageNet 256×256 基准测试中取得了 2.06 的新纪录 FID 分数。

目录
相关文章
|
机器学习/深度学习 自然语言处理 算法
每日学术速递3.9
最近的视觉语言模型显示出令人印象深刻的多模态生成能力。但是,通常它们需要在海量数据集上训练大型模型。作为更具可扩展性的替代方案,我们引入了 Prismer,这是一种数据和参数高效的视觉语言模型,它利用了领域专家的集合。
174 0
每日学术速递3.9
|
机器学习/深度学习 自然语言处理 物联网
每日学术速递5.1
大型语言模型 (LLM) 在各种开放式任务中展示了令人印象深刻的零样本能力,而最近的研究还探索了使用 LLM 进行多模态生成。
151 0
|
机器学习/深度学习 自然语言处理 数据可视化
每日学术速递3.31
我们提出了 LLaMA-Adapter,这是一种轻量级自适应方法,可以有效地将 LLaMA 微调为指令跟随模型。使用 52K 自我指导演示,LLaMA-Adapter 仅在冻结的 LLaMA 7B 模型上引入 1.2M 可学习参数,并且在 8 个 A100 GPU 上进行微调的成本不到一小时。
178 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递3.17
怪异、不寻常和离奇的图像激起观察者的好奇心,因为它们挑战常识。例如,在 2022 年世界杯期间发布的一张图片描绘了著名足球明星莱昂内尔·梅西和克里斯蒂亚诺·罗纳尔多下棋,这调皮地违反了我们对他们的比赛应该在足球场上进行的预期。人类可以轻松识别和解读这些非常规图像,但 AI 模型也能做到吗?我们介绍了 WHOOPS!,这是一个新的视觉常识数据集和基准。
159 0
|
机器学习/深度学习 运维 自然语言处理
每日学术速递3.3
评估面部图像的质量对于以足够的准确性操作面部识别系统至关重要。人脸质量标准化的最新进展 (ISO/IEC WD 29794-5) 建议使用组件质量测量方法将人脸质量分解为各个因素,从而为操作员重新捕获低质量图像提供有价值的反馈。
129 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递3.29
由于模型容量有限,纯基于 MLP 的神经辐射场(基于 NeRF 的方法)在大型场景上经常会出现渲染模糊的欠拟合问题。最近的方法提出在地理上划分场景并采用多个子 NeRF 分别对每个区域进行建模,从而导致训练成本和子 NeRF 的数量随着场景的扩展而线性增加。
161 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递5.8
最近的 AI 助理代理,例如 ChatGPT,主要依靠带有人工注释的监督微调 (SFT) 和来自人类反馈的强化学习 (RLHF) 来使大型语言模型 (LLM) 的输出与人类意图保持一致,确保它们是乐于助人、合乎道德且可靠。然而,由于获得人工监督的高成本以及质量、可靠性、多样性、自我一致性和不良偏见等相关问题
192 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递4.1
本文介绍了一种名为 F²-NeRF (Fast-Free-NeRF) 的新型基于网格的 NeRF,用于新型视图合成,它支持任意输入摄像机轨迹,并且只需几分钟的训练时间。现有的基于网格的快速 NeRF 训练框架,如 Instant-NGP、Plenoxels、DVGO 或 TensoRF,主要针对有界场景设计,并依靠空间扭曲来处理无界场景。现有的两种广泛使用的空间扭曲方法仅针对前向轨迹或 360 度以对象为中心的轨迹而设计,无法处理任意轨迹。
169 0
|
机器人
每日学术速递4.27
我们研究如何使用 Transformers 构建和训练用于机器人决策的空间表示。特别是,对于在各种环境中运行的机器人,我们必须能够快速训练或微调机器人感觉运动策略,这些策略对杂波具有鲁棒性、数据效率高,并且可以很好地泛化到不同的环境。
124 0
|
机器学习/深度学习 自然语言处理 计算机视觉
每日学术速递4.16
我们提出了 RECLIP(资源高效 CLIP),这是一种最小化 CLIP(对比语言图像预训练)计算资源占用的简单方法。受计算机视觉中从粗到精概念的启发,我们利用小图像有效地从大规模语言监督中学习,并最终使用高分辨率数据微调模型。由于视觉转换器的复杂性在很大程度上取决于输入图像的大小
187 0