每日学术速递2.17

简介: 近年来,大型深度学习 (DL) 模型的开发有所增加,这使得训练效率变得至关重要。通常的做法是在可用性和性能之间进行权衡。一方面,诸如 PyTorch 之类的 DL 框架使用动态图来以次优模型训练性能为代价为模型开发人员提供便利。

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理

Subjects: cs.LG


1.Decoupled Model Schedule for Deep Learning Training

ff1ac17934fbd9b7d8461e26ba2b6bed.png

标题:深度学习训练的解耦模型时间表

作者:Hongzheng Chen, Cody Hao Yu, Shuai Zheng, Zhen Zhang, Zhiru Zhang, Yida Wang

文章链接:https://arxiv.org/abs/2302.08005v1

项目代码:https://github.com/awslabs/slapo

eba510d4ed8bcdf19579d1e8cd2d5a29.png

摘要:

       近年来,大型深度学习 (DL) 模型的开发有所增加,这使得训练效率变得至关重要。通常的做法是在可用性和性能之间进行权衡。一方面,诸如 PyTorch 之类的 DL 框架使用动态图来以次优模型训练性能为代价为模型开发人员提供便利。另一方面,从业者提出了各种通过牺牲一些灵活性来提高训练效率的方法,从使图静态化以进行更彻底的优化(例如 XLA)到针对大规模分布式训练进行定制优化(例如 DeepSpeed 和威震天-LM)。在本文中,我们的目标是通过关注点分离来解决可用性和训练效率之间的紧张关系。受将张量级运算符的平台特定优化与其算术定义分离的 DL 编译器的启发,本文提出了一种调度语言来将模型执行与定义分离。具体来说,调度在 PyTorch 模型上运行,并使用一组调度原语将模型转换为常见的模型训练优化,例如高性能内核、有效的 3D 并行性和高效的激活检查点。与现有的优化方案相比,我们通过高层原语按需优化模型,从而在很大程度上为用户保留了可编程性和可调试性。我们的评估结果表明,通过系统地安排现有的手工优化,我们能够在配备 8 个 NVIDIA V100 GPU 的单台机器上将训练吞吐量提高多达 3.35 倍,并提高多达 1.5 倍。与 DeepSpeed 和 Megatron-LM 的开箱即用性能相比,在具有多达 64 个 GPU 的多台机器上是 32 倍。

2ad37190c2441ee73d84cbf751a17601.png

824f014ad59ba0d5d0d8a3b223ff8af9.png

5ce6bc803a337c53a433516788fe318e.png

2.Assisting Human Decisions in Document Matching

0a8eaa637e765eb489efbd77463ea0f4.png

标题:在文档匹配中协助人类决策

作者:Joon Sik Kim, Valerie Chen, Danish Pruthi, Nihar B. Shah, Ameet Talwalkar

文章链接:https://arxiv.org/abs/2302.08450v1

项目代码:https://github.com/wnstlr/document-matching

19fc7890ce84da9f98f0be54203bfb66.png

摘要:

       许多实际应用,从同行评审中的论文审稿人分配到招聘的求职者匹配,都需要人类决策者通过将他们的专业知识与机器学习模型的预测相结合来识别相关匹配。在许多此类模型辅助文档匹配任务中,决策者强调需要有关模型输出(或数据)的辅助信息以促进他们的决策。在本文中,我们设计了一个代理匹配任务,使我们能够评估哪些类型的辅助信息可以提高决策者的绩效(在准确性和时间方面)。通过一项众包(N=271 名参与者)研究,我们发现提供黑盒模型解释会降低用户在匹配任务上的准确性,这与人们普遍认为的可以通过更好地理解模型来提供帮助的信念相反。另一方面,发现旨在密切关注某些任务特定需求的自定义方法可有效提高用户性能。令人惊讶的是,我们还发现用户对辅助信息的感知效用与他们的客观效用(通过他们的任务绩效衡量)不一致。

246aba711ae9393a63062f830ac48a3a.png

5a4885518330c28cd6e7d854b2a0dd8b.png

93d6af1a09db174af411258b2c2dc495.png

Subjects: cs.CV


3.URCDC-Depth: Uncertainty Rectified Cross-Distillation with CutFlip for Monocular Depth Estimation

358116ba319562d1b0bfa3c69cd2b664.png


标题:URCDC-Depth:使用 CutFlip 进行不确定性校正交叉蒸馏以进行单眼深度估计

作者:Shuwei Shao, Zhongcai Pei, Weihai Chen, Ran Li, Zhong Liu, Zhengguo Li

文章链接:https://arxiv.org/abs/2302.08149v1

项目代码:https://github.com/shuweishao/urcdc-depth

6230b82a32580f8e54a09f0015d0c91e.png

摘要:

       这项工作旨在从单个 RGB 图像估计高质量的深度图。由于缺乏深度线索,充分利用长程相关性和局部信息对于准确的深度估计至关重要。为此,我们在 Transformer 和卷积神经网络 (CNN) 之间引入了不确定性校正交叉蒸馏,以学习统一的深度估计器。具体来说,我们使用从 Transformer 分支和 CNN 分支导出的深度估计作为伪标签来互相学习。同时,我们对像素级深度不确定性进行建模,以纠正噪声深度标签的损失权重。为了避免由强大的 Transformer 分支引起的巨大性能差距恶化交叉蒸馏,我们将特征映射从 Transformer 转移到 CNN 并设计耦合单元以协助弱 CNN 分支利用转移的特征。此外,我们提出了一种非常简单但非常有效的数据增强技术 CutFlip,它强制模型利用除了垂直图像位置的线索之外的更有价值的线索来进行深度估计。广泛的实验表明,我们的模型,称为 ~\textbf{URCDC-Depth},在 KITTI 和 NYU-Depth-v2 数据集上超过了以前最先进的方法,即使在推理时没有额外的计算负担。


c4311beb92eb05d90b80a09ad010e3ed.png

0dffaa4d824d84a6b1d603dccef321b0.png

目录
相关文章
|
机器学习/深度学习 自然语言处理 测试技术
每日学术速递3.20
大型语言模型 (LLM) 可以通过生成中间思维链 (CoT) 推理步骤在少镜头和零镜头设置中执行复杂推理。此外,每个推理步骤都可以依赖外部工具来支持超出核心 LLM 功能(例如搜索/运行代码)的计算。之前关于 CoT 提示和工具使用的工作通常需要手工制作特定于任务的演示,并仔细编写模型生成与工具使用的交错脚本。
177 0
每日学术速递3.20
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递3.16
本文提出了一个统一的扩散框架(称为 UniDiffuser),以在一个模型中拟合与一组多模态数据相关的所有分布。我们的关键见解是——学习边缘分布、条件分布和联合分布的扩散模型可以统一为预测扰动数据中的噪声,其中扰动水平(即时间步长)对于不同的模式可能不同。
172 0
|
机器学习/深度学习 自然语言处理 机器人
每日学术速递2.28
最近在机器人视觉表示学习方面的工作证明了从人类执行日常任务的大型视频数据集中学习的可行性。利用掩码自动编码和对比学习等方法,这些表示表现出向视觉运动控制的策略学习的强烈迁移。但是,机器人学习包含一系列无法控制的问题,包括掌握能力预测、语言条件模仿学习和人机协作的意图评分等。
92 0
|
机器学习/深度学习 自然语言处理 计算机视觉
每日学术速递4.16
我们提出了 RECLIP(资源高效 CLIP),这是一种最小化 CLIP(对比语言图像预训练)计算资源占用的简单方法。受计算机视觉中从粗到精概念的启发,我们利用小图像有效地从大规模语言监督中学习,并最终使用高分辨率数据微调模型。由于视觉转换器的复杂性在很大程度上取决于输入图像的大小
187 0
|
机器学习/深度学习 自然语言处理 定位技术
每日学术速递4.2
传统上,视频理解任务由两个独立的架构建模,专门为两个不同的任务量身定制。基于序列的视频任务,如动作识别,使用视频主干直接提取时空特征,而基于帧的视频任务,如多目标跟踪 (MOT),依赖单个固定图像主干提取空间特征。相比之下,我们建议将视频理解任务统一到一种新颖的流式视频架构中,称为流式视觉转换器 (S-ViT)。 S-ViT 首先使用支持内存的时间感知空间编码器生成帧级特征,以服务于基于帧的视频任务。
157 0
|
机器学习/深度学习 自然语言处理 定位技术
每日学术速递3.1
文本引导的扩散模型,如 DALLE-2、IMAGEN 和 Stable Diffusion,只要给出描述所需图像内容的简短文本提示,就能够有效地生成无穷无尽的图像。在许多情况下,图像的质量也非常高。然而,这些模型通常难以组合包含多个关键对象的场景,例如具有指定位置关系的角色。
105 0
|
机器人
每日学术速递4.27
我们研究如何使用 Transformers 构建和训练用于机器人决策的空间表示。特别是,对于在各种环境中运行的机器人,我们必须能够快速训练或微调机器人感觉运动策略,这些策略对杂波具有鲁棒性、数据效率高,并且可以很好地泛化到不同的环境。
124 0
|
机器学习/深度学习 自然语言处理 算法
每日学术速递5.6
大型语言模型的最新进展引发了思维链中的推理,使模型能够以类似人类的方式分解问题。虽然这种范式提高了语言模型中的多步推理能力,但它受到单峰性的限制,主要应用于问答任务
122 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递3.29
由于模型容量有限,纯基于 MLP 的神经辐射场(基于 NeRF 的方法)在大型场景上经常会出现渲染模糊的欠拟合问题。最近的方法提出在地理上划分场景并采用多个子 NeRF 分别对每个区域进行建模,从而导致训练成本和子 NeRF 的数量随着场景的扩展而线性增加。
161 0
|
机器学习/深度学习 自然语言处理 物联网
每日学术速递4.6
大型语言模型 (LLM)(如 GPT-3 和 ChatGPT)的成功导致开发了许多具有成本效益且易于访问的替代方案,这些替代方案是通过使用特定于任务的数据(例如,ChatDoctor)微调开放访问 LLM 创建的) 或指令数据(例如,Alpaca)。在各种微调方法中,基于适配器的参数高效微调(PEFT)无疑是最吸引人的话题之一
157 0