每日学术速递4.29

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
简介: 我们提出了一种将点云渲染为表面的新方法。所提出的方法是可区分的,不需要特定场景的优化。这种独特的功能支持开箱即用的表面法线估计、渲染房间尺度点云、逆向渲染和全局照明光线追踪。与专注于将点云转换为其他表示(例如曲面或隐式函数)的现有工作不同,我们的关键思想是直接推断光线与给定点云表示的底层表面的交点。

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理


Subjects: cs.LG


1.A Cookbook of Self-Supervised Learning

44872d75ed30468e0313c85cee4eca56.png

标题:自监督学习食谱

作者:Randall Balestriero, Mark Ibrahim, Vlad Sobal, Ari Morcos, Shashank Shekhar, Tom Goldstein, Florian Bordes, Adrien Bardes

文章链接:https://arxiv.org/abs/2304.12210

141f0f7b4df9a4e17ded3bf4236ea6b3.png

6f6ca8264f7297e62508e6312c6e5829.png

da2ae35719a5ad0fcd26ce17c3d47981.png

摘要:

       自我监督学习,被称为智能的暗物质,是推进机器学习的一条有前途的途径。然而,就像烹饪一样,训练 SSL 方法是一门精致的艺术,入门门槛很高。虽然许多组件都很熟悉,但成功训练 SSL 方法涉及从借口任务到训练超参数的一系列令人眼花缭乱的选择。我们的目标是通过以食谱的形式奠定基础和最新的 SSL 食谱来降低进入 SSL 研究的门槛。我们希望让好奇的研究人员能够在方法领域中导航,了解各种旋钮的作用,并获得探索 SSL 的美妙之处所需的专业知识。

2.Scaling Transformer to 1M tokens and beyond with RMT

b802a06bf98a3af3a41d92b8f4535f41.png


标题:使用 RMT 将 Transformer 扩展到 1M 代币甚至更多

作者:Aydar Bulatov, Yuri Kuratov, Mikhail S. Burtsev

文章链接:https://arxiv.org/abs/2304.11062

e532b71d1209a761f25184bd883f4cd1.png

a7f96585c76a9591e4ee844f323370e3.png

c703f12a8547122300c040620ee515ac.png

052bc5bbe5c34d0f8752011f6e2b0028.png

12162c30b3c34eb6037333f7b0d46a66.png

摘要:

       这份技术报告介绍了循环记忆在扩展 BERT 的上下文长度方面的应用,BERT 是自然语言处理中最有效的基于 Transformer 的模型之一。通过利用 Recurrent Memory Transformer 架构,我们成功地将模型的有效上下文长度增加到前所未有的 200 万个标记,同时保持了较高的记忆检索准确性。我们的方法允许存储和处理局部和全局信息,并通过使用递归使信息在输入序列的片段之间流动。我们的实验证明了我们方法的有效性,它在增强自然语言理解和生成任务中的长期依赖处理以及为内存密集型应用程序实现大规模上下文处理方面具有巨大潜力。

Subjects: cs.CV


3.Pointersect: Neural Rendering with Cloud-Ray Intersection(CVPR 2023)

5e7139637236fb0247f481e1a5e0acde.png

标题:Pointersect:使用云射线相交的神经渲染

作者:Jen-Hao Rick Chang, Wei-Yu Chen, Anurag Ranjan, Kwang Moo Yi, Oncel Tuzel

文章链接:https://arxiv.org/abs/2304.12390

项目代码:https://machinelearning.apple.com/research/pointersect

4613036187b82699da8f83b5dc74a703.png

05269be2c8a3b9b65b181890a5e1f74d.png

a642e3356601fc46f10cee258834075a.png

摘要:

       我们提出了一种将点云渲染为表面的新方法。所提出的方法是可区分的,不需要特定场景的优化。这种独特的功能支持开箱即用的表面法线估计、渲染房间尺度点云、逆向渲染和全局照明光线追踪。与专注于将点云转换为其他表示(例如曲面或隐式函数)的现有工作不同,我们的关键思想是直接推断光线与给定点云表示的底层表面的交点。具体来说,我们训练一组变换器,给定沿光线的少量局部相邻点,提供交点、表面法线和材料混合权重,用于渲染该光线的结果。将问题定位到小社区使我们能够训练一个只有 48 个网格的模型并将其应用于看不见的点云。我们的模型在三个测试集上实现了比最先进的表面重建和点云渲染方法更高的估计精度。当应用于房间规模的点云时,无需任何特定于场景的优化,该模型通过最先进的新颖视图渲染方法实现了具有竞争力的质量。此外,我们展示了渲染和操纵激光雷达扫描点云的能力,例如照明控制和对象插入。

目录
相关文章
|
机器学习/深度学习 自然语言处理 测试技术
每日学术速递3.20
大型语言模型 (LLM) 可以通过生成中间思维链 (CoT) 推理步骤在少镜头和零镜头设置中执行复杂推理。此外,每个推理步骤都可以依赖外部工具来支持超出核心 LLM 功能(例如搜索/运行代码)的计算。之前关于 CoT 提示和工具使用的工作通常需要手工制作特定于任务的演示,并仔细编写模型生成与工具使用的交错脚本。
156 0
每日学术速递3.20
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递4.3
最近在语言引导图像生成领域取得的突破取得了令人瞩目的成就,能够根据用户指令创建高质量和多样化的图像。尽管合成性能令人着迷,但当前图像生成模型的一个重大限制是它们在图像中生成连贯文本的能力不足,特别是对于像汉字这样的复杂字形结构。为了解决这个问题,我们引入了 GlyphDraw,这是一个通用的学习框架,旨在赋予图像生成模型生成嵌入连贯文本的图像的能力。据我们所知,这是图像合成领域第一个解决汉字生成问题的工作。
147 0
每日学术速递4.3
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递3.16
本文提出了一个统一的扩散框架(称为 UniDiffuser),以在一个模型中拟合与一组多模态数据相关的所有分布。我们的关键见解是——学习边缘分布、条件分布和联合分布的扩散模型可以统一为预测扰动数据中的噪声,其中扰动水平(即时间步长)对于不同的模式可能不同。
156 0
|
机器学习/深度学习 编解码 人工智能
每日学术速递5.5
我们介绍了多尺度多视图视觉变换器 (MMViT),它将多尺度特征图和多视图编码引入到变换器模型中。我们的模型对输入信号的不同视图进行编码,并构建多个通道分辨率特征阶段
155 0
|
机器学习/深度学习 存储 人工智能
每日学术速递4.12
我们提出了 LLMA,这是一种 LLM 加速器,可以无损地加速带有引用的大型语言模型 (LLM) 推理。LLMA 的动机是观察到在 LLM 的解码结果和许多现实世界场景(例如,检索到的文档)中可用的参考之间存在大量相同的文本跨度。LLMA 首先从参考中选择一个文本跨度并将其标记复制到解码器
138 0
|
机器学习/深度学习 自然语言处理 定位技术
每日学术速递4.2
传统上,视频理解任务由两个独立的架构建模,专门为两个不同的任务量身定制。基于序列的视频任务,如动作识别,使用视频主干直接提取时空特征,而基于帧的视频任务,如多目标跟踪 (MOT),依赖单个固定图像主干提取空间特征。相比之下,我们建议将视频理解任务统一到一种新颖的流式视频架构中,称为流式视觉转换器 (S-ViT)。 S-ViT 首先使用支持内存的时间感知空间编码器生成帧级特征,以服务于基于帧的视频任务。
144 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递4.11
最近关于从姿势图像进行 3D 重建的工作表明,使用深度神经网络直接推断场景级 3D 几何结构而无需迭代优化是可行的,显示出非凡的前景和高效率。
98 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递4.30
具有指令微调的大型语言模型 (LLM) 展示了卓越的生成能力。然而,这些模型是资源密集型的。为了缓解这个问题,我们探索从指令调整的 LLM 中提炼知识到更小的 LLM。为此,我们基于现有指令和新生成的指令精心开发了大量 2.58M 指令集。
121 0
|
机器学习/深度学习 自然语言处理 测试技术
每日学术速递4.25
场景理解的一个长期目标是获得可解释和可编辑的表示,这些表示可以直接从原始单目 RGB-D 视频构建,而不需要专门的硬件设置或先验。在存在多个移动和/或变形物体的情况下,该问题更具挑战性。传统方法通过混合简化、场景先验、预训练模板或已知变形模型来处理设置。
177 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递3.29
由于模型容量有限,纯基于 MLP 的神经辐射场(基于 NeRF 的方法)在大型场景上经常会出现渲染模糊的欠拟合问题。最近的方法提出在地理上划分场景并采用多个子 NeRF 分别对每个区域进行建模,从而导致训练成本和子 NeRF 的数量随着场景的扩展而线性增加。
146 0