每日学术速递4.24

简介: 自然界充满了复杂的系统,其特征是其组成部分之间存在错综复杂的关系:从社交网络中个体之间的社交互动到蛋白质中原子之间的静电相互作用。拓扑深度学习 (TDL) 提供了一个综合框架来处理与这些系统相关的数据并从中提取知识,例如预测个人所属的社会社区或预测蛋白质是否可以成为药物开发的合理目标。

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理


Subjects: cs.CV


1.Collaborative Diffusion for Multi-Modal Face Generation and Editing(CVPR 2023)


ec3a5f5dbd1b232d2e6174c72cd57415.png


标题:多模态人脸生成和编辑的协同扩散


作者:Ziqi Huang, Kelvin C.K. Chan, Yuming Jiang, Ziwei Liu

文章链接:https://arxiv.org/abs/2304.10530

项目代码:https://github.com/ziqihuangg/Collaborative-Diffusion

40acc3cf7ac96cc2a9d026641ab16cf7.png

b9136f1961a5f5d5962def586cfa6633.png

f0165f1c1b012e48f0a89658d85d4d4d.png

b362182dd598fd1ad5b6412bf4d072f1.png

9c0578351cc0de773923cde608ca53ab.png


摘要:

       扩散模型最近作为一种强大的生成工具出现。尽管取得了很大进展,但现有的扩散模型主要关注单模态控制,即扩散过程仅由一种条件模态驱动。为了进一步释放用户的创造力,希望模型能够同时通过多种模式进行控制,例如,通过描述年龄(文本驱动)来生成和编辑面部,同时绘制面部形状(面具驱动)。在这项工作中,我们提出了协作扩散,其中预先训练的单模态扩散模型协作以实现多模态人脸生成和编辑而无需重新训练。我们的主要见解是,由不同模式驱动的扩散模型在潜在的去噪步骤方面具有内在的互补性,可以建立双边联系。具体来说,我们提出了动态扩散器,这是一种元网络,它通过预测每个预训练单模态模型的时空影响函数来自适应幻觉多模态去噪步骤。Collaborative Diffusion 不仅协作了单模态扩散模型的生成能力,而且还集成了多个单模态操作来执行多模态编辑。广泛的定性和定量实验证明了我们的框架在图像质量和条件一致性方面的优越性。

2.Stochastic Interpolants: A Unifying Framework for Flows and Diffusions

e5a258150c1968e795750c1aad5aa6e4.png

标题:随机插值:流动和扩散的统一框架

作者:Michael S. Albergo, Nicholas M. Boffi, Eric Vanden-Eijnden

文章链接:https://arxiv.org/abs/2303.08797

项目代码:https://github.com/microsoft/AdaM

e30443c69c8a58552e1e526fc9ce7e5d.png

8e5dc7dc7e175b8898e4782747d44679.png

de103c8aa23bea9496aae47ffd3c675e.png

13dbd7d5ff5bfdf9774ccaf56c145ab0.png

3bb77b834ccf9ef53ca784a3b80bb925.png

摘要:

       介绍了一类统一基于流和基于扩散的方法的生成模型。这些模型扩展了 Albergo & Vanden-Eijnden (2023) 中提出的框架,允许使用称为“随机插值”的一大类连续时间随机过程在有限时间内精确地桥接任意两个任意概率密度函数。这些插值是通过将来自两个规定密度的数据与一个以灵活方式塑造桥梁的附加潜在变量相结合而构建的。随机插值的时间相关概率密度函数被证明满足一阶传输方程以及一系列具有可调扩散的前向和后向 Fokker-Planck 方程。考虑到单个样本的时间演变,这种观点立即导致基于概率流方程或具有可调噪声水平的随机微分方程的确定性和随机生成模型。进入这些模型的漂移系数是时间相关的速度场,其特征是简单二次目标函数的独特最小值,其中之一是插值密度得分的新目标。值得注意的是,我们表明,这些二次目标的最小化可以控制我们建立在随机动力学基础上的任何生成模型的可能性。相比之下,我们确定基于确定性动力学的生成模型还必须控制目标和模型之间的 Fisher 散度。我们还构建了基于插值的生成模型的似然和交叉熵的估计量,讨论了与其他随机桥的联系,并证明了在对插值进行显式优化时,此类模型可以恢复两个目标密度之间的薛定谔桥。

Subjects: cs.LG


3.Architectures of Topological Deep Learning: A Survey on Topological Neural Networks

d340ef5d47878347501b51e700dc7fa6.png

标题:拓扑深度学习的架构:拓扑神经网络综述

作者:Mathilde Papillon, Sophia Sanborn, Mustafa Hajij, Nina Miolane

文章链接:https://arxiv.org/abs/2304.10031

项目代码:https://github.com/awesome-tnns/awesome-tnns

c34352b2a3a3481d48aa8fb0a4684ae8.png

77e4ec533c00947473a9573853e43bb6.png

4fb3592e617f6a373ad51840aae466a2.png

0cadcadda6e7a28ba65f396b01cfcbb6.png

249bb84f92f7ba15312b1ffea2b3fc75.png

cea356ce86766cc8ae7194c5cf01c2a7.png

摘要:

       自然界充满了复杂的系统,其特征是其组成部分之间存在错综复杂的关系:从社交网络中个体之间的社交互动到蛋白质中原子之间的静电相互作用。拓扑深度学习 (TDL) 提供了一个综合框架来处理与这些系统相关的数据并从中提取知识,例如预测个人所属的社会社区或预测蛋白质是否可以成为药物开发的合理目标。TDL 已经展示了理论和实践优势,有望在应用科学及其他领域取得突破。然而,TDL 文献的快速增长也导致拓扑神经网络 (TNN) 体系结构的符号和语言缺乏统一。这对在现有工作的基础上进行构建以及将 TNN 部署到新的现实世界问题中构成了真正的障碍。为了解决这个问题,我们提供了一个易于理解的 TDL 介绍,并使用统一的数学和图形符号来比较最近发布的 TNN。通过对 TDL 新兴领域的直观和批判性审查,我们提取了对当前挑战和未来发展令人兴奋的机会的宝贵见解。

目录
相关文章
|
机器人
每日学术速递4.27
我们研究如何使用 Transformers 构建和训练用于机器人决策的空间表示。特别是,对于在各种环境中运行的机器人,我们必须能够快速训练或微调机器人感觉运动策略,这些策略对杂波具有鲁棒性、数据效率高,并且可以很好地泛化到不同的环境。
92 0
|
SQL 机器学习/深度学习 自然语言处理
每日学术速递3.22
我们介绍了一种新颖的方法,通过对一种或多种字母字体进行风格化来自动生成艺术排版,以直观地传达输入词的语义,同时确保输出保持可读性。为了解决我们手头任务的各种挑战,包括相互冲突的目标(艺术风格化与易读性)、缺乏基本事实和巨大的搜索空间,我们的方法利用大型语言模型来桥接文本和视觉图像以进行风格化,并建立一个无监督的具有扩散模型骨干的生成模型。
83 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递3.10
本文介绍了扩散策略,这是一种通过将机器人的视觉运动策略表示为条件去噪扩散过程来生成机器人行为的新方法。我们对来自 4 个不同机器人操作基准的 11 个不同任务的扩散策略进行基准测试,发现它始终优于现有的最先进的机器人学习方法,平均提高 46.9%。扩散策略学习动作分布得分函数的梯度,并在推理过程中通过一系列随机朗之万动力学步骤针对该梯度场进行迭代优化。
106 0
|
机器学习/深度学习 自然语言处理 大数据
每日学术速递3.7
由 Hinton 等人介绍。2012 年,dropout 作为防止神经网络过度拟合的正则化项经受住了时间的考验。在这项研究中,我们证明了在训练开始时使用 dropout 也可以减轻欠拟合。在早期阶段,我们发现 dropout 减少了小批量梯度的方向方差,并有助于将小批量梯度与整个数据集的梯度对齐。这有助于抵消 SGD 的随机性并限制个别批次对模型训练的影响。
92 0
|
机器学习/深度学习 传感器 自然语言处理
每日学术速递4.23
神经辐射场 (NeRF) 能够以前所未有的视觉质量实现新颖的视图合成。然而,为了渲染逼真的图像,NeRF 需要对每个像素进行数百次深度多层感知器 (MLP) 评估。这是非常昂贵的,并且使实时渲染变得不可行,即使在强大的现代 GPU 上也是如此。
106 0
|
机器学习/深度学习 自然语言处理 物联网
每日学术速递5.1
大型语言模型 (LLM) 在各种开放式任务中展示了令人印象深刻的零样本能力,而最近的研究还探索了使用 LLM 进行多模态生成。
118 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递4.5
无论是通过从头到尾以固定分辨率处理视频,还是结合池化和缩小策略,现有的视频转换器都可以处理整个网络中的整个视频内容,而无需专门处理大部分冗余信息。在本文中,我们提出了一种 Supertoken Video Transformer (SVT),它结合了语义池模块 (SPM),根据视觉转换器的语义沿着视觉转换器的深度聚合潜在表示,从而减少视频输入中固有的冗余。
73 0
|
机器学习/深度学习 自然语言处理 vr&ar
每日学术速递3.14
Vision Transformers 通过将图像切片成补丁来将图像转换为序列。这些补丁的大小控制着速度/准确性的权衡,较小的补丁会以更高的计算成本导致更高的准确性,但更改补丁大小通常需要重新训练模型。在本文中,我们证明了在训练时简单地随机化补丁大小会导致一组权重在广泛的补丁大小范围内表现良好,从而可以在部署时根据不同的计算预算定制模型。
114 0
|
机器学习/深度学习 自然语言处理 测试技术
每日学术速递4.22
在本文中,我们关注在未观察到的光照条件下从神经辐射场 (NeRF) 渲染新视图的问题。为此,我们引入了一个新的数据集,称为 ReNe (Relighting NeRF),在一次一光 (OLAT) 条件下构建真实世界的对象,并用准确的地面实况相机和光姿态进行注释。
93 0
|
机器学习/深度学习 自然语言处理 算法
每日学术速递5.10
由于对各种可能的自然语言问题进行概括的挑战,基于知识库的问答被认为是一个难题。此外,不同知识库之间知识库模式项的异质性通常需要对不同知识库问答 (KBQA) 数据集进行专门培训。为了使用统一的免训练框架处理各种 KBQA 数据集的问题,我们提出了 KB-BINDER,它首次实现了对 KBQA 任务的少样本上下文学习
161 0