每日学术速递4.24

简介: 自然界充满了复杂的系统,其特征是其组成部分之间存在错综复杂的关系:从社交网络中个体之间的社交互动到蛋白质中原子之间的静电相互作用。拓扑深度学习 (TDL) 提供了一个综合框架来处理与这些系统相关的数据并从中提取知识,例如预测个人所属的社会社区或预测蛋白质是否可以成为药物开发的合理目标。

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理


Subjects: cs.CV


1.Collaborative Diffusion for Multi-Modal Face Generation and Editing(CVPR 2023)


ec3a5f5dbd1b232d2e6174c72cd57415.png


标题:多模态人脸生成和编辑的协同扩散


作者:Ziqi Huang, Kelvin C.K. Chan, Yuming Jiang, Ziwei Liu

文章链接:https://arxiv.org/abs/2304.10530

项目代码:https://github.com/ziqihuangg/Collaborative-Diffusion

40acc3cf7ac96cc2a9d026641ab16cf7.png

b9136f1961a5f5d5962def586cfa6633.png

f0165f1c1b012e48f0a89658d85d4d4d.png

b362182dd598fd1ad5b6412bf4d072f1.png

9c0578351cc0de773923cde608ca53ab.png


摘要:

       扩散模型最近作为一种强大的生成工具出现。尽管取得了很大进展,但现有的扩散模型主要关注单模态控制,即扩散过程仅由一种条件模态驱动。为了进一步释放用户的创造力,希望模型能够同时通过多种模式进行控制,例如,通过描述年龄(文本驱动)来生成和编辑面部,同时绘制面部形状(面具驱动)。在这项工作中,我们提出了协作扩散,其中预先训练的单模态扩散模型协作以实现多模态人脸生成和编辑而无需重新训练。我们的主要见解是,由不同模式驱动的扩散模型在潜在的去噪步骤方面具有内在的互补性,可以建立双边联系。具体来说,我们提出了动态扩散器,这是一种元网络,它通过预测每个预训练单模态模型的时空影响函数来自适应幻觉多模态去噪步骤。Collaborative Diffusion 不仅协作了单模态扩散模型的生成能力,而且还集成了多个单模态操作来执行多模态编辑。广泛的定性和定量实验证明了我们的框架在图像质量和条件一致性方面的优越性。

2.Stochastic Interpolants: A Unifying Framework for Flows and Diffusions

e5a258150c1968e795750c1aad5aa6e4.png

标题:随机插值:流动和扩散的统一框架

作者:Michael S. Albergo, Nicholas M. Boffi, Eric Vanden-Eijnden

文章链接:https://arxiv.org/abs/2303.08797

项目代码:https://github.com/microsoft/AdaM

e30443c69c8a58552e1e526fc9ce7e5d.png

8e5dc7dc7e175b8898e4782747d44679.png

de103c8aa23bea9496aae47ffd3c675e.png

13dbd7d5ff5bfdf9774ccaf56c145ab0.png

3bb77b834ccf9ef53ca784a3b80bb925.png

摘要:

       介绍了一类统一基于流和基于扩散的方法的生成模型。这些模型扩展了 Albergo & Vanden-Eijnden (2023) 中提出的框架,允许使用称为“随机插值”的一大类连续时间随机过程在有限时间内精确地桥接任意两个任意概率密度函数。这些插值是通过将来自两个规定密度的数据与一个以灵活方式塑造桥梁的附加潜在变量相结合而构建的。随机插值的时间相关概率密度函数被证明满足一阶传输方程以及一系列具有可调扩散的前向和后向 Fokker-Planck 方程。考虑到单个样本的时间演变,这种观点立即导致基于概率流方程或具有可调噪声水平的随机微分方程的确定性和随机生成模型。进入这些模型的漂移系数是时间相关的速度场,其特征是简单二次目标函数的独特最小值,其中之一是插值密度得分的新目标。值得注意的是,我们表明,这些二次目标的最小化可以控制我们建立在随机动力学基础上的任何生成模型的可能性。相比之下,我们确定基于确定性动力学的生成模型还必须控制目标和模型之间的 Fisher 散度。我们还构建了基于插值的生成模型的似然和交叉熵的估计量,讨论了与其他随机桥的联系,并证明了在对插值进行显式优化时,此类模型可以恢复两个目标密度之间的薛定谔桥。

Subjects: cs.LG


3.Architectures of Topological Deep Learning: A Survey on Topological Neural Networks

d340ef5d47878347501b51e700dc7fa6.png

标题:拓扑深度学习的架构:拓扑神经网络综述

作者:Mathilde Papillon, Sophia Sanborn, Mustafa Hajij, Nina Miolane

文章链接:https://arxiv.org/abs/2304.10031

项目代码:https://github.com/awesome-tnns/awesome-tnns

c34352b2a3a3481d48aa8fb0a4684ae8.png

77e4ec533c00947473a9573853e43bb6.png

4fb3592e617f6a373ad51840aae466a2.png

0cadcadda6e7a28ba65f396b01cfcbb6.png

249bb84f92f7ba15312b1ffea2b3fc75.png

cea356ce86766cc8ae7194c5cf01c2a7.png

摘要:

       自然界充满了复杂的系统,其特征是其组成部分之间存在错综复杂的关系:从社交网络中个体之间的社交互动到蛋白质中原子之间的静电相互作用。拓扑深度学习 (TDL) 提供了一个综合框架来处理与这些系统相关的数据并从中提取知识,例如预测个人所属的社会社区或预测蛋白质是否可以成为药物开发的合理目标。TDL 已经展示了理论和实践优势,有望在应用科学及其他领域取得突破。然而,TDL 文献的快速增长也导致拓扑神经网络 (TNN) 体系结构的符号和语言缺乏统一。这对在现有工作的基础上进行构建以及将 TNN 部署到新的现实世界问题中构成了真正的障碍。为了解决这个问题,我们提供了一个易于理解的 TDL 介绍,并使用统一的数学和图形符号来比较最近发布的 TNN。通过对 TDL 新兴领域的直观和批判性审查,我们提取了对当前挑战和未来发展令人兴奋的机会的宝贵见解。

目录
相关文章
|
机器学习/深度学习 自然语言处理 测试技术
每日学术速递3.20
大型语言模型 (LLM) 可以通过生成中间思维链 (CoT) 推理步骤在少镜头和零镜头设置中执行复杂推理。此外,每个推理步骤都可以依赖外部工具来支持超出核心 LLM 功能(例如搜索/运行代码)的计算。之前关于 CoT 提示和工具使用的工作通常需要手工制作特定于任务的演示,并仔细编写模型生成与工具使用的交错脚本。
164 0
每日学术速递3.20
|
机器学习/深度学习 自然语言处理 算法
每日学术速递3.9
最近的视觉语言模型显示出令人印象深刻的多模态生成能力。但是,通常它们需要在海量数据集上训练大型模型。作为更具可扩展性的替代方案,我们引入了 Prismer,这是一种数据和参数高效的视觉语言模型,它利用了领域专家的集合。
156 0
每日学术速递3.9
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递4.10
雨雪天气去除是天气退化图像恢复中的一项专门任务,旨在消除共存的雨条纹和雪颗粒。在本文中,我们提出了 RSFormer,这是一种高效且有效的 Transformer,可以应对这一挑战。最初,我们探索了层次结构中卷积网络 (ConvNets) 和视觉变换器 (ViTs) 的接近程度,并通过实验发现它们在阶段内特征学习中的表现大致相同。
124 0
|
机器学习/深度学习 自然语言处理 算法
每日学术速递5.6
大型语言模型的最新进展引发了思维链中的推理,使模型能够以类似人类的方式分解问题。虽然这种范式提高了语言模型中的多步推理能力,但它受到单峰性的限制,主要应用于问答任务
111 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递3.29
由于模型容量有限,纯基于 MLP 的神经辐射场(基于 NeRF 的方法)在大型场景上经常会出现渲染模糊的欠拟合问题。最近的方法提出在地理上划分场景并采用多个子 NeRF 分别对每个区域进行建模,从而导致训练成本和子 NeRF 的数量随着场景的扩展而线性增加。
151 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递4.11
最近关于从姿势图像进行 3D 重建的工作表明,使用深度神经网络直接推断场景级 3D 几何结构而无需迭代优化是可行的,显示出非凡的前景和高效率。
103 0
|
机器学习/深度学习 存储 自然语言处理
每日学术速递4.17
扩散模型已被证明在生成高质量图像方面非常有效。然而,使大型预训练扩散模型适应新领域仍然是一个开放的挑战,这对于实际应用至关重要。本文提出了 DiffFit,这是一种参数高效策略,用于微调大型预训练扩散模型,从而能够快速适应新领域。DiffFit 非常简单,仅微调特定层中的偏差项和新添加的缩放因子
138 0
|
机器学习/深度学习 自然语言处理 算法
每日学术速递3.15
数据驱动是深度学习算法最具标志性的特性之一。ImageNet 的诞生推动了计算机视觉“从大规模数据中学习”的显着趋势。在 ImageNet 上进行预训练以获得丰富的通用表征已被证明有利于各种 2D 视觉任务,并成为 2D 视觉的标准。
159 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递2.16
半监督目标检测 (SSOD) 已成功提高 R-CNN 系列和无锚检测器的性能。然而,one-stage anchor-based detectors 缺乏生成高质量或灵活伪标签的结构,导致 SSOD 中存在严重的不一致问题,例如 YOLOv5。在本文中,我们提出了高效教师框架,用于可扩展且有效的基于锚点的单阶段 SSOD 训练,由密集检测器、伪标签分配器和时代适配器组成
154 0
|
机器学习/深度学习 自然语言处理 安全
每日学术速递2.27
视觉知识感知问答 (Knowledge-aware question answering, KAQA) 要求模型通过知识库回答问题,这对于开放域 QA 和特定域 QA 都是必不可少的,尤其是当仅靠语言模型无法提供所需的所有知识时。尽管最近的 KAQA 系统倾向于整合来自预训练语言模型 (PLM) 的语言知识和来自知识图 (KG) 的事实知识来回答复杂问题,但在有效融合来自 PLM 和 KG 的表征方面存在瓶颈,因为(i) 它们之间的语义和分布差距,以及 (ii) 对两种模式提供的知识进行联合推理的困难。
114 0
下一篇
DataWorks