7 Papers & Radios | ECCV 2022最佳论文;Transformer在试错中自主改进

简介: 7 Papers & Radios | ECCV 2022最佳论文;Transformer在试错中自主改进

参与:杜伟、楚航、罗若天

本周重要论文包括 ECCV 2022各奖项论文以及 DeepMind 的算法蒸馏新研究。


目录:

  1. In-context Reinforcement Learning with Algorithm Distillation
  2. Petabit-per-second data transmission using a chip-scale microcomb ring resonator source
  3. DetCLIP: Dictionary-Enriched Visual-Concept Paralleled Pre-training for Open-world Detection
  4. A Level Set Theory for Neural Implicit Evolution under Explicit Flows
  5. Pose-NDF: Modelling Human Pose Manifolds with Neural Distance Fields
  6. On the Versatile Uses of Partial Distance Correlation in Deep Learning
  7. UNIF: United Neural Implicit Functions for Clothed Human Reconstruction and Animation
  8. ArXiv Weekly Radiostation:NLP、CV、ML 更多精选论文(附音频)


论文 1:In-context Reinforcement Learning with Algorithm Distillation


摘要:在近日 DeepMind 的一篇论文中,研究者假设 PD 没能通过试错得到改进的原因是它训练用的数据无法显示学习进度。当前方法要么从不含学习的数据中学习策略(例如通过蒸馏固定专家策略),要么从包含学习的数据中学习策略(例如 RL 智能体的重放缓冲区),但后者的上下文大小(太小)无法捕获策略改进。

研究者提出了算法蒸馏(Algorithm Distillation, AD),这是一种通过优化 RL 算法学习历史中因果序列预测损失来学习上下文策略改进算子的方法。如下图 1 所示,AD 由两部分组成。首先通过保存 RL 算法在大量单独任务上的训练历史来生成大型多任务数据集,然后 transformer 模型通过将前面的学习历史用作其上下文来对动作进行因果建模。由于策略在源 RL 算法的训练过程中持续改进,因此 AD 不得不学习改进算子以便准确地建模训练历史中任何给定点的动作。至关重要的一点是,transformer 上下文必须足够大(即 across-episodic)才能捕获训练数据的改进。

推荐:DeepMind 新作:无需权重更新、提示和微调,transformer 在试错中自主改进。

论文 2:Petabit-per-second data transmission using a chip-scale microcomb ring resonator source


摘要:近日,来自丹麦技术大学(DTU)和瑞典哥德堡查尔姆斯理工大学的研究小组实现了迄今为止最高的数据传输效率,并且是世界上第一个仅使用单个激光器和单个光芯片实现每秒传输超过 1 拍比特 (Pbit/s) 的研究。

在实验中,研究人员仅使用一个光源在 7.9 公里的距离上实现了传输速率 1.8 Pbit/s——1 Petabit 相当于 12.5 万 Gigabyte,根据一些估算,全世界使用的平均互联网带宽约为 1 Pbit/s,因此它的速度接近全球带宽的两倍。

通信系统建模。

推荐:1.84Pb/s,两倍于全球互联网带宽总和:单激光器实现最快数据传输纪录。

论文 3:DetCLIP: Dictionary-Enriched Visual-Concept Paralleled Pre-training for Open-world Detection


摘要:开放域检测问题是指在上游利用大量网上爬取的图文对或一定类别的人工标注数据进行训练,如何在下游场景上实现任意类别检测的问题。开放域检测方法在产业界的应用主要包括自动驾驶系统路面物体检测,云端全场景检测等。

本论文对开放域检测问题提出了一种针对多数据源联合高效的并行训练框架,同时构建了额外的知识库来提供类别间的隐式关系。同时 DetCLIP 在微软举办的 ECCV2022 OdinW (Object Detection in the Wild[1]) 比赛上以 24.9% 的平均检测指标取得了 zero-shot 检测赛道第一名。论文已被 NeurIPS 2022 接收。

推荐:NeurIPS 2022 | 开放域检测新方法 DetCLIP,推理效率提升 20 倍。

论文 4:A Level Set Theory for Neural Implicit Evolution under Explicit Flows


摘要:基于坐标的神经网络参数化隐式表面已经成为几何的有效表示,它们高效充当了参数水平集,其中零水平集定义了感兴趣的表面。研究者提出了一个框架,允许将为三角形网格定义的变形操作应用于这类表面。这些操作中的一些可以被视为在显式表面引起瞬时流场的能量最小化问题。他们的方法通过扩展水平集的经典理论,利用流场来实现参数化隐式表面变形。

此外,通过形式化与水平集理论的关联,研究者还为现有的可微表面提取和渲染方法得出一个统一的观点。他们认为这些方法偏离了理论,并展示了自身方法对表面平滑、平均曲率流、逆渲染和用户定义的隐式几何编辑等应用的改进。

推荐:ECCV 2022 最佳论文荣誉提名奖。

论文 5:Pose-NDF: Modelling Human Pose Manifolds with Neural Distance Fields


摘要:本文提出了一种基于神经距离场 (NDFs) 的人体姿态连续模型:Pose-NDF。众所周知,姿态或动作先验对于生成逼真的新姿态非常重要,对从有噪声或局部观察重建精确的姿态也非常重要。
Pose-NDF 学习一系列各种可能的姿态作为神经隐式函数的零水平集(zero level set),将 3D 建模隐式曲面的思想扩展到高维域 SO(3)^K,其中人体姿态由单个数据点定义,由 K 个四元数表示。由此得到的高维隐函数可以对输入姿态进行微分,因此可以通过在 3 维超球体集合上使用梯度下降将任意姿态投射到流形(manifold)上。

推荐:ECCV 2022 最佳论文荣誉提名奖。

论文 6:On the Versatile Uses of Partial Distance Correlation in Deep Learning


摘要:比较神经网络模型的功能行为,无论是在训练期间的单个网络,还是训练一段时间后的两个网络(或更多网络),这些是了解模型正在学习什么(以及它们没有学习什么)的重要步骤,同时也是确定规范化或提高效率的重要策略。最近的研究已经取得了一些进展,例如研究者将视觉 transformers 与 CNN 进行比较,但系统地比较功能,特别是在不同的网络之间,仍然存在很多困难,通常的做法是一层一层地进行比较。

CCA(canonical correlation analysis)等方法在原则上适用,但迄今为止用的人很少。本文回顾了统计学中一个鲜为人知的概念,称为距离相关(及其部分变体),它被设计用来评估不同维度特征空间之间的相关性。该研究描述了将其部署到大规模模型的必要步骤,这为一系列应用打开了大门,包括调节一个深度模型,学习解耦表示,以及优化不同的模型,这些模型在应对对抗攻击时,鲁棒性更好。

推荐:ECCV 2022 最佳论文。

论文 7:UNIF: United Neural Implicit Functions for Clothed Human Reconstruction and Animation


摘要:上海科技大学和 ZMO.AI 的研究者提出了一套分部件人体重建和驱动的方法 UNIF,借助简洁有效的初始化和正则化手段,使分部件重建方法摆脱对部件划分标签的依赖。通过显式地建模部件之间的相互作用,显著提升了分部件重建方法对人体姿态的泛化能力。ZMO.AI 是国内头部内容生成初创公司,专注于 AI 文字生成内容 Yuan 初 创作平台的搭建。该论文已被 ECCV 2022 接收,并公开了代码。

推荐:ECCV 2022 | 摆脱部件标签依赖,上科大 & ZMO.AI 提出分部件 3D 人体重建与驱动新方法 UNIF。
ArXiv Weekly Radiostation

相关文章
|
机器学习/深度学习 自然语言处理 算法
7 Papers & Radios | 新型Transformer架构解决多智能体强化学习问题;ICRA 2022最佳论文出炉(2)
7 Papers & Radios | 新型Transformer架构解决多智能体强化学习问题;ICRA 2022最佳论文出炉
158 0
7 Papers & Radios | 新型Transformer架构解决多智能体强化学习问题;ICRA 2022最佳论文出炉(2)
|
机器学习/深度学习 Web App开发 人工智能
7 Papers & Radios | ICLR 2023杰出论文奖;微软GPT-4完整测评
7 Papers & Radios | ICLR 2023杰出论文奖;微软GPT-4完整测评
165 0
|
机器学习/深度学习 人工智能 PyTorch
CVPR2022 oral | MetaFormer才是探索Transformer的源泉,衍生PoolFormer速度喜人(二)
CVPR2022 oral | MetaFormer才是探索Transformer的源泉,衍生PoolFormer速度喜人(二)
114 0
|
机器学习/深度学习 自然语言处理 算法
CVPR2022 oral | MetaFormer才是探索Transformer的源泉,衍生PoolFormer速度喜人(一)
CVPR2022 oral | MetaFormer才是探索Transformer的源泉,衍生PoolFormer速度喜人(一)
138 0
|
机器学习/深度学习 编解码 人工智能
7 Papers & Radios | NeurIPS'22获奖论文;英伟达一句话生成3D模型
7 Papers & Radios | NeurIPS'22获奖论文;英伟达一句话生成3D模型
102 0
|
机器学习/深度学习 人工智能 自然语言处理
7 Papers & Radios | 机器人顶会RSS最佳论文;谷歌用语言模型解数学题(1)
7 Papers & Radios | 机器人顶会RSS最佳论文;谷歌用语言模型解数学题
151 0
|
机器学习/深度学习 人工智能 自然语言处理
7 Papers & Radios | 机器人顶会RSS最佳论文;谷歌用语言模型解数学题(2)
7 Papers & Radios | 机器人顶会RSS最佳论文;谷歌用语言模型解数学题
133 0
|
机器学习/深度学习 编解码 人工智能
7 Papers & Radios | 新型Transformer架构解决多智能体强化学习问题;ICRA 2022最佳论文出炉(1)
7 Papers & Radios | 新型Transformer架构解决多智能体强化学习问题;ICRA 2022最佳论文出炉
503 0
|
机器学习/深度学习 人工智能 运维
7 Papers & Radios | IJCAI 2022杰出论文;苹果2D GAN转3D
7 Papers & Radios | IJCAI 2022杰出论文;苹果2D GAN转3D
107 0
|
机器学习/深度学习 自然语言处理 算法
7 Papers & Radios | CVPR 2022最佳/最佳学生论文;大型语言模型教会智能体进化(2)
7 Papers & Radios | CVPR 2022最佳/最佳学生论文;大型语言模型教会智能体进化
173 0