每日学术速递5.2

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP自然语言处理_高级版,每接口累计50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: 现有的深度视频模型受限于特定任务、固定的输入输出空间和较差的泛化能力,难以在真实场景中部署。在本文中,我们提出了我们对多模态和多功能视频理解的愿景,并提出了一个原型系统 \system

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理  


Subjects: cs.CV


1.DataComp: In search of the next generation of multimodal datasets

a1f34374dc8a75cec590f411d48b869c.png

标题:DataComp:寻找下一代多模态数据集

作者:Samir Yitzhak Gadre, Gabriel Ilharco, Alex Fang, Jonathan Hayase, Georgios Smyrnis, Thao Nguyen, Ryan Marten, Mitchell Wortsman

文章链接:https://arxiv.org/abs/2304.14108

项目代码:https://github.com/mlfoundations/datacomp

26d1c1a2b74adbf218a56757be5020c3.png

e947e807a9e0cf82486ea4ed1cbce653.png

f3ccf03bd185cd4f0097bb20f31aa3b1.png

b7ceadae61c39627b4d093eb885c5cd8.png

摘要:

       大型多模态数据集在最近的突破中发挥了重要作用,例如 CLIP、Stable Diffusion 和 GPT-4。同时,数据集很少受到与模型架构或训练算法相同的研究关注。为了解决机器学习生态系统中的这一缺点,我们引入了 DataComp,这是一种基准,其中训练代码是固定的,研究人员通过提出新的训练集来进行创新。我们为数据集实验提供了一个测试平台,该实验以来自 Common Crawl 的 12.8B 图像文本对的新候选池为中心。我们基准测试的参与者设计新的过滤技术或管理新的数据源,然后通过运行我们标准化的 CLIP 训练代码并在 38 个下游测试集上进行测试来评估他们的新数据集。我们的基准测试由多个尺度组成,具有四个候选池大小和相关的计算预算,范围从训练期间看到的 12.8M 到 12.8B 个样本。这种多尺度设计有助于研究尺度趋势,并使具有不同资源的研究人员可以访问基准。我们的基线实验表明,DataComp 工作流是改进多模态数据集的一种很有前途的方法。我们介绍了 DataComp-1B,这是一个通过对 12.8B 候选池应用简单过滤算法创建的数据集。由此产生的 1.4B 子集使 CLIP ViT-L/14 能够在 ImageNet 上从头开始训练到 79.2% 的零样本准确率。我们新的 ViT-L/14 模型比在 LAION-2B 上训练的更大的 ViT-g/14 高出 0.7 个百分点,同时需要的训练计算减少 9 倍。我们的表现也比 OpenAI 的 CLIP ViT-L/14 高出 3.7 个百分点,它是使用与我们的模型相同的计算预算进行训练的。这些收益突出了通过精心策划训练集来提高模型性能的潜力。我们将 DataComp-1B 视为第一步,并希望 DataComp 为下一代多模式数据集铺平道路。

2.Text-to-Audio Generation using Instruction-Tuned LLM and Latent Diffusion Model

07271cefd6f75aa35c0623efcfa10e0e.png

标题:使用指令调整的 LLM 和潜在扩散模型生成文本到音频

作者:Deepanway Ghosal, Navonil Majumder, Ambuj Mehrish, Soujanya Poria

文章链接:https://arxiv.org/abs/2304.13731

项目代码:https://github.com/declare-lab/tango

89decd3191736ab99730b9a4a182f8fc.png

4ee4c9634b0568b2a02a19ad40937c75.png

9df0340e2a3f77feecad7476a961b8f0.png

摘要:

       最近大型语言模型 (LLM) 的巨大规模允许许多有趣的特性,例如基于指令和思想链的微调,这在许多自然语言处理中显着提高了零样本和少样本性能(NLP) 任务。受这些成功的启发,我们采用这种指令调优的 LLM Flan-T5 作为文本编码器,用于文本到音频 (TTA) 生成——目标是根据文本描述生成音频的任务。TTA 的先前工作要么预训练联合文本音频编码器,要么使用非指令调优模型,例如 T5。因此,尽管在小 63 倍的数据集上训练 LDM 并保持文本编码器冻结。这种改进也可能归因于采用基于音频压力水平的混音来增强训练集,而之前的方法采用随机混音。

3.ChatVideo: A Tracklet-centric Multimodal and Versatile Video Understanding System

6c72ee9c819aa9ba222cd68fdcaeef18.png

标题:ChatVideo:以 Tracklet 为中心的多模态多功能视频理解系统

作者:Junke Wang, Dongdong Chen, Chong Luo, Xiyang Dai, Lu Yuan, Zuxuan Wu, Yu-Gang Jiang

文章链接:https://arxiv.org/abs/2304.14407

项目代码:https://www.wangjunke.info/ChatVideo/

9a3a230801c797f53d6cc0a6bfcb0fc0.png

ac1bb9ccc1a291d785a67b48eb119bc2.png

f93e89c59259b02fe2fb8152a394085b.png

0e20eaee84c24e340e5fdb9f73231d6a.png


摘要:

       现有的深度视频模型受限于特定任务、固定的输入输出空间和较差的泛化能力,难以在真实场景中部署。在本文中,我们提出了我们对多模态和多功能视频理解的愿景,并提出了一个原型系统 \system。我们的系统建立在以 tracklet 为中心的范例之上,它将 tracklet 视为基本视频单元,并使用各种视频基础模型 (ViFM) 来注释它们的属性,例如外观、运动等。所有检测到的轨迹都存储在数据库中,并通过数据库管理器与用户交互。我们对不同类型的野外视频进行了广泛的案例研究,证明了我们的方法在回答各种视频相关问题方面的有效性。

目录
相关文章
|
机器学习/深度学习 自然语言处理 自动驾驶
每日学术速递5.9
目标跟踪的大多数先前进展是在具有良好照明的白天场景中实现的。迄今为止,最先进的技术很难在夜间发挥其优势,从而大大阻碍了与视觉跟踪相关的无人机 (UAV) 应用的扩展
137 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递3.17
怪异、不寻常和离奇的图像激起观察者的好奇心,因为它们挑战常识。例如,在 2022 年世界杯期间发布的一张图片描绘了著名足球明星莱昂内尔·梅西和克里斯蒂亚诺·罗纳尔多下棋,这调皮地违反了我们对他们的比赛应该在足球场上进行的预期。人类可以轻松识别和解读这些非常规图像,但 AI 模型也能做到吗?我们介绍了 WHOOPS!,这是一个新的视觉常识数据集和基准。
130 0
|
机器学习/深度学习 存储 自然语言处理
每日学术速递4.9
错误信息已成为一个紧迫的问题。网络上广泛存在视觉和文本形式的虚假媒体。虽然已经提出了各种 deepfake 检测和文本假新闻检测方法,但它们仅设计用于基于二进制分类的单模态伪造,更不用说分析和推理跨不同模态的细微伪造痕迹。
116 0
|
机器学习/深度学习 自然语言处理 机器人
每日学术速递4.26
我们介绍了 CLaMP:对比语言-音乐预训练,它使用音乐编码器和文本编码器通过对比损失联合训练来学习自然语言和符号音乐之间的跨模态表示。为了预训练 CLaMP,我们收集了 140 万个音乐文本对的大型数据集。它采用文本丢失作为数据增强技术和条形修补来有效地表示音乐数据,从而将序列长度减少到不到 10%。此外,我们开发了一个掩码音乐模型预训练目标,以增强音乐编码器对音乐背景和结构的理解。
103 0
|
机器学习/深度学习 存储 自然语言处理
每日学术速递3.23
我们介绍了 Zero-1-to-3,这是一个框架,用于在给定单个 RGB 图像的情况下更改对象的相机视点。为了在这种欠约束的环境中执行新的视图合成,我们利用了大规模扩散模型了解自然图像的几何先验。我们的条件扩散模型使用合成数据集来学习相对相机视点的控制,这允许在指定的相机变换下生成同一对象的新图像。
84 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递4.15
大规模视觉语言模型(例如 CLIP)学习强大的图像文本表示,这些表示已找到许多应用程序,从零镜头分类到文本到图像生成。尽管如此,它们通过提示解决新的判别任务的能力仍落后于大型语言模型,例如 GPT-3。在这里,我们探索视觉提示工程的想法,通过在图像空间而不是文本中进行编辑来解决分类以外的计算机视觉任务。
108 0
|
机器人
每日学术速递4.27
我们研究如何使用 Transformers 构建和训练用于机器人决策的空间表示。特别是,对于在各种环境中运行的机器人,我们必须能够快速训练或微调机器人感觉运动策略,这些策略对杂波具有鲁棒性、数据效率高,并且可以很好地泛化到不同的环境。
107 0
|
机器学习/深度学习 自然语言处理 数据可视化
每日学术速递3.31
我们提出了 LLaMA-Adapter,这是一种轻量级自适应方法,可以有效地将 LLaMA 微调为指令跟随模型。使用 52K 自我指导演示,LLaMA-Adapter 仅在冻结的 LLaMA 7B 模型上引入 1.2M 可学习参数,并且在 8 个 A100 GPU 上进行微调的成本不到一小时。
163 0
|
机器学习/深度学习 自然语言处理 计算机视觉
每日学术速递4.7
我们引入了一种新颖的框架,可以毫不费力地训练深度立体网络,无需任何基本事实。通过利用最先进的神经渲染解决方案,我们从使用单个手持相机收集的图像序列生成立体训练数据。
123 0
|
机器学习/深度学习 传感器 自然语言处理
每日学术速递4.23
神经辐射场 (NeRF) 能够以前所未有的视觉质量实现新颖的视图合成。然而,为了渲染逼真的图像,NeRF 需要对每个像素进行数百次深度多层感知器 (MLP) 评估。这是非常昂贵的,并且使实时渲染变得不可行,即使在强大的现代 GPU 上也是如此。
121 0
下一篇
无影云桌面