谷歌提出视觉记忆方法,让大模型训练数据更灵活

简介: 谷歌研究人员提出了一种名为“视觉记忆”的方法,结合了深度神经网络的表示能力和数据库的灵活性。该方法将图像分类任务分为图像相似性和搜索两部分,支持灵活添加和删除数据、可解释的决策机制以及大规模数据处理能力。实验结果显示,该方法在多个数据集上取得了优异的性能,如在ImageNet上实现88.5%的top-1准确率。尽管有依赖预训练模型等限制,但视觉记忆为深度学习提供了新的思路。

在深度学习领域,训练一个神经网络通常是一个“一锤定音”的过程,类似于将知识雕刻在石头上:一旦训练完成,几乎不可能编辑网络中的知识,因为所有信息都分布在网络的权重中。然而,谷歌的研究人员提出了一种简单而引人注目的替代方案,即将深度神经网络的表示能力与数据库的灵活性相结合。

谷歌的研究人员提出了一种名为“视觉记忆”的方法,该方法将图像分类任务分解为两个部分:图像相似性(由预训练的嵌入提供)和搜索(通过从知识数据库中快速检索最近邻)。通过这种方式,他们构建了一个简单而灵活的视觉记忆系统,具有以下关键能力:

  1. 灵活添加数据的能力:从单个样本到整个类别,甚至数十亿规模的数据,都可以灵活添加。
  2. 删除数据的能力:可以通过“机器遗忘”和内存修剪来删除数据。
  3. 可解释的决策机制:可以干预以控制其行为。

这些能力共同展示了显式视觉记忆的好处。研究人员希望这能为关于如何在深度视觉模型中表示知识的讨论做出贡献,而不仅仅是将知识“雕刻”在权重中。

视觉记忆方法具有以下几个优势:

  1. 灵活性:视觉记忆可以灵活地添加和删除数据,这对于处理不断变化的数据需求非常有用。例如,当新的数据集或类别可用时,可以轻松地将它们添加到视觉记忆中,而当某些数据变得过时或不安全时,可以将其删除。
  2. 可解释性:视觉记忆的决策机制是可解释的,这意味着可以理解和干预其行为。这对于确保模型的公平性和透明度非常重要。
  3. 可扩展性:视觉记忆可以扩展到数十亿规模的数据,而不需要额外的训练。这对于处理大规模数据集非常有用。

研究人员在多个数据集上进行了实验,包括ImageNet和iNaturalist,并取得了令人印象深刻的结果。例如,他们使用视觉记忆方法在ImageNet上实现了88.5%的top-1准确率,这比之前的DinoV2 ViT-L14 kNN和线性探测方法都更好。

此外,研究人员还展示了视觉记忆在处理新类别和大规模数据方面的灵活性。例如,他们将64个新类别添加到ImageNet训练集的视觉记忆中,并实现了87%的top-1准确率,而没有对模型进行任何训练。

尽管视觉记忆方法具有许多优势,但也有一些限制和挑战需要考虑:

  1. 对预训练模型的依赖:视觉记忆方法依赖于预训练的嵌入模型,这意味着如果数据分布发生较大变化,可能需要更新嵌入模型。
  2. 计算成本:虽然视觉记忆可以灵活地添加和删除数据,但在某些情况下,可能需要进行大量的计算来更新内存。
  3. 数据质量:视觉记忆的性能取决于数据的质量和多样性。如果数据质量较差或多样性不足,可能会影响视觉记忆的性能。

论文地址:https://arxiv.org/pdf/2408.08172

相关文章
昆仑万维开源 Skywork R1V:开源多模态推理核弹!视觉链式分析超越人类专家
Skywork R1V 是昆仑万维开源的多模态思维链推理模型,具备强大的视觉链式推理能力,能够在多个权威基准测试中取得领先成绩,推动多模态推理模型的发展。
152 4
昆仑万维开源 Skywork R1V:开源多模态推理核弹!视觉链式分析超越人类专家
AIMv2:苹果开源多模态视觉模型,自回归预训练革新图像理解
AIMv2 是苹果公司开源的多模态自回归预训练视觉模型,通过图像和文本的深度融合提升视觉模型的性能,适用于多种视觉和多模态任务。
167 5
AIMv2:苹果开源多模态视觉模型,自回归预训练革新图像理解
Gemma 3n正式版开源:谷歌全新端侧多模态大模型,2GB 内存就能跑,重点提升编码和推理能力!
6月底,Google正式开源发布了全新端侧多模态大模型 Gemma 3n!相较此前的预览版,最新的 Gemma 3n 完整版进一步提升性能表现,支持在 2GB 内存的硬件上本地运行,重点提升了编码和推理方面的能力。
88 1
PyTabKit:比sklearn更强大的表格数据机器学习框架
PyTabKit是一个专为表格数据设计的新兴机器学习框架,集成了RealMLP等先进深度学习技术与优化的GBDT超参数配置。相比传统Scikit-Learn,PyTabKit通过元级调优的默认参数设置,在无需复杂超参调整的情况下,显著提升中大型数据集的性能表现。其简化API设计、高效训练速度和多模型集成能力,使其成为企业决策与竞赛建模的理想工具。
127 12
PyTabKit:比sklearn更强大的表格数据机器学习框架
月之暗面开源16B轻量级多模态视觉语言模型!Kimi-VL:推理仅需激活2.8B,支持128K上下文与高分辨率输入
月之暗面开源的Kimi-VL采用混合专家架构,总参数量16B推理时仅激活2.8B,支持128K上下文窗口与高分辨率视觉输入,通过长链推理微调和强化学习实现复杂任务处理能力。
256 5
月之暗面开源16B轻量级多模态视觉语言模型!Kimi-VL:推理仅需激活2.8B,支持128K上下文与高分辨率输入
Pandas数据应用:机器学习预处理
本文介绍如何使用Pandas进行机器学习数据预处理,涵盖数据加载、缺失值处理、类型转换、标准化与归一化及分类变量编码等内容。常见问题包括文件路径错误、编码不正确、数据类型不符、缺失值处理不当等。通过代码案例详细解释每一步骤,并提供解决方案,确保数据质量,提升模型性能。
266 88
HumanOmni:首个专注人类中心场景的多模态大模型,视觉与听觉融合的突破!
HumanOmni是业内首个理解以人为中心的场景,可以同时处理视觉信息、音频信息的多模态大模型。
258 9
HumanOmni:首个专注人类中心场景的多模态大模型,视觉与听觉融合的突破!
谷歌AI 多模态 Gemini 2.5 Pro的国内使用教程
在人工智能(AI)的星辰大海中,谷歌再次投下一枚重磅炸弹 💣!他们倾注心血打造的智慧结晶
1690 0
R1-Onevision:开源多模态推理之王!复杂视觉难题一键解析,超越GPT-4V
R1-Onevision 是一款开源的多模态视觉推理模型,基于 Qwen2.5-VL 微调,专注于复杂视觉推理任务。它通过整合视觉和文本数据,能够在数学、科学、深度图像理解和逻辑推理等领域表现出色,并在多项基准测试中超越了 Qwen2.5-VL-7B 和 GPT-4V 等模型。
208 0
R1-Onevision:开源多模态推理之王!复杂视觉难题一键解析,超越GPT-4V
QVQ-72B-Preview:阿里通义千问最新多模态推理模型,视觉推理助力复杂图像理解
阿里云通义千问团队开源的多模态推理模型 QVQ-72B-Preview,专注于提升视觉推理能力,支持复杂图像理解和逐步推理。
349 6
QVQ-72B-Preview:阿里通义千问最新多模态推理模型,视觉推理助力复杂图像理解

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问