10亿参数,10亿张图!Facebook新AI模型SEER实现自监督学习,LeCun大赞最有前途

简介: 刚刚,Facebook公布了一个在10亿张图片上训练的AI模型SEER。该模型包含10亿个参数,可以从网上任何未标记图像的中学习,并在一系列计算机视觉基准上取得了先进的结果。Facebook的这一突破能否实现计算机视觉的自监督学习革命?

微信图片_20220112165434.jpg


无需标签,自我分析数据!


Facebook的新AI模型在革计算机视觉的命?

 

刚刚,Facebook宣布了一个在10亿张图片上训练的AI模型——SEER,是自监督(Self-supervised)的缩写。


微信图片_20220112165436.png

 

该模型包含10亿个参数,可以在几乎没有标签帮助的情况下识别图像中的物体,并在一系列计算机视觉基准上取得了先进的结果。

 

要知道,大多数计算机视觉模型都是从标记的数据集中学习。

 

而Facebook的最新模型则是通过暴露数据各部分之间的关系从数据中来生成标签。

 

这一步被认为对有朝一日实现人类终极智能至关重要。

 


新AI模型SEER在革计算机视觉的命?


参数一直是机器学习系统的基本组成部分,是从历史训练数据中得到的模型的一部分。

 

人工智能的未来在于是否能够不依赖于带注释的数据集,从给定的任何信息中进行推理

 

只要提供文本、图像或其他类型的数据,AI就能够完美地识别照片中的物体、解释文本,或者执行任何要求它执行的其他任务。


微信图片_20220112165442.jpg


Facebook首席科学家Yann LeCun表示,这是构建具有背景知识或「常识」的机器以解决远远超出当今AI任务的最有前途的方法之一。

 

我们已经看到了自然语言处理(NLP)的重大进步。其中,在大量文本上对超大型模型进行自我监督的预训练在自然语言处理方面取得重大突破


微信图片_20220112165444.png

 

现在,Facebook声称自家的SEER计算机视觉模型向这个目标迈进了一步。

 

它可以从互联网上的任何一组随机图像中学习,而不需要进行注释。

 

对视觉的自我监督是一项具有挑战性的任务。

 

对于文本,语义概念可以被分解成离散的单词,但是对于图像,模型必须自己推断哪个像素属于哪个概念

 

同样的概念在不同的图像之间往往会发生变化,这使得问题变得更具挑战性。因此,要想掌握单个概念的变化,就需要查看大量不同的图像。

 

微信图片_20220112165446.png


研究人员通过Instagram的公开的10亿张图片进行模型训练

 

他们发现,让人工智能系统处理复杂的图像数据至少需要两个核心算法

 

一是可以从大量随机图像中学习,无需任何元数据或注释的算法;二是卷积神经网络(ConvNet)足够大,可以从这些数据中捕捉和学习所有视觉概念。

 

卷积神经网络在20世纪80年代首次提出,受到生物学过程的启发,因为模型中各组成部分之间的连接模式类似于视觉皮层。


SEER:10亿张图,无需标记,自主训练数据集


SEER模型结合了最近的架构家族「RegNet」和在线自我监督训练「SwAV」来规模训练数具有10亿参数的数十亿张随机图像。

 

科研团队改编利用了一种新算法,称为SwAV。它起源于FAIR的研究,后被应用于自我监督学习。

 

微信图片_20220112165447.png

 

SwAV 使用在线聚类方法来快速分组具有相似视觉概念的图像,并且能利用图像的相似性改进自我监督学习的先进水平,而且训练时间减少了6倍

 

这种规模的训练模型还需要一个在运行时间和内存方面都效率很高的,又不会损失精确性的模型架构。

 

微信图片_20220112165449.gif

 

幸运的是,FAIR 最近在架构设计领域的一项创新催生了一个称为 RegNets 的新模型家族,它完全符合这些需求。

 

RegNet 模型能够扩展到数十亿甚至数万亿个参数,可以优化这些参数以适应不同的运行时间和内存限制。

 

微信图片_20220112165451.png

 

科研团队对比了SEER在随机IG图像上的预训练和在ImageNET上的预训练,果表明非监督特性比监督特性平均提高了2%

 

为SEER技术添上最后一块砖的是VISSL自我监督学习通用库。

 

服务于SEER的VISSL是开源的,这个通用图书馆能让更广泛的群体可以从图像中进行自我监督学习实验。

 

VISSL是一个基于PyTorch的库,她允许使用各种现代方法在小规模和大规模上进行自我监督训练。

 

微信图片_20220112165453.png

 

VISSL还包含了一个一个广泛的基准套件和一个包括了60多个预先训练模型的模型动物园(model zoo),使研究人员可以比较几个现代自我监督方法。

 

VISSL通过整合现有的几种算法,减少了对每个GPU的内存需要,提高了任意一个给定模型的训练速度,从而实现了大规模的自我监督学习。

 

SEER的自我监督模型建立在与VISSL相同的核心工具之上,并结合了PyTorch的自定义数据加载器,该加载器的数据吞吐量高于默认值。


自监督学习的未来

  

Facebook 表示,SEER在预先训练了10亿张公开的Instagram图片后,性能优于最先进的自监督模型。

 

SEER在目标检测分析、分割和图像分类等任务上也取得了最佳结果。

 

微信图片_20220112165455.png

 

用受欢迎的ImageNet10%的数据集中进行训练时,SEER仍然达到了77.9%的准确率。

 

当只有1%的数据集训练时,SEER的准确率是60.5%

 

接下来,Facebook将发布SEER背后的一些技术,但不会发布算法本身,因为它使用了Instagram用户的数据进行训练。

 

微信图片_20220112165457.jpg

 

麻省理工学院计算知觉和认知实验室的负责人Aude Oliva表示,这种方法将使我们能够实践更多雄心勃勃的视觉识别任务,但是像SEER这样的尖端人工智能算法的庞大规模和复杂性也带来了问题。

 

SEER可能有数十亿或数万亿个神经连接或参数,这样的算法需要大量的计算能力,使可用的芯片供应变得更加紧张

 

Facebook的团队使用了具有32GB RAM的 V100 Nvidia GPU,并且随着模型尺寸的增加,必须将模型放入可用的RAM中。

 

微信图片_20220112165458.jpg

 

长期以来,自我监督学习一直是 Facebook 人工智能的一个重点,因为它使机器能够直接从世界上大量可用的信息中学习,而不仅仅是从专门为人工智能研究创建的训练数据中学习。

 

自我监督学习对计算机视觉的未来有着难以置信的影响,就像它在其他研究领域所做的那样。

 

消除对人工注释和元数据的需求,使计算机视觉社区能够处理更大、更多样化的数据集。

 

Facebook的研究人员表示,「这一突破可以实现计算机视觉的自监督学习革命。

 

微信图片_20220112165500.png


参考资料:

https://ai.facebook.com/blog/seer-the-start-of-a-more-powerful-flexible-and-accessible-era-for-computer-vision/

https://venturebeat.com/2021/03/04/facebooks-new-computer-vision-model-achieves-state-of-the-art-performance-by-learning-from-random-images/

相关文章
|
7月前
|
云安全 人工智能 自然语言处理
阿里云x硅基流动:AI安全护栏助力构建可信模型生态
阿里云AI安全护栏:大模型的“智能过滤系统”。
2521 120
|
7月前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
1013 120
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
1099 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
8月前
|
人工智能 负载均衡 API
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
大家好,我是Immerse,独立开发者、AGI实践者。分享编程、AI干货、开源项目与个人思考。关注公众号“沉浸式趣谈”,获取独家内容。Vercel新推出的AI Gateway,统一多模型API,支持自动切换、负载均衡与零加价调用,让AI开发更高效稳定。一行代码切换模型,告别接口烦恼!
1085 1
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
如何让AI更“聪明”?VLM模型的优化策略与测试方法全解析​
本文系统解析视觉语言模型(VLM)的核心机制、推理优化、评测方法与挑战。涵盖多模态对齐、KV Cache优化、性能测试及主流基准,助你全面掌握VLM技术前沿。建议点赞收藏,深入学习。
2619 8
|
新零售 人工智能 达摩院
Facebook AI 翻译主管黄非加盟阿里达摩院
日前,黄非博士入职阿里巴巴达摩院。他以前的身份是:Facebook(脸书)应用机器学习部AI翻译团队主管。在达摩院机器智能技术实验室,他将和同事推动AI翻译在新零售、跨境电商、视频等领域的实时翻译应用。
3010 0
|
7月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
1835 74
|
7月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
737 30