人脑90%都是自监督学习,AI大模型离模拟大脑还有多远?

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
模型训练 PAI-DLC,5000CU*H 3个月
简介: 人脑90%都是自监督学习,AI大模型离模拟大脑还有多远?
【新智元导读】人的大脑和自监督学习模型的相似度有多高?


我们都知道,人类的大脑90%都是自监督学习的,生物会不断对下一步发生的事情做出预测。 自监督学习,就是不需要外部干预也能做出决策。 只有少数情况我们会接受外部反馈,比如老师说:「你搞错了」。 而现在有学者发现,大型语言模型的自监督学习机制,像极了我们的大脑。 知名科普媒体Quanta Magazine近日报道,越来越多的研究发现,自监督学习模型,尤其是大型语言模型的自学方式,与我们的大脑的学习模式非常类似。  过去常见的AI系统都是使用大量标记数据进行训练的。 例如,图像可能被标记为「虎斑猫」或「虎猫」,用以训练人工神经网络来正确区分虎斑和虎。  这种「自监督」训练需要人工费力地标记数据,而神经网络通常会走捷径,学习将标签与最少、有时甚至是肤浅的信息联系起来。 例如,神经网络可能会使用草的存在来识别奶牛的照片,因为奶牛通常是在田野中拍摄的。 加州大学伯克利分校的计算机科学家阿列克谢·埃弗罗斯 (Alexei Efros) 说:

我们正在培养的算法,就像是一整个学期都没来上课的本科生,虽然他们并没有系统学习这些材料,但他们在考试中表现出色。

 此外,对于对动物智能和机器智能的交叉感兴趣的研究人员来说,这种「监督学习」可能仅限于它对生物大脑的揭示。 许多动物,包括人类不使用标记数据集来学习。在大多数情况下,他们自己探索环境,并且通过这样做,他们对世界获得了丰富而深刻的理解。 现在,一些计算神经科学家已经开始探索使用很少或没有人工标记数据进行训练的神经网络。  最近的研究结果表明,使用自我监督学习模型构建的动物视觉和听觉系统的计算模型比监督学习模型更接近大脑功能。 对一些神经科学家来说,人工神经网络似乎开始揭示用大脑来类比机器学习的途径。

有缺陷的监督


大约10年前,受人工神经网络启发的大脑模型开始出现,同时一个名为AlexNet的神经网络彻底改变了对未知图像进行分类的任务。

  这项成果在Alex Krizhevsky、Ilya Sutskever和Geoffrey E. Hinton 的论文「ImageNet Classification with Deep Convolutional Neural Networks」中发表。 论文地址:https://dl.acm.org/doi/10.1145/3065386 与所有神经网络一样,该网络由多层人工神经元组成,其中不同神经元之间连接的权重不同。 如果神经网络未能正确分类图像,学习算法会更新神经元之间连接的权重,以降低在下一轮训练中错误分类的可能性。 该算法重复此过程多次,调整权重,直到网络的错误率低到可以接受的程度。 之后,神经科学家使用AlexNet开发了第一个灵长类视觉系统(Primate Visual System)的计算模型。

 当猴子和人工神经网络显示相同的图像时,真实神经元和人工神经元的活动显示出类似的反应。 在听觉和气味检测的人工模型上也取得了相似的结果。 但随着该领域的发展,研究人员意识到自监督训练的局限性。 2017年,德国蒂宾根大学的计算机科学家Leon Gatys和他的同事拍摄了一张福特T型车的照片,然后在照片上覆盖了豹皮图案。  而人工智能神经网络将原始图像正确分类为Model T,但将修改后的图像视为豹子。 原因是它只专注于图像纹理,不了解汽车(或豹子)的形状。 自监督学习模型旨在避免此类问题。 瑞士巴塞尔弗里德里希·米歇尔生物医学研究所的计算神经科学家弗里德曼·岑克 (Friedemann Zenke) 说,

在这种方法中,人类不会标记数据,相反,标签来自数据本身。自监督算法本质上是在数据中创建空白,并要求神经网络填补空白。

 例如,在所谓的大型语言模型中,训练算法将向神经网络显示句子的前几个单词,并要求它预测下一个单词。 当使用从互联网收集的大量文本进行训练时,该模型似乎可以学习语言的句法结构,展示出令人印象深刻的语言能力——所有这些都没有外部标签或监督。 计算机视觉方面也正在进行类似的努力。 2021年底,何恺明及其同事展示了著名的掩码自动编码器研究「Masked Auto-Encoder」(MAE)。 论文地址:https://arxiv.org/abs/2111.06377 MAE将未掩码部分转换为潜在表示——压缩的数学描述,其中包含有关对象的重要信息。 在图像的情况下,潜在表示可能是一种数学描述,其中包括图像中对象的形状。然后解码器将这些表示转换回完整的图像。 

大脑也是「自监督」的


在这样的系统中,一些神经科学家认为,我们的大脑实际上也是自监督学习的。 麦吉尔大学和魁北克人工智能研究所(Mila)的计算神经科学家布莱克-理查兹(Blake Richards)说:「我认为毫无疑问,大脑所做的90%都是自监督学习。」 生物大脑被认为是在不断地预测,例如,一个物体在移动时的未来位置,或一句话中的下一个词,就像自我监督学习算法试图预测图像或一段文字的间隙一样。 计算神经科学家布莱克-理查兹(Blake Richards)创建了一个AI系统,模仿活体大脑中的视觉网络 理查兹和他的团队创建了一个自监督模型,暗示了一个答案。他们训练了一个结合两种不同神经网络的人工智能。 第一个,称为ResNet架构,是为处理图像而设计的;第二个,称为递归网络,可以跟踪先前的输入序列,对下一个预期输入进行预测。 为了训练联合AI,该团队从一连串的视频开始,比如说10帧,让ResNet逐一处理。 然后,递归网络预测了第11帧的潜在表示,而不是简单地匹配前10帧。自监督学习算法将预测值与实际值进行比较,并指示神经网络更新其权重,以使预测效果更好。 为了进一步测试,研究人员向AI展示了一组视频,西雅图艾伦脑科学研究所的研究人员以前曾向小鼠展示过这些视频。与灵长类动物一样,小鼠的大脑区域专门用于静态图像和运动。艾伦研究人员在小鼠观看视频时记录了小鼠视觉皮层的神经活动。 理查兹的团队发现了AI和活体大脑对视频的反应方式的相似之处。在训练过程中,人工神经网络中的一条途径变得与小鼠大脑的腹侧、物体探测区域更加相似,而另一条途径则变得与注重运动的背侧区域相似。 这些结果表明,我们的视觉系统有两条专门的通路,因为它们有助于预测视觉的未来;单一的通路是不够好的。 人类听觉系统的模型讲述了一个类似的故事。
6月,由Meta AI的研究科学家Jean-Rémi King领导的团队训练了一个名为Wav2Vec 2.0的人工智能,它使用一个神经网络将音频转化为潜在的表征。研究人员对这些表征中的一些进行了屏蔽,然后将其送入另一个称为转化器的组件神经网络。 在训练过程中,转化器预测被屏蔽的信息。在这个过程中,整个人工智能学会了将声音转化为潜在的表征,同样,不需要标签。 该团队使用了大约600小时的语音数据来训练网络。「这大约是一个孩子在前两年的经验中得到的东西。」金说。  Meta AI的让-雷米-金帮助训练了一种人工智能,它以模仿大脑的方式处理音频--部分是通过预测下一步应该发生什么 一旦该系统被训练出来,研究人员给它播放英语、法语和普通话的有声读物部分,然后将AI的表现与412人的数据进行了比较(这些人都是以这三种语言为母语的人),他们在核磁共振扫描对自己的大脑进行成像时,听了同样长的一段音频。 结果显示,尽管fMRI图像有噪音且分辨率不高,但AI神经网络和人类的大脑「不仅相互关联,而且还以系统的方式关联」。 AI早期层的活动与初级听觉皮层的活动一致,而AI最深层的活动则与大脑中较高层的活动相一致,比如前额叶皮层。 「这是非常漂亮的数据,虽然算不上是决定性的,但算得上是令人信服的证据,表明我们学习语言的方式在很大程度上是在预测接下来会说的话。」 

有人不同意:模拟大脑?模型、算法都差的远


当然,也并非所有人都认同这种说法。 MIT的计算神经科学家乔希-麦克德莫特(Josh McDermott)曾使用监督和自监督学习研究视觉和听觉的模型。他的实验室设计了一些人工合成的音频和视觉信号,对于人类来说,这些信号只是难以捉摸的噪音。 然而,对于人工神经网络来说,这些信号似乎与真实语言和图像没有区别。这表明,在神经网络的深层形成的表征,即使是自监督学习,也与我们大脑中的表征不一样。 麦克德莫特说:「这些自我监督的学习方法是一种进步,因为你能够学习能够支持很多识别行为的表征,而不需要所有标签。但仍然有很多监督模型的特征。」 算法本身也需要更多改进。比如在Meta AI的Wav2Vec 2.0模型中,AI只预测了几十毫秒的声音的潜在表征,比人发出一个噪音音节的时间还要短,更不用说预测一个词了。 要真正实现让AI模型和人类大脑相类似,我们还有很多事情要做,金说。 如果目前发现的大脑和自我监督学习模型之间的相似性在其他感官任务中也成立,将更有力地表明,无论我们的大脑有什么神奇的能力,都需要以某种形式进行自监督学习。
参考资料:https://www.quantamagazine.org/self-taught-ai-shows-similarities-to-how-the-brain-works-20220811/

相关文章
|
8天前
|
人工智能 Java Serverless
阿里云函数计算助力AI大模型快速部署
随着人工智能技术的快速发展,AI大模型已经成为企业数字化转型的重要工具。然而,对于许多业务人员、开发者以及企业来说,探索和利用AI大模型仍然面临诸多挑战。业务人员可能缺乏编程技能,难以快速上手AI模型;开发者可能受限于GPU资源,无法高效构建和部署AI应用;企业则希望简化技术门槛,以更低的成本和更高的效率利用AI大模型。
48 12
|
7天前
|
人工智能 安全 数据安全/隐私保护
文档智能 & RAG让AI大模型更懂业务测评
文档智能 & RAG让AI大模型更懂业务
117 73
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
GLM-4V-Flash:智谱 AI 免费开放的图像理解大模型 API 接口
智谱AI推出的GLM-4V-Flash是一款专注于图像理解的免费开放大模型,提供API接口支持用户上传图片URL或Base64编码图片获取详细的图像描述。该模型通过深度学习和卷积神经网络技术,简化了图像分析流程,提高了开发效率,适用于内容审核、辅助视障人士、社交媒体、教育和电子商务等多个应用场景。
64 14
GLM-4V-Flash:智谱 AI 免费开放的图像理解大模型 API 接口
|
6天前
|
人工智能 安全 测试技术
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题
EXAONE 3.5 是 LG AI 研究院推出的开源 AI 模型,擅长长文本处理,能够有效降低模型幻觉问题。该模型提供 24 亿、78 亿和 320 亿参数的三个版本,支持多步推理和检索增强生成技术,适用于多种应用场景。
47 9
EXAONE 3.5:LG 推出的开源 AI 模型,采用 RAG 和多步推理能力降低模型的幻觉问题
|
8天前
|
机器学习/深度学习 人工智能
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
SNOOPI是一个创新的AI文本到图像生成框架,通过增强单步扩散模型的指导,显著提升模型性能和控制力。该框架包括PG-SB和NASA两种技术,分别用于增强训练稳定性和整合负面提示。SNOOPI在多个评估指标上超越基线模型,尤其在HPSv2得分达到31.08,成为单步扩散模型的新标杆。
49 10
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
|
8天前
|
人工智能 搜索推荐 开发者
Aurora:xAI 为 Grok AI 推出新的图像生成模型,xAI Premium 用户可无限制访问
Aurora是xAI为Grok AI助手推出的新图像生成模型,专注于生成高逼真度的图像,特别是在人物和风景图像方面。该模型支持文本到图像的生成,并能处理包括公共人物和版权形象在内的多种图像生成请求。Aurora的可用性因用户等级而异,免费用户每天能生成三张图像,而Premium用户则可享受无限制访问。
46 11
Aurora:xAI 为 Grok AI 推出新的图像生成模型,xAI Premium 用户可无限制访问
|
1天前
|
机器学习/深度学习 人工智能 自然语言处理
AI自己长出了类似大脑的脑叶?新研究揭示LLM特征的惊人几何结构
近年来,大型语言模型(LLM)的内部运作机制备受关注。麻省理工学院的研究人员在论文《The Geometry of Concepts: Sparse Autoencoder Feature Structure》中,利用稀疏自编码器(SAE)分析LLM的激活空间,揭示了其丰富的几何结构。研究发现,特征在原子、大脑和星系三个尺度上展现出不同的结构,包括晶体结构、中尺度模块化结构和大尺度点云结构。这些发现不仅有助于理解LLM的工作原理,还可能对模型优化和其他领域产生重要影响。
39 25
|
6天前
|
机器学习/深度学习 人工智能 物联网
AI赋能大学计划·大模型技术与应用实战学生训练营——电子科技大学站圆满结营
12月05日,由中国软件行业校园招聘与实习公共服务平台携手阿里魔搭社区共同举办的AI赋能大学计划·大模型技术与产业趋势高校行AIGC项目实战营·电子科技大学站圆满结营。
AI赋能大学计划·大模型技术与应用实战学生训练营——电子科技大学站圆满结营
|
10天前
|
存储 人工智能 PyTorch
【AI系统】模型转换流程
本文详细介绍了AI模型在不同框架间的转换方法,包括直接转换和规范式转换两种方式。直接转换涉及从源框架直接生成目标框架的模型文件,而规范式转换则通过一个中间标准格式(如ONNX)作为桥梁,实现模型的跨框架迁移。文中还提供了具体的转换流程和技术细节,以及模型转换工具的概览,帮助用户解决训练环境与部署环境不匹配的问题。
23 5
【AI系统】模型转换流程
|
10天前
|
机器学习/深度学习 存储 人工智能
【AI系统】模型转换基本介绍
模型转换技术旨在解决深度学习模型在不同框架间的兼容性问题,通过格式转换和图优化,将训练框架生成的模型适配到推理框架中,实现高效部署。这一过程涉及模型格式转换、计算图优化、算子统一及输入输出支持等多个环节,确保模型能在特定硬件上快速、准确地运行。推理引擎作为核心组件,通过优化阶段和运行阶段,实现模型的加载、优化和高效执行。面对不同框架的模型文件格式和网络结构,推理引擎需具备高度的灵活性和兼容性,以支持多样化的应用场景。
29 4
【AI系统】模型转换基本介绍

热门文章

最新文章