人脑90%都是自监督学习,AI大模型离模拟大脑还有多远?

本文涉及的产品
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 人脑90%都是自监督学习,AI大模型离模拟大脑还有多远?
【新智元导读】人的大脑和自监督学习模型的相似度有多高?


我们都知道,人类的大脑90%都是自监督学习的,生物会不断对下一步发生的事情做出预测。 自监督学习,就是不需要外部干预也能做出决策。 只有少数情况我们会接受外部反馈,比如老师说:「你搞错了」。 而现在有学者发现,大型语言模型的自监督学习机制,像极了我们的大脑。 知名科普媒体Quanta Magazine近日报道,越来越多的研究发现,自监督学习模型,尤其是大型语言模型的自学方式,与我们的大脑的学习模式非常类似。  过去常见的AI系统都是使用大量标记数据进行训练的。 例如,图像可能被标记为「虎斑猫」或「虎猫」,用以训练人工神经网络来正确区分虎斑和虎。  这种「自监督」训练需要人工费力地标记数据,而神经网络通常会走捷径,学习将标签与最少、有时甚至是肤浅的信息联系起来。 例如,神经网络可能会使用草的存在来识别奶牛的照片,因为奶牛通常是在田野中拍摄的。 加州大学伯克利分校的计算机科学家阿列克谢·埃弗罗斯 (Alexei Efros) 说:

我们正在培养的算法,就像是一整个学期都没来上课的本科生,虽然他们并没有系统学习这些材料,但他们在考试中表现出色。

 此外,对于对动物智能和机器智能的交叉感兴趣的研究人员来说,这种「监督学习」可能仅限于它对生物大脑的揭示。 许多动物,包括人类不使用标记数据集来学习。在大多数情况下,他们自己探索环境,并且通过这样做,他们对世界获得了丰富而深刻的理解。 现在,一些计算神经科学家已经开始探索使用很少或没有人工标记数据进行训练的神经网络。  最近的研究结果表明,使用自我监督学习模型构建的动物视觉和听觉系统的计算模型比监督学习模型更接近大脑功能。 对一些神经科学家来说,人工神经网络似乎开始揭示用大脑来类比机器学习的途径。

有缺陷的监督


大约10年前,受人工神经网络启发的大脑模型开始出现,同时一个名为AlexNet的神经网络彻底改变了对未知图像进行分类的任务。

  这项成果在Alex Krizhevsky、Ilya Sutskever和Geoffrey E. Hinton 的论文「ImageNet Classification with Deep Convolutional Neural Networks」中发表。 论文地址:https://dl.acm.org/doi/10.1145/3065386 与所有神经网络一样,该网络由多层人工神经元组成,其中不同神经元之间连接的权重不同。 如果神经网络未能正确分类图像,学习算法会更新神经元之间连接的权重,以降低在下一轮训练中错误分类的可能性。 该算法重复此过程多次,调整权重,直到网络的错误率低到可以接受的程度。 之后,神经科学家使用AlexNet开发了第一个灵长类视觉系统(Primate Visual System)的计算模型。

 当猴子和人工神经网络显示相同的图像时,真实神经元和人工神经元的活动显示出类似的反应。 在听觉和气味检测的人工模型上也取得了相似的结果。 但随着该领域的发展,研究人员意识到自监督训练的局限性。 2017年,德国蒂宾根大学的计算机科学家Leon Gatys和他的同事拍摄了一张福特T型车的照片,然后在照片上覆盖了豹皮图案。  而人工智能神经网络将原始图像正确分类为Model T,但将修改后的图像视为豹子。 原因是它只专注于图像纹理,不了解汽车(或豹子)的形状。 自监督学习模型旨在避免此类问题。 瑞士巴塞尔弗里德里希·米歇尔生物医学研究所的计算神经科学家弗里德曼·岑克 (Friedemann Zenke) 说,

在这种方法中,人类不会标记数据,相反,标签来自数据本身。自监督算法本质上是在数据中创建空白,并要求神经网络填补空白。

 例如,在所谓的大型语言模型中,训练算法将向神经网络显示句子的前几个单词,并要求它预测下一个单词。 当使用从互联网收集的大量文本进行训练时,该模型似乎可以学习语言的句法结构,展示出令人印象深刻的语言能力——所有这些都没有外部标签或监督。 计算机视觉方面也正在进行类似的努力。 2021年底,何恺明及其同事展示了著名的掩码自动编码器研究「Masked Auto-Encoder」(MAE)。 论文地址:https://arxiv.org/abs/2111.06377 MAE将未掩码部分转换为潜在表示——压缩的数学描述,其中包含有关对象的重要信息。 在图像的情况下,潜在表示可能是一种数学描述,其中包括图像中对象的形状。然后解码器将这些表示转换回完整的图像。 

大脑也是「自监督」的


在这样的系统中,一些神经科学家认为,我们的大脑实际上也是自监督学习的。 麦吉尔大学和魁北克人工智能研究所(Mila)的计算神经科学家布莱克-理查兹(Blake Richards)说:「我认为毫无疑问,大脑所做的90%都是自监督学习。」 生物大脑被认为是在不断地预测,例如,一个物体在移动时的未来位置,或一句话中的下一个词,就像自我监督学习算法试图预测图像或一段文字的间隙一样。 计算神经科学家布莱克-理查兹(Blake Richards)创建了一个AI系统,模仿活体大脑中的视觉网络 理查兹和他的团队创建了一个自监督模型,暗示了一个答案。他们训练了一个结合两种不同神经网络的人工智能。 第一个,称为ResNet架构,是为处理图像而设计的;第二个,称为递归网络,可以跟踪先前的输入序列,对下一个预期输入进行预测。 为了训练联合AI,该团队从一连串的视频开始,比如说10帧,让ResNet逐一处理。 然后,递归网络预测了第11帧的潜在表示,而不是简单地匹配前10帧。自监督学习算法将预测值与实际值进行比较,并指示神经网络更新其权重,以使预测效果更好。 为了进一步测试,研究人员向AI展示了一组视频,西雅图艾伦脑科学研究所的研究人员以前曾向小鼠展示过这些视频。与灵长类动物一样,小鼠的大脑区域专门用于静态图像和运动。艾伦研究人员在小鼠观看视频时记录了小鼠视觉皮层的神经活动。 理查兹的团队发现了AI和活体大脑对视频的反应方式的相似之处。在训练过程中,人工神经网络中的一条途径变得与小鼠大脑的腹侧、物体探测区域更加相似,而另一条途径则变得与注重运动的背侧区域相似。 这些结果表明,我们的视觉系统有两条专门的通路,因为它们有助于预测视觉的未来;单一的通路是不够好的。 人类听觉系统的模型讲述了一个类似的故事。
6月,由Meta AI的研究科学家Jean-Rémi King领导的团队训练了一个名为Wav2Vec 2.0的人工智能,它使用一个神经网络将音频转化为潜在的表征。研究人员对这些表征中的一些进行了屏蔽,然后将其送入另一个称为转化器的组件神经网络。 在训练过程中,转化器预测被屏蔽的信息。在这个过程中,整个人工智能学会了将声音转化为潜在的表征,同样,不需要标签。 该团队使用了大约600小时的语音数据来训练网络。「这大约是一个孩子在前两年的经验中得到的东西。」金说。  Meta AI的让-雷米-金帮助训练了一种人工智能,它以模仿大脑的方式处理音频--部分是通过预测下一步应该发生什么 一旦该系统被训练出来,研究人员给它播放英语、法语和普通话的有声读物部分,然后将AI的表现与412人的数据进行了比较(这些人都是以这三种语言为母语的人),他们在核磁共振扫描对自己的大脑进行成像时,听了同样长的一段音频。 结果显示,尽管fMRI图像有噪音且分辨率不高,但AI神经网络和人类的大脑「不仅相互关联,而且还以系统的方式关联」。 AI早期层的活动与初级听觉皮层的活动一致,而AI最深层的活动则与大脑中较高层的活动相一致,比如前额叶皮层。 「这是非常漂亮的数据,虽然算不上是决定性的,但算得上是令人信服的证据,表明我们学习语言的方式在很大程度上是在预测接下来会说的话。」 

有人不同意:模拟大脑?模型、算法都差的远


当然,也并非所有人都认同这种说法。 MIT的计算神经科学家乔希-麦克德莫特(Josh McDermott)曾使用监督和自监督学习研究视觉和听觉的模型。他的实验室设计了一些人工合成的音频和视觉信号,对于人类来说,这些信号只是难以捉摸的噪音。 然而,对于人工神经网络来说,这些信号似乎与真实语言和图像没有区别。这表明,在神经网络的深层形成的表征,即使是自监督学习,也与我们大脑中的表征不一样。 麦克德莫特说:「这些自我监督的学习方法是一种进步,因为你能够学习能够支持很多识别行为的表征,而不需要所有标签。但仍然有很多监督模型的特征。」 算法本身也需要更多改进。比如在Meta AI的Wav2Vec 2.0模型中,AI只预测了几十毫秒的声音的潜在表征,比人发出一个噪音音节的时间还要短,更不用说预测一个词了。 要真正实现让AI模型和人类大脑相类似,我们还有很多事情要做,金说。 如果目前发现的大脑和自我监督学习模型之间的相似性在其他感官任务中也成立,将更有力地表明,无论我们的大脑有什么神奇的能力,都需要以某种形式进行自监督学习。
参考资料:https://www.quantamagazine.org/self-taught-ai-shows-similarities-to-how-the-brain-works-20220811/

目录
打赏
0
0
0
0
368
分享
相关文章
Science子刊:人脑存在加速学习机制,算力赛过最新AI算法
机器学习虽然受人脑启发,但实验神经科学和ML两个学科已经70年没有沟通。以色列交叉学科团队发现,人脑存在加速学习适应机制,新机制人工神经网络计算能力远超最新AI算法。
298 0
Science子刊:人脑存在加速学习机制,算力赛过最新AI算法
神经拟态芯片拉近AI与人脑距离
神经拟态即通过模拟人脑神经元的工作机制,让计算机具备像人一样的自然智能特性。英特尔公布的另一项研究显示,将上述768块神经拟态芯片集成在5台标准服务器大小的机箱中形成的神经拟态系统——Pohoiki Springs,已经相当于拥有了1亿个神经元的大脑,而这相当于一个小型哺乳动物的大脑神经元数量。
玩够了AI,他们把目标对准了人脑
科幻电影爱好者想必都看过《黑客帝国》,除了男主演基努·李维斯慢动作躲子弹的经典镜头,电影里通过“脑后插管”实现人机交互的场景也令人记忆犹新。
吴恩达:模拟人脑,未来AI执行精神层面任务有望快过人类!
AI在未来如何实现真正的“智能”?这个问题似乎遭遇瓶颈。目前深度学习对人类大脑的模拟仍然处于初级阶段,是否应该沿这条路继续走下去?吴恩达认为,通过深度学习模拟大脑,未来的AI能够比人类更快地完成精神层面的任务。也有研究人员认为,应从大自然中寻找灵感,让AI建立关于世界的“心理模型”。
1430 0
【马斯克:从宇宙到人脑的征程】若AI攻占地球,猎鹰可带领人类移民火星
马斯克的猎鹰重型火箭载着特斯拉跑车进入了星辰大海,他狂热探索太空探索的同时,也对人工智能显示出警惕,他还成立了OpenAI扮演监督式角色。为了不被超级人工智能统治,马斯克认为人类只有一个选择:成为AI。于是他又建立Neuralink,走上了新征程。
3971 0
LeCun :一味模仿人脑将阻碍AI的发展
Facebook的AI研究负责人指出,一味模仿人脑开发AI将会阻碍AI的发展。很多业界专家也有类似的论调,他们认为AI研究的重点不应是模仿大脑的工作机制,而应该是探寻智能的根本原则。
1727 0
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
112 29

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等