从神经科学到计算机视觉:人类与计算机视觉五十年回顾

简介: 本文简单的介绍了神经网络近50年的发展历程,从1968年的Hubel和Wiesel开展的猫实验,一直到李飞飞教授等人的成果。从本质上讲解了人工神经网络的原理及学习过程,对于想了解神经网络起源及发展历程的读者而言,是一篇较为合适的文章。

首发地址:https://yq.aliyun.com/articles/241263

如何像人类大脑一样完成一项视觉任务是复杂的,比如深度感知、目标跟踪边缘检测扫描环境和定位是大脑经常做的事情,这些都被人们认为是理所当然的事情在过去某段时间里,研究者们可能从来没有想过创建类似人类大脑处理任务一样的系统。然而,在过去的50年中,我们已经从神经科学中看似一些的突破转向能够描述图片场景的电脑

在神经科学课程教学过程中,有很多趣闻发生以帮助同学们更好地理解大脑是如何工作的比如Phineas Gauge是一名美国的铁路工人,在某次施工时遭遇爆炸事故,被一根铁棍击穿头颅,幸运的是他活了下来,但是他的左额叶皮质受到损伤,导致语言障碍,同时也影响其生理性格;还有Britten的论文描述大脑何时再混乱的移动点钟发现信号。所有这些零碎的研究开始加深我们大脑如何工作的理解。

1ae5c4a1fa23bc94494325dca04e3554f4915472

还有类似的一个例子,人类视觉和计算机视觉的大量研究奠定了基础,那就著名的HubelWiesel的研究。由于二人在心理学上的突出贡献,获得了1981年的诺贝尔和平奖,此外他们在视觉系统的信息处理方面也获得了突破性的发现他们打响了研究神经元的第一枪,他们通过连接一个电极一个神经元能够听神经元对一条光的刺激作出的反应他们V1大脑皮层神经元的工作原理有了新的了解这是令人兴奋的新认识,该研究有助于阐明V1神经元的映射相关功能。

在下面的视频中,演示了 V1神经元是如何对待位置和角度的光条做出反应的,当光移动就会有裂纹,这表明你听到猫的神经元对刺激做出的反应。

视频地址:http://v.youku.com/v_show/id_XNDc0MTg0NzA4.html?spm=5176.100239.blogcont241263.12.BcSa3L

通过这个实验,他们演示了几种类型的神经元只有在某些刺激下是如何被激活的,另一个有趣的特征是细胞似乎自然地映射到不同角度,如下图所示,V1的每一部分都包含一组非常特殊的神经元,这些神经元通常对特定角度的光条作出反应。

cc37b8a5640b890f34b819a9c19989f0b912538c

这些细胞反应以某种方式结合起来,理论上能够创建一个自向上的自然世界形象,也就是说,通过接收许多神经元各种光条的反应,人类大脑开始绘制出周围的图景

一晃近30过去了江山代有才人出,时代属于OlshausenDavid JField二位研究者两位研究人员都专注于计算神经科学领域个领域主要是研究大脑如何编码和解码信息,并推动了这个领域相关工作的进一步发展。事实上,他们在自己的工作中引用HubelWiesel的研究成果此外,他们不只注重单一的光条,还拍摄了照片,开始研究如何通过算法识别和编码图像内部的特征。

他们1996年(20多年前)写的一篇叫做自然图像统计和高效编码本文的目的是讨论在图像识别应用中失败的Hebbian学习模型。具体来说,Hebbian学习算法利用了主成分分析算法学习,但存在的问题是,模型不同时学习定位、定以及带通结构来绘制自然图像。从理论上讲,该模型部分源自于HubelWiesel关的研究成果,除此之外192个神经元的输出进行了建模

他们的研究表明,在对自然图像客观存在的规律进行编码时,模型的建立更多地侧重于稀疏性会使得模型更有效。

使用一个稀疏模型,该模型限制每个基函数列表所需的系数数目,来表示一个图像中的各种特征,由下式证明

2e955286cf99db4229c3a2b3e8a6af954291d5ea

其主体部分是为了找到实际图像和函数表示图像之间最低平均误差

7798040c74b9043f490f94e51328cc70ae76061c

然后与代价函数一起迫使算法限制表示图像表示所需的系数数量

b3e4716b7eaf66591578bafe3c4c6ad21d574606

使用梯度下降算法最大限度地减少表示图像所需的系数数量,但是该篇论文自身还没有显示出能够将特征转化为图像的神经网络。

1991年,互联网刚刚普及。现在科学已经从检测猫的神经元对光条刺激的反应转到神经网络的数学模型,该模型能够输出图像的实际特征。在1996年的那篇论文中,最后一行是未来一项重要令人兴奋的挑战将是如何将这些原理推理到更级的皮层视觉领域提供预测。这是一个挑战,通过利用低级的特,然后创建一个自下而上的网络模型来真正地预测一副图像

0a8cd9c39e5fcb359e77d2a7f8d89e982e69d20e

Olshausen等人的模型类似于上图,如果你对深度学习了解的话,那么对这个输出低级特征的矩阵看起来是不是非常熟悉

在过去的几年中,很多论文都使用了与上图非常相似的矩阵这些矩阵被用作卷积神经网络的卷积层。可以发现,这应该是模拟单个神经元对视觉刺激的反应方式。

942122a0eb72076660339626174de79833953cd5

此时此刻利用这些低层次的特征预测图像的实际背景不再是Olshausen等人论文中的最后一行中的理论猜想,这在今天变成了现实。

同时也说明了神经元能够识别光条的原因,神经网络可以利用低层次的特征预测图像所包含的信息2015斯坦福大学的Andrej Karpathy和李飞飞发表了一篇关于这一问题的重要论文——Deep Visual-Semantic Alignments for Generating Image Descriptions。在这篇论文中,演示了通过一个递归神经网络能够详细描述图像,如下图所示,仅仅只是指出了图片中有一只猫或一只狗,而且能够详细描述图像内容,比如男孩在尾板做后空翻虽然现在它并不完美,但它相较于1968年而言,仍是一个跨越式的发展!

89613207630f6e7891ac99a223ef7c962ddbd114

1968年到现在,这是一个漫长的发展过程。本文引用的论文1968开始到2015结束都快有50年的时间。然而,从大局来看,神经网络的发展越来越快,它不仅仅只是用来识别图像,还被用于医学图像的癌症检测预测人类的情感表达自动驾驶等等各个领域

接下来的50年里,计算机视觉的发展前景如何?欢迎广大读者留言发表自己的看法。

作者信息

SeattleDataGuy软件工程师,专注于机器学习、深度学习以及数据科学

Twitterhttps://twitter.com/SeattleDataGuy

本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。

文章原标题《From Neuroscience To Computer Vision》,作者: SeattleDataGuy,译者:海棠,审阅:李烽

文章为简译,更为详细的内容,请查看原文

翻译者: 海棠 

Wechat:269970760 

Email:duanzhch@tju.edu.cn

微信公众号:AI科技时讯

157f33dddfc596ede3681e0a2a0e7068dc288cc1

目录
相关文章
|
机器学习/深度学习 算法 计算机视觉
从神经科学到计算机视觉:人类与计算机视觉五十年回顾
本文简单的介绍了神经网络近50年的发展历程,从1968年的Hubel和Wiesel开展的猫实验,一直到李飞飞教授等人的成果。从本质上讲解了人工神经网络的原理及学习过程,对于想了解神经网络起源及发展历程的读者而言,是一篇较为合适的文章。
1376 0
|
5月前
|
机器学习/深度学习 计算机视觉
AIGC核心技术——计算机视觉(CV)预训练大模型
【1月更文挑战第13天】AIGC核心技术——计算机视觉(CV)预训练大模型
581 3
AIGC核心技术——计算机视觉(CV)预训练大模型
|
10月前
|
机器学习/深度学习 PyTorch 算法框架/工具
Azure 机器学习 - 使用 ONNX 对来自 AutoML 的计算机视觉模型进行预测
Azure 机器学习 - 使用 ONNX 对来自 AutoML 的计算机视觉模型进行预测
115 0
|
1月前
|
人工智能 测试技术 API
AI计算机视觉笔记二十 九:yolov10竹签模型,自动数竹签
本文介绍了如何在AutoDL平台上搭建YOLOv10环境并进行竹签检测与计数。首先从官网下载YOLOv10源码并创建虚拟环境,安装依赖库。接着通过官方模型测试环境是否正常工作。然后下载自定义数据集并配置`mycoco128.yaml`文件,使用`yolo detect train`命令或Python代码进行训练。最后,通过命令行或API调用测试训练结果,并展示竹签计数功能。如需转载,请注明原文出处。
|
1月前
|
人工智能 测试技术 PyTorch
AI计算机视觉笔记二十四:YOLOP 训练+测试+模型评估
本文介绍了通过正点原子的ATK-3568了解并实现YOLOP(You Only Look Once for Panoptic Driving Perception)的过程,包括训练、测试、转换为ONNX格式及在ONNX Runtime上的部署。YOLOP由华中科技大学团队于2021年发布,可在Jetson TX2上达到23FPS,实现了目标检测、可行驶区域分割和车道线检测的多任务学习。文章详细记录了环境搭建、训练数据准备、模型转换和测试等步骤,并解决了ONNX转换过程中的问题。
|
3月前
|
自然语言处理 监控 自动驾驶
大模型在自然语言处理(NLP)、计算机视觉(CV)和多模态模型等领域应用最广
【7月更文挑战第26天】大模型在自然语言处理(NLP)、计算机视觉(CV)和多模态模型等领域应用最广
134 11
|
4月前
|
编解码 机器人 测试技术
2024年6月计算机视觉论文推荐:扩散模型、视觉语言模型、视频生成等
6月还有一周就要结束了,我们今天来总结2024年6月上半月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展。
128 8
|
5月前
|
机器学习/深度学习 编解码 人工智能
Vision Mamba:将Mamba应用于计算机视觉任务的新模型
Mamba是LLM的一种新架构,与Transformers等传统模型相比,它能够更有效地处理长序列。就像VIT一样现在已经有人将他应用到了计算机视觉领域,让我们来看看最近的这篇论文“Vision Mamba: Efficient Visual Representation Learning with Bidirectional State Space Models,”
571 7
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
计算机视觉借助深度学习实现了革命性进步,从图像分类到复杂场景理解,深度学习模型如CNN、RNN重塑了领域边界。
【7月更文挑战第2天】计算机视觉借助深度学习实现了革命性进步,从图像分类到复杂场景理解,深度学习模型如CNN、RNN重塑了领域边界。AlexNet开启新时代,后续模型不断优化,推动对象检测、语义分割、图像生成等领域发展。尽管面临数据隐私、模型解释性等挑战,深度学习已广泛应用于安防、医疗、零售和农业,预示着更智能、高效的未来,同时也强调了技术创新、伦理考量的重要性。
59 1
|
5月前
|
编解码 边缘计算 自然语言处理
2024年5月计算机视觉论文推荐:包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题
五月发布的计算机视觉领域重要论文涵盖了扩散模型、视觉语言模型、图像生成与编辑及目标检测。亮点包括:1) Dual3D提出双模式推理策略,实现高效文本到3D图像生成;2) CAT3D利用多视图扩散模型创建3D场景,仅需少量图像;3) Hunyuan-DiT是多分辨率的中文理解扩散Transformer,可用于多模态对话和图像生成;4) 通过潜在扩散模型从EEG数据重建自然主义音乐,展示复杂音频重建潜力。此外,还有关于视觉语言模型和图像编辑的创新工作,如BlobGEN用于合成具有控制性的图像。
176 3

热门文章

最新文章