【学习记录】《DeepLearning.ai》第十一课:深度卷积网络:实例探究(Deep convolutional models:case studies)

简介: 2021/9/11

第十一课:深度卷积网络:实例探究(Deep convolutional models:case studies)

2.1 为什么要进行实例探究

PASS


2.2 经典网络(Classic networks)

三种经典的网络结构

1.LeNet-5

image

该网络结构没有使用padding,对于池化层,如果s=2,f=2,则图像的高度和宽度都缩小2倍,随着网络层的增加,图像的高度和宽度在缩小,而通道数在增加。

用的是平均池化

2.AlexNet

image

使用了same卷积,使用后图像的高度和宽度不变,使用了最大池化后宽度和高度减半。

3.VGG-16

image

Conv 64表示卷积核有64个,VGG-16表示有16个网络层和全连接层。其本身结构简单,没经过一次网络层,宽度和高度都减半,通道数都翻倍。


2.3 残差网络(ResNets)

国内的何恺明大佬提出的

image

个人理解:如上图,对于两层神经网络,若要计算$a^{[l+2]}$,需要进行一步步线性操作以及使用Relu激活函数,也就是,信息从$a^{[l]}$到$a^{[l+2]}$​需要经过上面的计算过程。​

image

而残差网络相当于直接跳过了$a^{[l+1]}$直接拷贝到神经网络的深层,然后在ReLU非线性激活函数上加上$a^{[l]}$,如下:

$$ a^{[l+2]}=g(z^{[l+2]}+a^{[l]}) $$

也就是加上了$a^{[l]}$产生了残差块。

image

如上图,蓝色框里面都是残差块,残差网络能使得神经网络在训练过程中误差一直减少。


2.4 残差网络有用的原因?

对于普通的网络,如果深度越深,训练效率就会变慢。

对于残差网络来说,如果残差块里面的隐层单元学到了一些东西,则它比学习恒等函数(在之前设置其权重和b都为0的时候)表现得更好。如下图

image

ResNets使用了很多的same卷积,保留了之前的维度。

image

image

前面是在全连接层使用残差网络,这块是在卷积层使用残差网络,跳跃连接。


2.5 网络中的网络以及1*1卷积

image

image

$1*1$网络让我们能够任意变换原输入的通道数,或者加上ReLU线性修正激活函数。


2.6 谷歌Inception网络(Inception network motivation)

image

基本思想是 Inception网络不需要人为决定使用哪个过滤器或者是否需要池化,而是由网络自行确定这些参数,你可以给网络添加这些参数的所有可能值,然后把这些输出连接起来,让网络自己学习它需要什么样的参数,采用哪些过滤器组合。

image

image

上面两个图表示了使用$1*1$​卷积之后可以减小计算量,降低计算成本。这是Inception模块的主要思想。


2.7 Inception网络

image

上面是一个Inception模块

image

这是一个Inception网络,就是将很多Inception模块连接起来。


2.8 使用开源实现方案

ResNets实现的 GitHub地址 https://github.com/KaimingHe/deep-residual-networks


2.9 迁移学习(Transfer learning)

image

将网络上的神经网络和已经训练好的权重拿来进而通过冻结某些层数来训练自己的数据。


2.10 数据增强(Data augmentation)

和之前重复了好像

PASS


2.11 计算机视觉现状

通常需要大量人工

总之,多参考别人的训练项目。


OVER

冲!

相关文章
|
5月前
|
机器学习/深度学习 PyTorch TensorFlow
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic,深度学习探索者。深耕TensorFlow与PyTorch,分享框架对比、性能优化与实战经验,助力技术进阶。
|
7月前
|
人工智能 自然语言处理 搜索推荐
上下文学习的神奇魔法:轻松理解AI如何无师自通
你有没有想过,为什么给GPT几个例子,它就能学会新任务?这就像魔法一样!本文用轻松幽默的方式解密上下文学习的原理,通过「智能客服训练」场景,带你理解AI如何像人类一样从示例中学习,无需额外训练就能掌握新技能。
280 28
|
6月前
|
存储 人工智能 搜索推荐
一种专为AI代理设计的内存层,能够在交互过程中记忆、学习和进化
Mem0 是专为 AI 代理设计的内存层,支持记忆、学习与进化。提供多种记忆类型,可快速集成,适用于开源与托管场景,助力 AI 代理高效交互与成长。
678 123
一种专为AI代理设计的内存层,能够在交互过程中记忆、学习和进化
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
迁移学习:让小数据也能驱动AI大模型
迁移学习:让小数据也能驱动AI大模型
405 99
|
7月前
|
数据采集 人工智能 前端开发
AI智能体如何从错误中学习:反思机制详解
探索AI智能体的反思能力:从哲学思考到技术实现,看AI如何像人类一样从错误中学习和成长。通过轻松有趣的方式,深入了解Reflexion和ReAct等前沿框架,掌握让AI更智能的核心秘密。
532 0
|
7月前
|
机器学习/深度学习 人工智能 PyTorch
GPT为定制AI应用工程师转型第一周学习计划
本计划帮助开发者快速入门AI领域,首周涵盖AI基础理论、Python编程及PyTorch实战。前两天学习机器学习、深度学习与Transformer核心概念,掌握LLM工作原理。第三至四天快速掌握Python语法与Jupyter使用,完成基础编程任务。第五至七天学习PyTorch,动手训练MNIST手写识别模型,理解Tensor操作与神经网络构建。
346 0
|
5月前
|
人工智能 JavaScript 前端开发
GenSX (不一样的AI应用框架)架构学习指南
GenSX 是一个基于 TypeScript 的函数式 AI 工作流框架,以“函数组合替代图编排”为核心理念。它通过纯函数组件、自动追踪与断点恢复等特性,让开发者用自然代码构建可追溯、易测试的 LLM 应用。支持多模型集成与插件化扩展,兼具灵活性与工程化优势。
393 6
|
6月前
|
机器学习/深度学习 人工智能 算法
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic带你深入卷积神经网络(CNN)核心技术,从生物启发到数学原理,详解ResNet、注意力机制与模型优化,探索视觉智能的演进之路。
573 11
|
5月前
|
机器学习/深度学习 人工智能 搜索推荐
拔俗AI学伴智能体系统:基于大模型与智能体架构的下一代个性化学习引擎
AI学伴智能体系统融合大模型、多模态理解与自主决策,打造具备思考能力的个性化学习伙伴。通过动态推理、长期记忆、任务规划与教学逻辑优化,实现千人千面的自适应教育,助力因材施教落地,推动教育公平与效率双提升。(238字)
694 0
|
5月前
|
人工智能 Kubernetes Cloud Native
Higress(云原生AI网关) 架构学习指南
Higress 架构学习指南 🚀写在前面: 嘿,欢迎你来到 Higress 的学习之旅!
1582 0

热门文章

最新文章