【学习记录】《DeepLearning.ai》第十一课:深度卷积网络:实例探究(Deep convolutional models:case studies)

简介: 2021/9/11

第十一课:深度卷积网络:实例探究(Deep convolutional models:case studies)

2.1 为什么要进行实例探究

PASS


2.2 经典网络(Classic networks)

三种经典的网络结构

1.LeNet-5

image

该网络结构没有使用padding,对于池化层,如果s=2,f=2,则图像的高度和宽度都缩小2倍,随着网络层的增加,图像的高度和宽度在缩小,而通道数在增加。

用的是平均池化

2.AlexNet

image

使用了same卷积,使用后图像的高度和宽度不变,使用了最大池化后宽度和高度减半。

3.VGG-16

image

Conv 64表示卷积核有64个,VGG-16表示有16个网络层和全连接层。其本身结构简单,没经过一次网络层,宽度和高度都减半,通道数都翻倍。


2.3 残差网络(ResNets)

国内的何恺明大佬提出的

image

个人理解:如上图,对于两层神经网络,若要计算$a^{[l+2]}$,需要进行一步步线性操作以及使用Relu激活函数,也就是,信息从$a^{[l]}$到$a^{[l+2]}$​需要经过上面的计算过程。​

image

而残差网络相当于直接跳过了$a^{[l+1]}$直接拷贝到神经网络的深层,然后在ReLU非线性激活函数上加上$a^{[l]}$,如下:

$$ a^{[l+2]}=g(z^{[l+2]}+a^{[l]}) $$

也就是加上了$a^{[l]}$产生了残差块。

image

如上图,蓝色框里面都是残差块,残差网络能使得神经网络在训练过程中误差一直减少。


2.4 残差网络有用的原因?

对于普通的网络,如果深度越深,训练效率就会变慢。

对于残差网络来说,如果残差块里面的隐层单元学到了一些东西,则它比学习恒等函数(在之前设置其权重和b都为0的时候)表现得更好。如下图

image

ResNets使用了很多的same卷积,保留了之前的维度。

image

image

前面是在全连接层使用残差网络,这块是在卷积层使用残差网络,跳跃连接。


2.5 网络中的网络以及1*1卷积

image

image

$1*1$网络让我们能够任意变换原输入的通道数,或者加上ReLU线性修正激活函数。


2.6 谷歌Inception网络(Inception network motivation)

image

基本思想是 Inception网络不需要人为决定使用哪个过滤器或者是否需要池化,而是由网络自行确定这些参数,你可以给网络添加这些参数的所有可能值,然后把这些输出连接起来,让网络自己学习它需要什么样的参数,采用哪些过滤器组合。

image

image

上面两个图表示了使用$1*1$​卷积之后可以减小计算量,降低计算成本。这是Inception模块的主要思想。


2.7 Inception网络

image

上面是一个Inception模块

image

这是一个Inception网络,就是将很多Inception模块连接起来。


2.8 使用开源实现方案

ResNets实现的 GitHub地址 https://github.com/KaimingHe/deep-residual-networks


2.9 迁移学习(Transfer learning)

image

将网络上的神经网络和已经训练好的权重拿来进而通过冻结某些层数来训练自己的数据。


2.10 数据增强(Data augmentation)

和之前重复了好像

PASS


2.11 计算机视觉现状

通常需要大量人工

总之,多参考别人的训练项目。


OVER

冲!

相关文章
|
12天前
|
机器学习/深度学习 PyTorch TensorFlow
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic,深度学习探索者。深耕TensorFlow与PyTorch,分享框架对比、性能优化与实战经验,助力技术进阶。
|
26天前
|
人工智能 云栖大会 调度
「2025云栖大会」“简单易用的智能云网络,加速客户AI创新”专场分论坛诚邀莅临
”简单易用的智能云网络,加速客户AI创新“专场分论坛将于9月24日13:30-17:00在云栖小镇D1-5号馆举办,本场技术分论坛将发布多项云网络创新成果,深度揭秘支撑AI时代的超低时延、自适应调度与跨域协同核心技术。同时来自领先企业的技术先锋将首次公开其在模型训练、企业出海等高复杂场景中的突破性实践,展现如何通过下一代云网络实现算力效率跃升与成本重构,定义AI时代网络新范式。
102 4
|
26天前
|
机器学习/深度学习 数据采集 人工智能
PyTorch学习实战:AI从数学基础到模型优化全流程精解
本文系统讲解人工智能、机器学习与深度学习的层级关系,涵盖PyTorch环境配置、张量操作、数据预处理、神经网络基础及模型训练全流程,结合数学原理与代码实践,深入浅出地介绍激活函数、反向传播等核心概念,助力快速入门深度学习。
81 1
|
22天前
|
机器学习/深度学习 人工智能 自然语言处理
迁移学习:让小数据也能驱动AI大模型
迁移学习:让小数据也能驱动AI大模型
225 99
|
17天前
|
人工智能 运维 安全
从被动防御到主动免疫进化!迈格网络 “天机” AI 安全防护平台,助推全端防护性能提升
迈格网络推出“天机”新版本,以AI自学习、全端防护、主动安全三大核心能力,重构网络安全防线。融合AI引擎与DeepSeek-R1模型,实现威胁预测、零日防御、自动化响应,覆盖Web、APP、小程序全场景,助力企业从被动防御迈向主动免疫,护航数字化转型。
从被动防御到主动免疫进化!迈格网络 “天机” AI 安全防护平台,助推全端防护性能提升
|
4天前
|
人工智能 JavaScript 前端开发
GenSX (不一样的AI应用框架)架构学习指南
GenSX 是一个基于 TypeScript 的函数式 AI 工作流框架,以“函数组合替代图编排”为核心理念。它通过纯函数组件、自动追踪与断点恢复等特性,让开发者用自然代码构建可追溯、易测试的 LLM 应用。支持多模型集成与插件化扩展,兼具灵活性与工程化优势。
46 6
|
19天前
|
机器学习/深度学习 资源调度 算法框架/工具
AI-ANNE: 将神经网络迁移到微控制器的深度探索——论文阅读
AI-ANNE框架探索将深度学习模型迁移至微控制器的可行路径,基于MicroPython在Raspberry Pi Pico上实现神经网络核心组件,支持本地化推理,推动TinyML在边缘设备中的应用。
101 10
|
24天前
|
机器学习/深度学习 人工智能 算法
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic带你深入卷积神经网络(CNN)核心技术,从生物启发到数学原理,详解ResNet、注意力机制与模型优化,探索视觉智能的演进之路。
258 11
|
20天前
|
人工智能 安全 网络安全
从不确定性到确定性,“动态安全+AI”成网络安全破题密码
2025年国家网络安全宣传周以“网络安全为人民,靠人民”为主题,聚焦AI安全、个人信息保护等热点。随着AI技术滥用加剧,智能化攻击频发,瑞数信息推出“动态安全+AI”防护体系,构建“三层防护+两大闭环”,实现风险前置识别与全链路防控,助力企业应对新型网络威胁,筑牢数字时代安全防线。(238字)
|
26天前
|
人工智能 监控 数据可视化
如何破解AI推理延迟难题:构建敏捷多云算力网络
本文探讨了AI企业在突破算力瓶颈后,如何构建高效、稳定的网络架构以支撑AI产品化落地。文章分析了典型AI IT架构的四个层次——流量接入层、调度决策层、推理服务层和训练算力层,并深入解析了AI架构对网络提出的三大核心挑战:跨云互联、逻辑隔离与业务识别、网络可视化与QoS控制。最终提出了一站式网络解决方案,助力AI企业实现多云调度、业务融合承载与精细化流量管理,推动AI服务高效、稳定交付。

热门文章

最新文章