简单入门——深度学习笔记(Part II)

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 本文是一篇关于深度学习的入门笔记,简单的介绍了几种神经网络的基本结构以及原理,包含受限玻尔兹曼机、卷积神经网络、循环神经网络等;介绍他们的训练的基本过程,并说明各自应用领域,适合深度学习研究者的入门理解。

首发地址:https://yq.aliyun.com/articles/72036


更多深度文章,请关注:https://yq.aliyun.com/cloud

作者介绍:Deepak Shah

Deepak Shah毕业于德克萨斯奥斯汀分校,徒步旅行爱好者,目前是深度学习\数据科学实习生,研究领域专注于深度学习、编程、金融等方面。

个人主页:http://www.deepakvshah.com/

Medium论坛:https://medium.com/@dvshah13

Github论坛:https://github.com/Dvshah13

 笔记分为两个部分,本文是笔记Part II,关于深度学习笔记PartI可以看这篇博客

受限玻尔兹曼机(RBM)

RBM是一种可以通过重建输入在数据中自动查找模式的方法,包含两层网络,第一层为可见层,第二层为隐藏层。可见层中的每个节点连接到隐藏层中的节点,由于同一层中没有两个节点共享连接,所以其是受限的

前向过程中,RBM接受输入并将它们转换成对输入进行编码的一组数字。在反向过程中,将这组数字转换形成重构的输入。

在这两个步骤中,权重和偏置具有非常重要的作用,其允许RBM解译输入特征之间的相互关系,并且确定哪些输入特征是最重要的。

训练过程反复重复以下三个步骤。

步骤1:在前向传递,每个输入与单独的权重和偏置组合,结果被传递到隐藏层。

步骤2:在反向过程中,每个激活与单独的权重和偏置组合,结果被传递到可见层以用于重建。

步骤3:在可见层,使用KL发散重建与原始输入进行比较以判断结果的质量

使用不同的权重和偏置重复步骤1-3,直到重建输入尽可能接近。

注意到,RBM实际上通过调整权重和偏置决定了哪些输入特性是重要的,以及如何将它们组合形成模式。

那么RBM如何能够提取特征?这与深层信念网络有关。

信念网络(DBN

深层信念网络(DBN)在网络结构方面,可以被看作是RBM的堆叠,其中一个RBM的隐藏层是其上一层的可见层。

DBN训练过程:第一RBM被训练以尽可能准确地重建其输入,其隐藏层被视为第二RBM的可见层,并且使用来自第一RBM的输出来训练第二RBM。重复该过程,直到网络中的每一层都被训练。DBN表现好的原因是因为一堆RBM优于单个RBM单元。就像多层感知器能够胜过单个感知器。

为了完成训练,模式引入标签,并通过监督学习来微调网络。权重和偏置稍微改变,导致网络对图案感知的微小变化,同时总精度通常会小幅增加。

卷积神经网络(CNN)

近年来主导机器视觉空间,影响深远深度学习AI中最热门的话题之一卷积网络一直是机器视觉项目的解决方案。

CNN结构:

第一个组成部分是卷积层。网络使用卷积的技术操作来搜索特定模式。可以把它看作是通过图像过滤特定模式的过程。该层的权重和偏置影响操作执行的过程。调整权重和偏置会影响过滤过程的有效性。CNN具有权值共享的特性,这意味着过滤器上任何给定的神经元连接到相同数量的输入神经元,并且具有相同的权重和偏置

接下来的两层是整流线性单元(RELU)和池化有助于卷积层发现的简单模式的建立。卷积层中的每个节点都连接到一个激活节点,使用的激活函数称为整流线性单元(RELU)。CNN使用反向训练,所以梯度消散仍然是一个问题。由于RELU能使得梯度在每一层处或多或少保持恒定,所以允许网络被适当地训练。池化层用于维数降低。通过引入池化层,确保网络仅关注卷积和RELU发现的最相关的模式。

这三个层组合在一起可以发现复杂的模式,但网络不能理解这些模式是什么。因此,网络末端全连接层,以便使网络具有分类数据样本的能力。

综上所述,典型的深CNN具有三层:卷积层,RELU层和池化,这些层之后连接几个全连接层以支持分类。

由于CNN是深层网络,训练复杂度高,可能需要使用具有GPU的服务器进行训练;另外是受监督的学习方法限制,需要大量的用于训练的标记数据,这在现实应用中也是有挑战性的。

循环神经网络(RNN)

如果数据中的模式随时间变化,最好使用循环神经网络。RNN结构简单,内置反馈回路允许它作为一个预测引擎,其应用非常广泛,从语音识别到无人驾驶汽车。

在前馈神经网络中,信号仅一个方向上从输入到输出信号,传递一个层;而在循环神经网络中,层的输出添加到下一个入并且反馈回同一层,该层通常是整个网络中的唯一层。

与前馈网不同,循环网可以接收一系列值作为输入,并且还可以产生一系列值作为输出。操作序列的能力使RNN具有广泛的应用。当输入是单并且输出是序列时,潜在的应用是图像字幕具有单个输出的输入序列可以用于文档分类当输入和输出都是序列时,可以用来逐帧分类视频如果引入时间延迟,则可以统计地预测需求和供应链方案

可以将RNN堆叠在彼此之上,形成一个更复杂的输出网络,然而RNN是极难训练的网络。由于RNN使用反向传播,也会遇到梯度消失的问题。不幸的是,对于RNN而言,梯度消失指数恶化。其原因是每个时间步长等同于前馈网络中的整个层。有几种方法来解决问题。目前最流行的是门控循环单位(GRU)和长期短期记忆(LSTM);另外还有梯度剪裁和陡峭门以及其它更好的优化方法

自动编码器AE

当尝试找出数据集的基础结构时,自动编码器非常有用自动编码器采用一组通常未标记的输入,并且在对其进行编码后,尝试尽可能精确地重建它们。因此,网络必须确定哪些数据特征是最重要的。

自动编码器通常包括输入层,输出层和隐藏层。在前向传递方面,有两个步骤:编码和解码。用于编码隐藏层中的特征的相同权重会被用于重建输出层中的图像。训练使用损失度量网络尝试重建输入时丢失的信息量。

并不是所有的自动编码器都是浅层的,其变体深度自动编码器在维数降低方面表现更好,它们的前身是主成分分析(PCA)。

递归神经张量网络(RNTN)

在尝试发现一组数据的分层结构时RNTN表现更好。

RNTN有三个基本组件。分别为父组)、子组(叶)以及根与叶之间的连接。每个组是神经元的集合,其中神经元的数量取决于输入数据的复杂性。根连接到所有叶组,但是每个叶之间彼此不连接。从技术上讲,这三个组件形成一个二叉树。叶组接收输入,根组使用分类器来给出类别和分数。

RNTN结构看起来很简单,但其复杂性来自数据在整个网络中移动的方式。这是由于其过程是递归的。

递归示例:输入一个句子“The car is fast ”,在第一步,将前两个词分别输入叶组1和2。叶组实际上不接收字,而是字的向量(有序数字集)表示。当两个向量中的数字与词汇中的其他单词相比较时,两个单词之间的相似性编码实现特别好的结果。两个向量(由The和Car表示)通过网络移动到根,得到两个值和得分。得分代表当前语法分析的质量,类代表当前语法分析中结构的编码。网络开始递归在下一步,第一叶组现在接收当前解析,第二叶接收句子中的下一个字。之后根组将输出三个字长的解析分数(“The,Car,Is)。重复该过程,直到所有输入全部解析完毕,并且网络具有包每个单词的解析树。这是RNTN的简化示例并说明了主要思想但是在实际应用中,通常对抗更复杂的递归过程。而不是使用句子中的下一个词用于第二叶组,RNTN将尝试所有下一个词,并且最终尝试表示整个子解析的向量。

一旦网络具有最终结构,它通过解析树回溯以便找出句子的每个部分的正确语法标签。RNTN通过将预测的句子结构与从一组标记的训练数据获得的正确句子结构进行比较来用反向传播训练。一旦训练完毕,网络将给与更多类似于其在训练中所解析的树的结构分数。

在自然语言处理中RNTN用于语法解析和情感分析用于在含有不同分量的场景解析图像。

本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。

文章原标题《Deep Learning Notes Part II》,作者:Deepak Shah,译者:海棠

文章为简译,更为详细的内容,请查看原文

Wechat:269970760 

Email:duanzhch@tju.edu.cn

微信公众号:AI科技时讯

157f33dddfc596ede3681e0a2a0e7068dc288cc1

目录
相关文章
|
3月前
|
机器学习/深度学习 人工智能 TensorFlow
人工智能浪潮下的自我修养:从Python编程入门到深度学习实践
【10月更文挑战第39天】本文旨在为初学者提供一条清晰的道路,从Python基础语法的掌握到深度学习领域的探索。我们将通过简明扼要的语言和实际代码示例,引导读者逐步构建起对人工智能技术的理解和应用能力。文章不仅涵盖Python编程的基础,还将深入探讨深度学习的核心概念、工具和实战技巧,帮助读者在AI的浪潮中找到自己的位置。
|
4月前
|
机器学习/深度学习 算法 测试技术
深度学习环境搭建笔记(二):mmdetection-CPU安装和训练
本文是关于如何搭建深度学习环境,特别是使用mmdetection进行CPU安装和训练的详细指南。包括安装Anaconda、创建虚拟环境、安装PyTorch、mmcv-full和mmdetection,以及测试环境和训练目标检测模型的步骤。还提供了数据集准备、检查和网络训练的详细说明。
257 5
深度学习环境搭建笔记(二):mmdetection-CPU安装和训练
|
4月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
深度学习之格式转换笔记(三):keras(.hdf5)模型转TensorFlow(.pb) 转TensorRT(.uff)格式
将Keras训练好的.hdf5模型转换为TensorFlow的.pb模型,然后再转换为TensorRT支持的.uff格式,并提供了转换代码和测试步骤。
129 3
深度学习之格式转换笔记(三):keras(.hdf5)模型转TensorFlow(.pb) 转TensorRT(.uff)格式
|
4月前
|
机器学习/深度学习 数据可视化 计算机视觉
目标检测笔记(五):详细介绍并实现可视化深度学习中每层特征层的网络训练情况
这篇文章详细介绍了如何通过可视化深度学习中每层特征层来理解网络的内部运作,并使用ResNet系列网络作为例子,展示了如何在训练过程中加入代码来绘制和保存特征图。
90 1
目标检测笔记(五):详细介绍并实现可视化深度学习中每层特征层的网络训练情况
|
4月前
|
机器学习/深度学习 TensorFlow 算法框架/工具
深度学习之格式转换笔记(二):CKPT 转换成 PB格式文件
将TensorFlow的CKPT模型格式转换为PB格式文件,包括保存模型的代码示例和将ckpt固化为pb模型的详细步骤。
88 2
深度学习之格式转换笔记(二):CKPT 转换成 PB格式文件
|
4月前
|
机器学习/深度学习 数据可视化 Windows
深度学习笔记(七):如何用Mxnet来将神经网络可视化
这篇文章介绍了如何使用Mxnet框架来实现神经网络的可视化,包括环境依赖的安装、具体的代码实现以及运行结果的展示。
71 0
|
2月前
|
机器学习/深度学习 人工智能 算法
深度学习入门:用Python构建你的第一个神经网络
在人工智能的海洋中,深度学习是那艘能够带你远航的船。本文将作为你的航标,引导你搭建第一个神经网络模型,让你领略深度学习的魅力。通过简单直观的语言和实例,我们将一起探索隐藏在数据背后的模式,体验从零开始创造智能系统的快感。准备好了吗?让我们启航吧!
112 3
|
3月前
|
机器学习/深度学习 人工智能 算法框架/工具
深度学习中的卷积神经网络(CNN)入门
【10月更文挑战第41天】在人工智能的璀璨星空下,卷积神经网络(CNN)如一颗耀眼的新星,照亮了图像处理和视觉识别的路径。本文将深入浅出地介绍CNN的基本概念、核心结构和工作原理,同时提供代码示例,带领初学者轻松步入这一神秘而又充满无限可能的领域。
|
4月前
|
机器学习/深度学习
深度学习笔记(十二):普通卷积、深度可分离卷积、空间可分离卷积代码
本文探讨了深度可分离卷积和空间可分离卷积,通过代码示例展示了它们在降低计算复杂性和提高效率方面的优势。
477 2
深度学习笔记(十二):普通卷积、深度可分离卷积、空间可分离卷积代码
|
4月前
|
机器学习/深度学习 并行计算 PyTorch
深度学习环境搭建笔记(一):detectron2安装过程
这篇博客文章详细介绍了在Windows环境下,使用CUDA 10.2配置深度学习环境,并安装detectron2库的步骤,包括安装Python、pycocotools、Torch和Torchvision、fvcore,以及对Detectron2和PyTorch代码的修改。
840 1
深度学习环境搭建笔记(一):detectron2安装过程

热门文章

最新文章