DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略

简介: 深度学习(Deep Learning, DL)或阶层学习(hierarchical learning)是机器学习的技术和研究领域之一,通过建立具有阶层结构的人工神经网络(Artifitial Neural Networks, ANNs),在计算系统中实现人工智能 。由于阶层ANN能够对输入信息进行逐层提取和筛选,因此深度学习具有表征学习(representation learning)能力 ,可以实现端到端的监督学习和非监督学习 。此外,深度学习也可参与构建强化学习(reinforcement learning)系统,形成深度强化学习 。

 DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略

目录

深度学习(神经网络)的简介

1、深度学习浪潮兴起的三大因素

深度学习(神经网络)的基础知识(相关概念、训练策略)

1、神经网络的基础知识

2、神经元的结构

3、感知机

4、万能逼近定理

5、神经网络训练

6、神经网络学习

7、神经网络的前馈运算与反向传播

8、激活函数

深度学习(神经网络)的算法分类

1、常用的神经网络模型概览

深度学习(神经网络)的经典案例应用


深度学习(神经网络)的简介

      深度学习(Deep Learning, DL)或阶层学习(hierarchical learning)是机器学习的技术和研究领域之一,通过建立具有阶层结构的人工神经网络(Artifitial Neural Networks, ANNs),在计算系统中实现人工智能  。由于阶层ANN能够对输入信息进行逐层提取和筛选,因此深度学习具有表征学习(representation learning)能力 ,可以实现端到端的监督学习和非监督学习 。此外,深度学习也可参与构建强化学习(reinforcement learning)系统,形成深度强化学习  。

      深度学习所使用的阶层ANN具有多种形态,其阶层的复杂度被通称为“深度” 。按构筑类型,深度学习的形式包括多层感知器、卷积神经网络、循环神经网络、深度置信网络和其它混合构筑  。深度学习使用数据对其构筑中的参数进行更新以达成训练目标,该过程被通称为“学习”  。学习的常见方法为梯度下降算法及其变体 ,一些统计学习理论被用于学习过程的优化 [9]  。

       在应用方面,深度学习被用于对复杂结构和大样本的高维数据进行学习,按研究领域包括计算机视觉、自然语言处理、生物信息学、自动控制等,且在人像识别、机器翻译、自动驾驶等现实问题中取得了成功。

1、深度学习浪潮兴起的三大因素

    • 海量的数据
    • 不断提升的算法能力
    • 高性能计算硬件的实现:GPU、TPU


    深度学习(神经网络)的基础知识(相关概念、训练策略)

          深度学习的实质是构建具有多个隐藏层的机器学习模型,通过海量的训练数据来学习更有用的特征,从而最终提升分类或预测的准确性。“深度模型”是手段“表示学习”是目的

          深度学习与传统的浅层学习的不同在于:

      • (1) 强调了模型结构的深度,有2层以上的隐藏层;
      • (2) 明确突出了表示学习的重要性。通过逐层特征变换,将样本在原空间的特征表示变换到一个新的特征空间,使分类或预测更加容易。

      image.gif

      DL之DNN优化技术:神经网络算法简介之GD/SGD算法的简介、代码实现、代码调参之详细攻略

      DL之DNN:BP类神经网络理解之不需要额外任何文字,只需要八张图讲清楚BP类神经网络的工作原理

      1、神经网络的基础知识

        • 神经元
        • 感知机
        • 激活函数:Sigmoid、tanh、ReLU、Leaky ReLU、ELU、Softmax。
        • 多层感知机:
        • 万能逼近定理:

        2、神经元的结构

        生物神经元包括细胞体和突起两个部分,突起又包括树突(接收信号)和轴突(传出信号)。

          • 轴突记录了神经元间联系的强弱。只有达到一定的兴奋程度,神经元才向外界传输信息。
          • 神经元之间的信号通过突触传递。

          image.gif

          3、感知机

          DL之Perceptron:Perceptron感知器(感知机/多层感知机/人工神经元)的简介、原理、案例应用(相关配图)之详细攻略

          4、万能逼近定理

           (Universal approximation theorem)

            • 只需一个包含单个隐藏层的前馈神经网络,即可逼近任意一个连续函数
            • 尽管仅有一个隐藏层的前馈网络足以表示任何函数,但是该隐藏层的神经元数目可能非常多,从而导致网络无法学习或正确泛化。

            5、神经网络训练

            (1)、损失函数:

            平均损失函数

            绝对值损失函数

            交叉熵损失函数:softmax回归,独热编码。

            (2)、优化目标

            (3)、梯度下降:

                • 梯度下降各种优化算法:Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam

                (4)、反向传播法:计算图解释

                1、神经网络训练的优化目标

                image.gif

                6、神经网络学习

                (1)、通过调整神经元的参数,使得网络对给定输入可产生期望输出。

                image.gif

                (2)、学习层次化的表示(表征)

                    image.gif

                7、神经网络的前馈运算与反向传播

                前馈运算和反向传播:在训练网络过程中所使用的。如果经过训练模型,网络稳定下来以后,就可以把参数固定下来,此时就不再需要反向传播了,只需要前馈运算进行推理和预测即可!

                 

                image.gif

                8、激活函数

                DL学习—AF:理解机器学习中常用的激活函数(sigmoid、softmax等)简介、应用、计算图实现、代码实现详细攻略

                深度学习(神经网络)的算法分类

                        深度学习的形式包括多层感知器、卷积神经网络、循环神经网络、深度置信网络和其它混合构筑  。

                         前馈神经网络(NN),而是和循环神经网络(RNN)的概念是相对的。而反向传播方法可以用在FF网络中,此时,基于反向传播算法的前馈神经网络,被称为BP神经网络。

                1、常用的神经网络模型概览

                DL:神经网络所有模型(包括DNN、CNN、RNN等)的简介(概览)、网络结构简介、使用场景对比之详细攻略

                1、DNN

                DL之DNN:DNN深度神经网络算法的简介、相关论文、设计思路、关键步骤、实现代码等配图集合之详细攻略

                2、CNN

                DL之CNN:计算机视觉卷积神经网络算法CNN算法常见结构、发展、CNN优化技术、案例应用之详细攻略

                3、RNN

                DL之RNN:RNN算法的简介、相关论文、相关思路、关键步骤、配图集合+TF代码定义之详细攻略

                4、DBN

                深度学习(神经网络)的经典案例应用

                后期更新……


                相关文章
                |
                2天前
                |
                机器学习/深度学习 算法 安全
                基于深度学习的路面裂缝检测算法matlab仿真
                本项目基于YOLOv2算法实现高效的路面裂缝检测,使用Matlab 2022a开发。完整程序运行效果无水印,核心代码配有详细中文注释及操作视频。通过深度学习技术,将目标检测转化为回归问题,直接预测裂缝位置和类别,大幅提升检测效率与准确性。适用于实时检测任务,确保道路安全维护。 简介涵盖了算法理论、数据集准备、网络训练及检测过程,采用Darknet-19卷积神经网络结构,结合随机梯度下降算法进行训练。
                |
                1月前
                |
                机器学习/深度学习 人工智能 算法
                基于Python深度学习的眼疾识别系统实现~人工智能+卷积网络算法
                眼疾识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了4种常见的眼疾图像数据集(白内障、糖尿病性视网膜病变、青光眼和正常眼睛) 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,实现用户上传一张眼疾图片识别其名称。
                135 5
                基于Python深度学习的眼疾识别系统实现~人工智能+卷积网络算法
                |
                1月前
                |
                机器学习/深度学习 算法 PyTorch
                深度强化学习中SAC算法:数学原理、网络架构及其PyTorch实现
                软演员-评论家算法(Soft Actor-Critic, SAC)是深度强化学习领域的重要进展,基于最大熵框架优化策略,在探索与利用之间实现动态平衡。SAC通过双Q网络设计和自适应温度参数,提升了训练稳定性和样本效率。本文详细解析了SAC的数学原理、网络架构及PyTorch实现,涵盖演员网络的动作采样与对数概率计算、评论家网络的Q值估计及其损失函数,并介绍了完整的SAC智能体实现流程。SAC在连续动作空间中表现出色,具有高样本效率和稳定的训练过程,适合实际应用场景。
                216 7
                深度强化学习中SAC算法:数学原理、网络架构及其PyTorch实现
                |
                2月前
                |
                算法 Java 数据库
                理解CAS算法原理
                CAS(Compare and Swap,比较并交换)是一种无锁算法,用于实现多线程环境下的原子操作。它通过比较内存中的值与预期值是否相同来决定是否进行更新。JDK 5引入了基于CAS的乐观锁机制,替代了传统的synchronized独占锁,提升了并发性能。然而,CAS存在ABA问题、循环时间长开销大和只能保证单个共享变量原子性等缺点。为解决这些问题,可以使用版本号机制、合并多个变量或引入pause指令优化CPU执行效率。CAS广泛应用于JDK的原子类中,如AtomicInteger.incrementAndGet(),利用底层Unsafe库实现高效的无锁自增操作。
                理解CAS算法原理
                |
                2月前
                |
                机器学习/深度学习 人工智能 算法
                猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
                宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
                356 55
                |
                2月前
                |
                机器学习/深度学习 算法 信息无障碍
                基于GoogleNet深度学习网络的手语识别算法matlab仿真
                本项目展示了基于GoogleNet的深度学习手语识别算法,使用Matlab2022a实现。通过卷积神经网络(CNN)识别手语手势,如"How are you"、"I am fine"、"I love you"等。核心在于Inception模块,通过多尺度处理和1x1卷积减少计算量,提高效率。项目附带完整代码及操作视频。
                |
                2月前
                |
                机器学习/深度学习 算法 数据安全/隐私保护
                基于深度学习网络的宝石类型识别算法matlab仿真
                本项目利用GoogLeNet深度学习网络进行宝石类型识别,实验包括收集多类宝石图像数据集并按7:1:2比例划分。使用Matlab2022a实现算法,提供含中文注释的完整代码及操作视频。GoogLeNet通过其独特的Inception模块,结合数据增强、学习率调整和正则化等优化手段,有效提升了宝石识别的准确性和效率。
                |
                2月前
                |
                机器学习/深度学习 人工智能 算法
                【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
                宠物识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了37种常见的猫狗宠物种类数据集【'阿比西尼亚猫(Abyssinian)', '孟加拉猫(Bengal)', '暹罗猫(Birman)', '孟买猫(Bombay)', '英国短毛猫(British Shorthair)', '埃及猫(Egyptian Mau)', '缅因猫(Maine Coon)', '波斯猫(Persian)', '布偶猫(Ragdoll)', '俄罗斯蓝猫(Russian Blue)', '暹罗猫(Siamese)', '斯芬克斯猫(Sphynx)', '美国斗牛犬
                220 29
                【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
                |
                6月前
                |
                机器学习/深度学习 数据可视化 Python
                如何可视化神经网络的神经元节点之间的连接?附有Python预处理代码
                该博客展示了如何通过Python预处理神经网络权重矩阵并将其导出为表格,然后使用Chiplot网站来可视化神经网络的神经元节点之间的连接。
                85 0
                如何可视化神经网络的神经元节点之间的连接?附有Python预处理代码
                |
                6月前
                |
                机器学习/深度学习 PyTorch 算法框架/工具
                PyTorch代码实现神经网络
                这段代码示例展示了如何在PyTorch中构建一个基础的卷积神经网络(CNN)。该网络包括两个卷积层,分别用于提取图像特征,每个卷积层后跟一个池化层以降低空间维度;之后是三个全连接层,用于分类输出。此结构适用于图像识别任务,并可根据具体应用调整参数与层数。
                106 9

                热门文章

                最新文章