神经网络(NPL)-简介

简介: 本分记录了自己学习参考多篇博客后总结的关于神经网络的理解,以供参考学习

1、NPL概念理解

神经网络作为一种机器学习模型,本质是一种 通用函数近似器(Universal Function Approximators),或者说超级复杂函数的拟合器。这意味着他们可以通过有监督学习 无限逼近任意连续函数。而我们可以想到的任何过程几乎都是可以表示为神经网络中的函数计算。神经网络的传播都是形如 $Wx+b$ 的 线性变换运算
每个 NPL的node节点 所作的事情就是 变换[Wx | sgn(x)] :

激活函数

如果整个神经网络都是线性变换的运算,即使叠加很多层,最后产出的不过是复杂的线性组合,只能应对做线性分类任务,就像是用无限条直线去逼近一条曲线。为了给线性变换加入非线性变换,引入了系列激活函数(Sigmoid、tanh、Relu、Leaky Relu、Maxout、ELU),激活函数改变了每个神经元节点的线性输出特点, 最终才使得神经网络可以逼近任何非线性函数。

关于 激活函数的选择:
1、sigmoid 激活函数:除了输出层是一个二分类问题基本不会用它。
2、tanh 激活函数: tanh 是非常优秀的, 几乎适合所有场合。
3、ReLu 激活函数:最常用的默认函数,如果不确定用哪个激活函数,就使用 ReLu 或者 Leaky ReLu。ReLU处理了sigmoid、tanh中常见的梯度消失问题,同时也是计算梯度最快的激励函数。并且它只输出 $Wx + b$ 运算后大于零的值,其到类似神经元激活与否的作用,很好地模拟生物学中神经元激活的原理。
4、对于 回归问题应使用线性激活函数 $f(x) = x$。

损失函数

  • 对于分类模型,常用 交叉熵损失(Cross Entropy Error), 交叉熵损失本质计算的是对数的负数 $-log(p)$,当预测分数接近$1$ 的时候 $ - log(p) = 0$,相比 $1- p$ 的方式,使用交叉熵当损失函数拥有较快的收敛速度。
  • 对于回归模型,常用的还是 $MSE$。

神经网络的神奇之处就在于它可以自动根据损失函数做W和b的优化,在深度学习中,参数的数量有时会上亿,不过其优化的原理和简单神经网络是一样的。

2、NPL.VS.ML Algorithm

对于机器学习算法来说,并不存在一种“完美的”机器学习算法,能够出色地解决任何问题。对于某个问题,有的方法是适合的,有的则反之。神经网络的主要优势在于,它的性能优于几乎其他的机器学习算法。但是就是说的,搭建多层的权重变换网络产生的 多重输出 往往不具有可解释性,也就是神经网络的 "黑箱" 性质。想比起来就不如机器学习算法中的许多算法,比如决策树能更容易知道产生输出的原因。

神经网络对比决策树:
决策树可以理解为神经网络的简化版,基于树的方法沿着不同的特征逐步分割特征空间,以优化信息增益,它对于具有明显特征关联的分类任务表现优秀,而且这类任务并不依赖于概率,是确定性建模。对于复杂特征关联性的任务,考虑到概率计算的细微差别就会影响分类结果的情况,概率建模就比起确定性建模要更准确,像文本处理,文本有太多的信息和太多的异常,是不无法用确定性的特征组合来表示的,这时应用神经网络才能识别出这种复杂关联性。

神经网络的缺点:
与传统的机器学习算法相比,神经网络通常需要更多的数据,至少需要数千甚至数百万个标记样本才能训练出一个完美网络结构(调整出合适的神经元)。通常在计算方面,神经网络比传统算法更昂贵。先进的深度学习算法,若想成功完成训练,可能需要几周的时间。而大多数传统的机器学习只需花费少于几分钟,几个小时或者几天。

对于一般的线性和非线性问题,ML领域的经典算法往往是第一选择,更少的参数,更直观的理解,更高效的求解;只有对于特定领域内一些复杂特征问题的求解上,基于大量训练样本和算力资源的情况下使用神经网络才是个不错的求解方案。


Reference

神经网络的优点和缺点 - 知乎 (zhihu.com)
神经网络15分钟入门
激活函数以及作用
如何用神经网络实现连续型变量的回归预测
机器学习算法终极对比:树模型VS神经网络

目录
相关文章
|
7月前
|
监控 安全 网络安全
|
6月前
|
机器学习/深度学习
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
|
7月前
|
数据可视化 数据挖掘
【视频】复杂网络分析CNA简介与R语言对婚礼数据聚类社区检测和可视化|数据分享
【视频】复杂网络分析CNA简介与R语言对婚礼数据聚类社区检测和可视化|数据分享
|
1月前
|
网络协议 安全 算法
网络空间安全之一个WH的超前沿全栈技术深入学习之路(9):WireShark 简介和抓包原理及实战过程一条龙全线分析——就怕你学成黑客啦!
实战:WireShark 抓包及快速定位数据包技巧、使用 WireShark 对常用协议抓包并分析原理 、WireShark 抓包解决服务器被黑上不了网等具体操作详解步骤;精典图示举例说明、注意点及常见报错问题所对应的解决方法IKUN和I原们你这要是学不会我直接退出江湖;好吧!!!
网络空间安全之一个WH的超前沿全栈技术深入学习之路(9):WireShark 简介和抓包原理及实战过程一条龙全线分析——就怕你学成黑客啦!
|
6月前
|
机器学习/深度学习
【从零开始学习深度学习】37. 深度循环神经网络与双向循环神经网络简介
【从零开始学习深度学习】37. 深度循环神经网络与双向循环神经网络简介
|
1月前
|
网络协议 安全 算法
网络空间安全之一个WH的超前沿全栈技术深入学习之路(9-2):WireShark 简介和抓包原理及实战过程一条龙全线分析——就怕你学成黑客啦!
实战:WireShark 抓包及快速定位数据包技巧、使用 WireShark 对常用协议抓包并分析原理 、WireShark 抓包解决服务器被黑上不了网等具体操作详解步骤;精典图示举例说明、注意点及常见报错问题所对应的解决方法IKUN和I原们你这要是学不会我直接退出江湖;好吧!!!
|
4月前
|
网络协议 安全 网络安全
网络术语、接口和协议简介
网络术语、接口和协议简介
61 1
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的卷积神经网络(CNN)简介
【8月更文挑战第30天】在人工智能的浪潮中,深度学习以其强大的数据处理能力成为时代的宠儿。本文将深入浅出地介绍深度学习的一个重要分支——卷积神经网络(CNN),并探讨其如何在图像识别等领域大放异彩。通过实例,我们将一窥CNN的神秘面纱,理解其背后的原理,并探索如何利用这一工具解锁数据的深层价值。
|
5月前
|
机器学习/深度学习
循环神经网络简介
【7月更文挑战第26天】循环神经网络简介。
45 2
|
5月前
|
机器学习/深度学习 自然语言处理 算法
循环神经网络简介
7月更文挑战第3天
64 3

热门文章

最新文章