深度之眼(二十六)——神经网络基础知识(一)

简介: 深度之眼(二十六)——神经网络基础知识(一)

一、前言

看了下课程安排,自己还是没安排好,刚刚捋清了一下思路。

基础:python、数理

认识:神经网络基础、opencv基础、pytorch框架、tensorflow框架(还有个NLP的基础,这个有空再看)

应用:论文精读、人工智能项目实践

进阶:西瓜书、统计学习方法

关于进阶,这两本书很纠结,不知道把他们放哪,感觉全都要用,所以呢,我准备想买,时不时看看。

二、神经网络与多层感知机

人工智能、机器学习、神经网络、深度学习四者关系


2.1 人工神经元

意思就是各个子输入,乘以权重再累加,得到一个总输入的值,放入函数,之后判断是否超过阈值,超过输出1,不超过输出0。也就是激活和为激活两种状态。输出只有0和1两个。

2.2 人工神经网络

人工神经网络:大量神经元以某种连接方式构成的机器学习模型

所以学习不同的神经网络,就是学习不同的连接方式,比方RNN,就是循环连接

2.3 多层感知机

多层的意思就是,原本只要输入层和输出层,在这之间加入了隐藏层(也就构成了多样性),数学上就是乘上了一个权重矩阵。每一次乘上权重矩阵,就需要进行一次激活函数(),不然多层的其实就是单层感知机了

2.4 激活函数

作用

(1)让多层感知机成为真正的多层,否则等价于一层

(2)引入非线性,使网络可以逼近任意非线性函数(万能逼近定理,universal approximator)

常见的激活函数


紫线是函数原型

黄线是函数的导函数图像

然后多层感知机常用的是Relu。这个函数就很简单,导函数就有点阶跃信号那种感觉。

使用条件

1,连续并可导(允许少数点上不可导),便于利用数值优化的方法来学习网络参数

2.激活函数及其导函数要尽可能的简单,有利于提高网络计算效率

3激活函数的导函数的值域要在合适区间内,不能太大也不能太小,否则会影响训练的效率和稳定性

饱和激活函数和非饱和激活函数

饱和激活函数和非饱和激活函数是两种常用的激活函数类型。

饱和激活函数,如饱和Sigmoid函数和Heaviside函数,在数值较大的时候,输出会急剧上升,无法准确反映输入信号的变化。这种函数的优点是具有固定的单调性,但缺点是只能用在某些特定的模型中,限制了其应用范围。

非饱和激活函数,如常见的ReLU函数(Rectified Linear Unit)、Tanh函数、Softmax函数等,具有非饱和特性,**能够在一定程度上防止梯度消失问题。**这些函数可以提供比饱和函数更大的激活范围,使得神经网络能够更好地学习和工作。例如,ReLU函数在输入值大于零的时候输出值为1,使得神经元在非饱和状态下可以更好地传递信息。


顺便说一下,最近换了新电脑,fpga新起点的软件还在弄,可能明天才会学。

相关文章
|
4月前
|
机器学习/深度学习 编解码
深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络
深度之眼(二十八)——神经网络基础知识(三)-卷积神经网络
45 14
|
4月前
|
机器学习/深度学习
深度之眼(二十九)——神经网络基础知识(四)-循环神经网络
深度之眼(二十九)——神经网络基础知识(四)-循环神经网络
50 13
|
4月前
|
机器学习/深度学习 算法 数据挖掘
深度之眼(二十七)——神经网络基础知识(二)
深度之眼(二十七)——神经网络基础知识(二)
|
6月前
|
机器学习/深度学习 人工智能 资源调度
AI【基础 01】神经网络基础知识(不断进行补充整理)
神经网络基础知识(不断进行补充整理)
120 2
|
机器学习/深度学习 资源调度 算法
神经网络入门基础知识
神经网络入门基础知识
16799 5
神经网络入门基础知识
|
机器学习/深度学习 搜索推荐 数据挖掘
【Pytorch神经网络理论篇】 25 基于谱域图神经网络GNN:基础知识+GNN功能+矩阵基础+图卷积神经网络+拉普拉斯矩阵
图神经网络(Graph Neural Network,GNN)是一类能够从图结构数据中学习特征规律的神经网络,是解决图结构数据(非欧氏空间数据)机器学习问题的最重要的技术之一。
932 0
|
机器学习/深度学习 人工智能 自然语言处理
DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略
深度学习(Deep Learning, DL)或阶层学习(hierarchical learning)是机器学习的技术和研究领域之一,通过建立具有阶层结构的人工神经网络(Artifitial Neural Networks, ANNs),在计算系统中实现人工智能 。由于阶层ANN能够对输入信息进行逐层提取和筛选,因此深度学习具有表征学习(representation learning)能力 ,可以实现端到端的监督学习和非监督学习 。此外,深度学习也可参与构建强化学习(reinforcement learning)系统,形成深度强化学习 。
DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略
|
机器学习/深度学习 算法 程序员
DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略
DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略
DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略
|
机器学习/深度学习 人工智能 自然语言处理
DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略
DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略
DL:深度学习(神经网络)的简介、基础知识(神经元/感知机、训练策略、预测原理)、算法分类、经典案例应用之详细攻略
|
机器学习/深度学习 资源调度 算法
神经网络基础知识笔记
## 神经网络表示 ### 神经元模型 神经网络从大脑的工作原理得到启发,可用于解决通用的学习问题。神经网络的基本组成单元是**神经元(neuron)**。每个神经元具有一个轴突和多个树突。每个连接到本神经元的树突都是一个输入,当所有输入树突的兴奋水平之和超过某一阈值,神经元就会被激活。激活的神经元会沿着其轴突发射信号,轴突分出数以万计的树突连接至其他神经元,并将本神经元的输出并作为其
4592 0

热门文章

最新文章