需要PPT请点赞关注收藏后评论区留言私信~~~
神经网络基础
神经网络(Neural Network)最早由心理学家和神经学家开创,旨在寻求开发和检验神经的计算模拟。它是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能模拟生物神经系统对真实世界物体所作出的交互反应。今天的“神经网络”已是一个相当大的、多学科交叉的学科领域。神经网络可以用于分类(预测给定元组的类标号)和数值预测(预测连续值输出)等
1 神经元模型
人工神经元(简称神经元)是神经网络的基本组成单元,它是对生物神经元的模拟、抽象和简化。现代神经生物学的研究表明,生物神经元是由细胞体、树突和轴突组成的。通常一个神经元包含一个细胞体和一条轴突,但有一个至多个树突
神经网络中最基本的成分是神经元(Neuron)模型。生物神经网络中的每个神经元彼此互连,当它“兴奋”时,就会向相连的神经元发送化学物质,从而改变这些神经元内的电位。如果某神经元的电位超过一个阈值,它就会被激活,即“兴奋”起来,向其他神经元发送化学物质。 1943年,美国心理学家麦卡洛克(McCulloch)和数学家皮特斯(Pitts)按照生物神经元的结构和工作原理建立了M-P模型
在M-P模型中,为了使得建模更加简单,以便于进行形式化表达,我们忽略时间整合作用、不应期等复杂因素,并把神经元的突触时延和强度当成常数
信息加工过程可描述如下式:
f(∙)称为激励函数或转移函数,它对前期加工后的信息进行一个映射,得到输出y,如下式:y=f(I)
激励函数一般采用非线性函数
对M-P模型而言,神经元只有兴奋和抑制两种状态,因此,它的激励函数f(∙)定义为单位阶跃函数,输出y只有0和1两种信号
由于累加性,对全部输入信号进行累加整合,相当于生物神经元中的膜电位,其值为:
激活函数将输入值映射为输出值0或者1,0表示神经元抑制 1表示神经元兴奋,然而阶跃函数具有不连续和不光滑等不太好的性质,因此实际常用Sigmoid函数作为激活函数
将许多神经元按一定的层次结构连接起来,就得到了神经网络
2 感知机与多层网络
感知器(Perceptron)由两层神经元组成,如图9-3所示。这个结构非常简单,它其实就是输入输出两层神经元之间的简单连接
感知机的特点概括如下
1957年由Rosenblatt提出,是神经网络与支持向量机的基础;
输入为特征向量,输出为实例的类别,取+1和-1;
感知机对应于输入空间中将实例划分为正负两类的超平面,属于判别模型;
导入基于误分类的损失函数;
利用梯度下降法对损失函数进行极小化;
感知机学习算法具有简单而易于实现的优点,分为原始形式和对偶形式
感知机模型
感知机模型是二分类的线性分类模型,它能对空间中线性可分的二分类样本点进行划分
式中,u(∙)为单位阶跃函数,W=(w^(1), w^(2), …,w^(n)),x=(x^(1),x^(2),…,x^(n))
W∙x^T+θ=0表示空间中的一个超平面,该超平面将空间中的点划分为两类。对空间中的某点x_i,如果被正确划分,易知y_i(W∙x^T+θ)>0,。如果被错误划分,即为误分类点,则y_i(W∙x^T+θ)≤0
设感知机的样本集S={s_1,s_2,…,s_m}包含个m样本,每个样本s_i=(x_i,y_i)包括一个实例x_i和一个标签y_i,y_i∈{1,0}
算法流程图如下
用神经网络来模拟逻辑代数中的异或运算
代表异或运算的点是线性不可分的,因此无法用感知机模拟,此时可以将三个分布模拟与非、或和与运算的感知机连接在一起,共同完成异或运算
单个神经元只能划分线性可分的二分类点。如果将神经元连接成神经网络,则处理能力会大为增强,这也是神经网络得到广泛应用的原因
要解决非线性可分问题需要使用多层感知器(多层网络)来解决。多层感知机(Multilayer Perceptron,MLP)除了输入输出层,中间可以有多个隐层。最简单的MLP只含一个隐层,即三层的结构。更一般的,常见的神经网络是形如图9.4所示的机构这样的网络结构通常称为多层前馈神经网络(Multi-layer Feedforward Neural Networks)
创作不易 觉得有帮助请点赞关注收藏~~~