人工智能之从零理解人工神经网络

简介: 人工智能并非是一个新型的词汇,从十九世纪五十年代开始,人们就开始探索为机器赋予类似人的智能能力。限于当时的基础数学理论不够完善,人工智能的发展并不顺利。直到九十年代发展出了基于统计学的数学工具,人工智能才得到飞速的发展。

人工智能之从零理解人工神经网络

人工智能并非是一个新型的词汇,从十九世纪五十年代开始,人们就开始探索为机器赋予类似人的智能能力。限于当时的基础数学理论不够完善,人工智能的发展并不顺利。直到九十年代发展出了基于统计学的数学工具,人工智能才得到飞速的发展。

人工智能既是为机器增加人的智能能力,最直观的想法是研究人脑的运行机制,之后构建出一套网络系统来模拟人脑的工作原理来进行学习和工作。人工神经网络即时基于这一想法而发展出来的,本篇博客是笔者学习人工智能过程中的对人工神经网络部分的理解与感悟,分享与大家共同学习,有偏差之处敬请指正。

1-关于人工神经网络

神经网络是生物学上的一个概念,在人类大脑中数百亿个神经元协作产生了人类智能,人脑中大约有860亿个神经元。每个神经元大约连接1000个其他神经元。巨量的神经元构成了非常复杂的神经网络系统,每个神经元通过电化学信息作为输入,当电信号超出触发条件的电压阈值时,此神经元即会被激活,被激活的神经元又会将信号传递给其所连接的其他神经元。可能谁也无法说清楚如此复杂的信号传递是如何产生人类智慧的,但我们可以模拟这一过程来尝试构建机器的人工智能。关于生物学上神经网络是人类大脑学的核心研究领域,下图简单演示了人脑神经元的信号传递。

image.png

人工神经网络是机器学习的一种方法,受生物神经元的启发,我们可以通过编程来构建一套人工神经网络系统,通过定义神经元的输入输出,触发条件等来模拟生物神经元的信号传递流程。目前通过人工神经网络训练的模型已经可以在诸多领域进行应用,如人脸识别、语音识别、自动驾驶、机器人游戏等。

一个人工神经网络由以下核心部分需要关注:

  • 感知器(神经元)
  • 连接和权重
  • 传播函数
  • 组织结构

后面,我们将对这些核心部分进行深入的讨论,并提供简单的学习案例来帮助大家理解整个网络的工作流程,其中会使用到一些简单的高等数学中的知识。

2-感知器

在人工神经网络中,充当神经元结构组件有一个更加确切的名字:感知器。感知器结构简单,是对生物神经细胞的最小抽象。感知器在数学模型上的抽象如下图所示:

image.png

这个感知器模型非常简单,它接收3个输入,通过∑函数来运算,最终输出结果。W1,W2,W3是每个输入对应的权重,∑函数的运算规则是将输入乘以权重后进行求和。在某些资料中,你可能会看到此公式被写为输入向量与权重转置向量的点积,其实是一样的,标准的公式如下:

image.png

这类感知器最终的运算方式是线性的,因此也被称为线性感知器。在神经网络中,感知器的输入是由初始输入或上一层的输出来决定的,我们要做的其实就是找到确定的权重,机器学习的学习过程其实也是找到合适权重的过程。

与感知器相关的还有一个重要的概念是偏置,我们前面提到过,一个生物神经元是否激活是要看化学电信号的电压是否达到某一阈值,要判断某一感知器是否被激活,实际上的公式应该改写如下:

image.png

其中,b是当前感知器被激活的阈值,我们将公式整理后,可以将阈值b放到左边,并将其作为一个输入始终为-1的参数,通过这样的整理后,最终需要确定的数据都被统一为权重值。

3-多层感知器

现在我们了解了单个感知器的工作原理,一个神经网络其实就是由非常多个感知器按照一定的层次排布构成的。如下图:

image.png

图中所示有两层感知器,第一层有3个感知器,每个感知器有两个输入,第二层有1个感知器,接收上一层的输入来处理后将结果输出。在整个神经网络中,每一层可以有任意多个感知器,感知器的个数会决定权重向量的维度(也就是这一层所需要确定的权重的个数),我们可以用X表示输入的数据向量组,W来表示输入连接到下一层的权重向量组,则下一层的结果即为:

image.png

当我们将下一层每个感知器的结果都计算完成后,即可将其作为新的输入向量来向下层传递,直到获取最终结果。

注*:上面的公式默认将阈值算在了输入中。

4-激活函数

多层感知器只是对单个的感知器进行了组合,虽然我们已经可以根据输入计算出这种神经网络的输出,但这种结果的意义并不大,我们需要为每个感知器的输出结果增加一些非线性的激活逻辑才能更好的拟合生物神经元的特性。

激活函数是对感知器的输出做激活运算,简单来说,即是我们需要定义一个激活函数,对每一层感知器的输出多做一步函数运算后再作为结果传递到下一层。常用的激活函数有3种:

  • 阶跃函数
  • Sigmoid函数
  • ReLU函数

阶跃函数的定义如下:

image.png

图形如下:

image.png

其特性是当输入小于0时,输出为0,输入大于等于0时,输出为1。

Sigmoid函数的定义如下:

image.png

这个函数的图像如下:

image.png

sigmoid函数的特性是当输入接近负无穷时,值向0逼近,当输入接近正无穷时,值向1逼近。

ReLU函数的定义如下:

f(x) = max(0, x)

此函数比较好理解,当输入小于0时,输出始终是0,输入大于0时,输出等于输入。

在实际应用中,我们更多的会使用sigmoid函数做为激活函数,sigmoid有一个非常好的特性,即它是连续光滑的,连续和光滑的函数在数学上有着非常好的性质,这说明其可以很方便的进行求导。

引入了激活函数后,神经网络模型可以抽象成如下图所示:

image.png

其中,φ是sigmoid函数。

理论上,两层的感知器可以拟合出所有的连续函数,三层及以上的感知器可以拟合出所有函数。

5-从一个简单的示例看人工神经网络的计算过程

前面,我们介绍了人工神经网络的基本工作流程。现在我们可以通过一个例子来看具体的计算过程。

首先,假设我们已经训练好了一个模型,此模型的功能是进行逻辑与运算。当然我们知道,逻辑与运算的规则非常简单,其有两个输入,每个输入的值为0或者1,当输入都为1时结果才为1,任一输入为0时结果就为0。与运算的所有输入与输出的可能列表如下:

| 1 | 0
1 | 1 | 0
0 | 0 | 0

忘记我们已知的这个计算规则,我们的目的是通过机器学习,让计算机自己通过模型来预测出正确的结果。我们要使用的神经网络有两层,结构如下:

image.png

由于模型是训练好的,所需要的权重参数都是已知的。其中第一层的权重向量为:

W1 = [

-3.9 -3.9 -5.4

4.4 4.4 6.2

-4.7 -4.7 -6.6

]

假设我们输入的两个值分别为1和1,加上偏置-1,则输入向量为:

X1 = [1 1 -1]

进行点乘后,得到的中间结果为:

r1 = -3.9 1 + -3.9 1 + 5.4 * 1 = -2.4

r2 = 4.4 + 4.4 - 6.2 = 2.6

r3 = -4.7 - 4.7 + 6.6 = -2.8

因此第一层运算后的中间向量为:

R1 = [-2.4 2.6 -2.8]

将R1向量进行sigmoid运算,结果为:

X2 = [0.083 0.93 0.057]

向量X2即为第2层的输入向量,加上偏置输入,最终的第二层的输入为:

X2 = [0.083 0.93 0.057 -1]

第2层的权重向量为:

W2 = [-8.09 7.24 -7.49 -2.88]

进行点乘运算,第二层的中间结果为:

R2 = 0.67 + 6.73 - 0.42 + 2.88 = 9.86

将9.86进行sigmoid运算,结果为0.9999,非常接近1。

同样,如果我们将最初的输入修改为:

X1 = [0 1 -1]

则:

r1 = -3.9 0 + -3.9 1 + 5.4 * 1 = 1.5

r2 = 0 + 4.4 - 6.2 = -1.8

r3 = 0 - 4.7 + 6.6 = 1.9

R1 = [1.5 -1.8 1.9]

X2 = [0.817 0.14 0.86 -1]

R2 = -8.09*0.817 + 7.24*0.14 - 7.49*0.86 + 2.88 = 9.86

对9.86进行sigmoid运算后,结果为0.00005,此模型的预测是符合预期的。

我们这里举的是一个比较简单的例子,因为输出只有0和1。如果我们要预测的场景有多个输出,例如预测某个点位于直角坐标系中的哪个象限中,则可以输出4个值,分别表示此点落在对应象限的概率。

6-训练过程

上面示例中,我们假定使用的模型是已经训练好的,那么如果我们尚未确定所需要的权重参数时,需要怎么做呢?需要试!我们可以先随意的选取一组权重组合,之后正向的执行一遍计算过程,最终计算获取到的结果与真实结果间的误差,通过将误差反向传播来优化更新整个网络的权重向量。为了方便演示这一过程,我们可以将神经网络模型再优化的简单些,如下图所示:

image.png

假设此神经网络的作用是拟合取反运算符的功能,即输入为0时输出1,输入为1时输出0。现在第一层的权重和第二层的权重我们都不知晓。随机取一组权重组合,例如:

W1 = [

1 1

1 1

]

W2 = [1 1 1]

现在设输入为0,运算过程为:

X1 = [0 -1]

R1 = [-1 -1]

X2 = [0.731 0.731 -1]

R2 = 0.462

X2 = 0.61

最终计算的结果为0.61,我们预期的结果应该为1,与正确输出相比误差很多,误差我们一般使用如下公式来描述:

image.png

其中的连加符号是用来将多个输出的误差进行相加,本例中只有一个输出,我们可以将其忽略。公式中的1/2是一个小技巧,对方差除以2不会对结果产生大的影响,但是可以使后续的求导结果更加简化。

如果我们带入计算此次误差,结果为:0.39。这个误差值是很大的,我们需要分析出每个权重参数对此误差产生的影响,然后尽量降低此影响。

首先,最终的结果实际上是由一层层的结果经过线性计算加上触发函数而得到的,因此本质上我们可以用复合函数来表示最终的结果与输出间的关系。以本场景为例,第二层函数我们可以表示为φ(f(x2)),第一层函数可以表示为x2=φ(g(x)),带入后的完整函数为φ(f(φ(g(x)))),即:

target = φ(f(φ(g(x))))

因此,我们要计算每个权重对误差的影响,找到梯度的反方向进行优化即可,其实只需要使用误差函数对指定权重变量求偏导。

梯度的定位为变化率最大的方向,导数本身描述的就是变量的变化导致结果变化的变化速度,因此我们根据其导数进行调整即可最快的优化参数。

下面,我们以W2向量中的第1个权重为例来进行优化,公式如下:

image.png

其中out为最后一部分输出函数,即sigmod函数,net为最后一层的逻辑函数,其与w1有关,分别计算这些值:

image.png

通过上面的复合函数求导运算,我们可以计算出最终的误差关于w1权重的偏导值,仔细观察,其实此偏导值的工作可以简化为:

image.png

可以看到,其中只有outx11是上一层对应此乘以此权重值的结果,其他参数都只与最终结果或本层的输出有关。我们将这部分提为一个新的变量,将误差关于某个权重的偏导简化为:

image.png

现在我们已经计算出了关于误差w1权重的梯度,现在向其反方向进行调整即可,我们采用0.5的学习率,更新权重参数如下:

w_1 = w1 - 0.5 * - (0.0678) = 1.0339

同理对同层的w2进行更新也是一样的逻辑。更新完第2层的权重后,我们还需要继续向上一层传递,更新第一层的权重。这里我们不再演示计算。

W2向量对应的修改为:

W2 = [1.0339 1.0339 1]

再次输入为0,运算过程为:

X1 = [0 -1]

R1 = [-1 -1]

X2 = [0.731 0.731 -1]

R2 = 0.731*1.0339+0.731*1.0339-1

X2 = 0.625

误差为0.375,减少了一点点。同理去更新其他权重,直到达到满意的效果为止。

上面演示的计算过程为称为反向传播算法,在人工神经网络中,机器学习的整体逻辑即是不断的进行权重的更新,更新过程为进行一次预测(首次全部用随机的权重),之后通过反向传播算法来逐层逐个的使用误差函数对权重进行求导,使用求导结果来进行权重的更新,更新这里实际上是使用了梯度下降算法,后面会在详细讨论这个算法。更新权重后,再次进行正向的预测,之后用新的误差来反向传播在此更新,直到预测正确的概率达到我们的预期位置。本例演示的是一个比较简单的神经网络,当感知器较多和输出较多时,反向传播计算起来会非常麻烦。

7-关于梯度下降算法

在前面网络训练部分的介绍中,我们最终推导出一个关于误差的函数,对于每层感知器来说,我们是通过复合函数以及链式法则来其中权重参数求偏导的。我们直到,偏导数的意义是反应函数值与某个变量变化的关系,当误差为整数时,我们需要尽量让其降低,因此需要计算此点的梯度后,向梯度的反方向进行变化。权重的更新方式可以表示为:

W` = W - α * L

其中L为梯度,乘以的α被称为学习率,即用来控制误差下降的速度。学习率并非越大越好,过大的学习率可以产生过冲,但是过低的学习率会使训练的收敛过程很慢。误差关于权重的函数是一个多维的函数,多维本身很难理解,但是将其类比在三维平面上就比较好理解了。例如下图所示:

image.png

此三维空间中的平面中有凹有凸,当我们随机取一组权重参数时,误差函数可能落在平面上的任意一点,我们需要找到此处的梯度方向然后进行下降,学习率小会使的每次迭代所优化的步长都很小,很难快速到达最终的低点,学习率过大又可能越过了低点,导致每次迭代效果来回震荡。

因此要使整个神经网络的训练效率提高,对学习率的选择是非常重要的。如何指定学习率,也有一些成熟的算法,下图演示了各种算法中迭代轮数与误差函数的收敛速度的关系:

image.png

批量梯度下降法是比较原始的梯度下降形式,在一次迭代中使用所有样本来进行梯度的更新。梯度使用每个样本梯度的平均值。

随机梯度下降法是指每次迭代时,都使用一个样本来进行权重参数的优化。

小批量梯度下降法是批量梯度下降法与随机梯度下降法的折中,使用一个以上而又不是全部的训练样本来进行参数优化。

动量随机梯度下降法是对随机梯度下降法的简单优化,其使用上一步的梯度与当前梯度的加权平均值来进行参数优化,避免过早的稳定,可以加快下降的速度。

PRrop法会忽略梯度的震荡,直接观察梯度的符号,如果与上一步的相当,则放大为1.2倍,如果与上一步相反,则缩小为0.5倍。简单理解,如果步长未越过最小值,则继续增大步长,如果越过了最小值,则减少步长。

Adam是一种自适应的时刻估计方法,较为复杂,但其收敛很快。

8-结语

最后,关于为何人工神经网络理论上可以模拟任何的线性与非线性函数,应该是有数学上的严格证明,对于拟合过程和原理,很难说的清楚。我们更关心的是如何运用相关理论和技术,开发出有强大智能的应用。本文中介绍的模型预测过程涉及的计算和训练过程中参数的优化方法,看上去很繁琐,其实都非常容易使用编程的方式实现,并且有许多成熟的神经网络库可以直接使用,这些后续在的文章再讨论。希望本文能带给你一些收获,欢迎私信指点~

目录
相关文章
|
12天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
垃圾识别分类系统。本系统采用Python作为主要编程语言,通过收集了5种常见的垃圾数据集('塑料', '玻璃', '纸张', '纸板', '金属'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对图像数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。然后使用Django搭建Web网页端可视化操作界面,实现用户在网页端上传一张垃圾图片识别其名称。
43 0
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
|
16天前
|
机器学习/深度学习 人工智能 安全
人工智能与机器学习在网络安全中的应用
人工智能与机器学习在网络安全中的应用
40 0
|
1月前
|
机器学习/深度学习 算法 数据建模
计算机前沿技术-人工智能算法-生成对抗网络-算法原理及应用实践
计算机前沿技术-人工智能算法-生成对抗网络-算法原理及应用实践
30 0
|
1月前
|
机器学习/深度学习 人工智能 算法
【人工智能】人工智能的历史发展与机器学习和神经网络
【人工智能】人工智能的历史发展与机器学习和神经网络
64 0
|
3月前
|
机器学习/深度学习 人工智能 算法
【眼疾病识别】图像识别+深度学习技术+人工智能+卷积神经网络算法+计算机课设+Python+TensorFlow
眼疾识别系统,使用Python作为主要编程语言进行开发,基于深度学习等技术使用TensorFlow搭建ResNet50卷积神经网络算法,通过对眼疾图片4种数据集进行训练('白内障', '糖尿病性视网膜病变', '青光眼', '正常'),最终得到一个识别精确度较高的模型。然后使用Django框架开发Web网页端可视化操作界面,实现用户上传一张眼疾图片识别其名称。
87 9
【眼疾病识别】图像识别+深度学习技术+人工智能+卷积神经网络算法+计算机课设+Python+TensorFlow
WK
|
2月前
|
机器学习/深度学习 自然语言处理 算法
PSO算法和人工神经网络有什么不同
PSO算法(粒子群优化)与人工神经网络(ANN)在原理、应用及优化方式上差异显著。PSO模拟鸟群行为,通过粒子协作在解空间中搜索最优解;而ANN模仿大脑神经元结构,通过训练学习输入输出映射,适用于模式识别、图像处理等领域。PSO主要用于优化问题,实时性高,结果直观;ANN则在处理复杂非线性关系方面更强大,但结构复杂,训练耗时长,结果解释性较差。实际应用中需根据需求选择合适技术。
WK
26 0
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
探索人工智能的未来:深度学习与神经网络的融合
在人工智能的广阔天地中,深度学习和神经网络如同两股激流,汇聚成推动技术进步的巨浪。本文将深入探讨这两种技术如何相辅相成,共同塑造未来人工智能的发展轨迹。我们将从基础概念出发,逐步揭示它们在实际应用中的协同效应,以及这种融合如何引领我们步入一个更加智能化的未来。
|
4月前
|
机器学习/深度学习 传感器 人工智能
探索人工智能的未来:深度学习与神经网络的融合
随着科技的进步,人工智能已经逐渐渗透到我们日常生活的方方面面。本文将深入探讨深度学习和神经网络的结合如何推动AI技术的发展,以及这种结合对未来技术趋势的影响。我们将通过具体的实例来揭示这一领域的最新研究成果,并分析其在实际应用中的潜在价值。
|
4月前
|
机器学习/深度学习 人工智能 安全
人工智能在网络安全领域的应用与挑战
随着人工智能技术的飞速发展,其在网络安全领域的潜在价值逐渐显现。AI技术不仅能够提高网络威胁检测的精确度和响应速度,还能预测并防御未来潜在的攻击。然而,AI技术的引入也带来了新的安全风险,如模型欺骗、数据泄露等。本文将探讨AI在网络安全中的应用及其带来的挑战。
|
4月前
|
机器学习/深度学习 人工智能 监控
下一篇
无影云桌面