1 实验内容
不使用Keras,Tensorfolow 或Pytorch 等框架,仅使用Numpy,Scipy 和Matplotlib 等Python 常用科学计算库,完成单隐藏层的全连接神经网络(和之后要讲的卷积神经网络形成对比),实现Scikit-learn 里的half moons 数据集的分类。
2 实验要求
使用Scikit-learn 加载half moon 数据,实现数据的可视化
构建单隐藏层的全连接神经网络,参考课件的内容,推导正、反向传播并给出代码实现
考虑不同的激活函数、不同的隐藏层宽度对网络训练和性能的影响
需要具备的功能或者模块:数据读取、加载,正反向传播,使用梯度下降训练模型(可采用mini-batch 的随机梯度下降方法),模型训练、测试性能指标的显示和评估
PPT 汇报(每组3min),提交2-4 页实验报告,需简要叙述方法原理、实验步骤、方法参数讨论、实验结果;需明确说明组员分工、给出组内排名(可标注同等贡献#)。
3 实验原理
多层感知机:
多层感知机(MLP,Multilayer Perceptron)也叫人工神经网络(ANN,Artificial Neural Network),除了输入输出层,它中间可以有多个隐层,最简单的MLP只含一个隐层,即三层的结构,如下图:
前向传播与后向传播
神经网络实际上就是一个输入为输出为的映射函数:,只要我们通过训练得到较优的参数,那么对于任何输入我们都能得到一个与之对应的输出,至于是不是正确的,误差有多大,那就是效果的问题了。
**前向传播( Forward propagation)与反向传播( Back propagation)**是神经网络中的两个基础概念,其实模拟的就是人脑中神经元的正向传导和反向反馈信号回路。
这是一场以误差 Error为主导的反向传播 Back Propagation运动,目的是得到最优的全局参数矩阵:
前向传播输入信号直至输出产生误差,反向传播误差更新重矩阵
这句话很好地形容了信息的流动方向,权重得以在信息双向流动中得到优化,可以理解为一个带反馈校正循环的电子信号处理系统。
我们可以使用梯度下降法去优化误差。如果没有隐藏层,那么输岀层接受输入层传递的数据并产生结果,通过计算产生的误差,可以直接将误差反馈给输出层,知道参数向更优的方向调整。也就是说,此时,可以直接通过误差进行参数优化。
但是如果加入隐藏层,误差可以被直接反馈给输出层,即直接通过误差进行参数优化;然而隐藏层则不能得到误差反馈,即不能够被直接优化。反向传播算法使得误差可以被传递到隐藏层,进而产生间接误差,则隐藏层左侧的权重矩阵可以通过间接误差得到权重更新,进行迭代优化。