自适应线性单元|学习笔记

简介: 快速学习自适应线性单元

开发者学堂课程【神经网络概览及算法详解自适应线性单元】学习笔记与课程紧密联系,让用户快速学习知识

课程地址:https://developer.aliyun.com/learning/course/40/detail/928


自适应线性单元

 

内容简介:

一、自适应线性单元

二、ANDLINE &感知器

三、最小均方学习规则

四、MADALINE

 

一、自适应线性单元

第三章自适应线性单元,是1962年教授 Widrow 提出的一种自适应可调的神经网络,神经网络的学习规则时提到的一种算法LMS,最小均方算法,又名 Widrow Hoff 算法,这个算法是由这两个人联合提出的。组成自适应可调神经网络的基本单元称为自适应性单元(Adaptive Linear Neuron ,ADALINE)。 ADALINE主要作用是线性逼近一个函数式而进行模式联想。

image.png

如上图,输出层为一组向量,或一个向量的各个分量,净输出是由各个输入值乘以权重值的和。其中最大的区别在于线性激活函数,之前所介绍的均为离散型。

自适应性单元最大的特点就是函数是线性的。我们在调节训练网络的时候,需要看实际误差,因为是线性函数,所以输出为连续值。输出值与输入值的差,称为误差。

误差作为调整整个网络参数权重值的一个标准,通过这个调节,直到误差达到可接受的范围。图中的量化函数用作对输出值的分类,将连续的输出值变为离散值这样既可以做回归分析,回归预测,也可以做分类。自适应性单元是最早用于实际工程,解决实际问题的,当时主要通过电路设计来实现,主要用于自适应滤波。滤波就好比在嘈杂的环境中说话,我们把说的话提取出来,我们需要去掉许多环境的噪声,这就是滤波的一种。主要应用,例如语音识别、天气预报、信号处理等方面。

 

二、ANDLINE &感知器

二者主要区别就是有以下几点:

1.激活函数不同:ADALINE 是线性函数,而感知器是阈值函数。

2.误差含义也不同:ADALINE 误差为连续的值,而感知器的误差代表对和错。

3.误差更新不同: ADALINE 在输出最终结果前根据误差更新权重,感知器在输出最终结果后更新。

4.损失函数不同:ADALINE使用均方误差SSE作为损失函数,可最小化损失函数,感知器没有损失函数。

image.png

需要注意的是:SSE为凸函数,可以微分,求解时可用梯度下降法,但数量速度较慢。

另外,输出结果ADALINE可以输出连续值或分类值,如果量化函数输出一个分类值,而感知器只能输出分类值。

 

三、最小均方学习规则

称作LMS,学习信号为:r=dj-wTjX

权向量调整量:Wj=η(dj-wTjX)X

权值分量调整为:Wij=η(dj-wTjX)Xi

该方法的特点就是不需要求导,速度快。

image.png


四、MADALINE

之前介绍的是单层自适应性网络,Hoff 还将 ADALINE 进行推广,推出了MADALINE即多层自适应性网络。实际上是由ADALINE 和AND 逻辑器组成的可对线性可分的数据进行划分。其中有一个问题,隐藏层的误差无法计算,因为其是多层,

image.png

因此Windrow 提出了一个需要微分的算法MRII用于解决多层网络的学习问题。

相关文章
|
机器学习/深度学习
普通卷积、分组卷积和深度分离卷积概念以及参数量计算
普通卷积、分组卷积和深度分离卷积概念以及参数量计算
1196 0
普通卷积、分组卷积和深度分离卷积概念以及参数量计算
|
机器学习/深度学习 人工智能 数据可视化
ShuffleNet:极致轻量化卷积神经网络(分组卷积+通道重排)
我们引入了一个高效计算的CNN结构名字叫做shuffleNet,这个结构被设计用来解决部署算力非常有限的移动设备问题,这个新的结构使用了两个新的操作,pointwise group convolution 和 channel shuffle能够在极大减少计算量的同时保持一定的精度。我们在ImageNet classification和MS COCO目标检测数据集上做实验论证了ShuffleNet和其他的结构相比有着很好的性能。比如,相比于mobilenet,shufflenet在ImageNet 分类任务上有着更低的top-1错误率(错误率是7.8%)需要的计算量为40MFLOPs。在一个AR
1521 0
ShuffleNet:极致轻量化卷积神经网络(分组卷积+通道重排)
|
3月前
|
机器学习/深度学习
神经网络各种层的输入输出尺寸计算
神经网络各种层的输入输出尺寸计算
116 1
|
6月前
|
机器学习/深度学习 算法 计算机视觉
YOLOv8改进-论文笔记】 AKConv(可改变核卷积):任意数量的参数和任意采样形状的即插即用的卷积
AKConv是一种可改变核卷积,旨在解决传统卷积的局限,包括固定大小的卷积窗口和卷积核尺寸。AKConv提供灵活的卷积核参数和采样形状,适应不同尺度特征。其创新点包括:1)支持任意大小和形状的卷积核;2)使用新算法确定初始采样位置;3)应用动态偏移调整采样位置;4)优化模型参数和计算效率。AKConv已应用于YOLOv8,提高网络性能。相关代码可在<https://github.com/CV-ZhangXin/AKConv>找到。
|
4月前
|
机器学习/深度学习 编解码 PyTorch
【YOLOv8改进】HWD: Haar小波降采样,用于语义分割的降采样模块,减少特征图的空间分辨率
YOLOv8专栏探讨了卷积网络的改进,特别是提出了一种名为HWD的基于Haar小波的下采样模块,用于语义分割,旨在保留更多空间信息。HWD结合了无损编码和特征表示学习,提高了模型性能并减少了信息不确定性。新度量标准FEI量化了下采样的信息保留能力。论文和代码可在提供的链接中找到。核心代码展示了如何在PyTorch中实现HWD模块。
|
6月前
LabVIEW连续采样与有限采样模式
LabVIEW连续采样与有限采样模式
234 0
|
6月前
|
机器学习/深度学习 自然语言处理 算法
深圳大学提出Shift-ConvNets | 稀疏/移位操作让小卷积核也能达到大卷积核效果,且硬件友好
深圳大学提出Shift-ConvNets | 稀疏/移位操作让小卷积核也能达到大卷积核效果,且硬件友好
163 0
深圳大学提出Shift-ConvNets | 稀疏/移位操作让小卷积核也能达到大卷积核效果,且硬件友好
|
编解码 算法 数据可视化
【多重信号分类】超分辨率测向方法——依赖于将观测空间分解为噪声子空间和源/信号子空间的方法具有高分辨率(HR)并产生准确的估计(Matlab代码实现)
【多重信号分类】超分辨率测向方法——依赖于将观测空间分解为噪声子空间和源/信号子空间的方法具有高分辨率(HR)并产生准确的估计(Matlab代码实现)
110 0
|
6月前
|
算法
【MFAC】基于紧格式动态线性化的无模型自适应迭代学习控制
【MFAC】基于紧格式动态线性化的无模型自适应迭代学习控制
【MFAC】基于紧格式动态线性化的无模型自适应迭代学习控制
|
6月前
|
机器学习/深度学习 算法 网络安全
【一起撸个DL框架】5 实现:自适应线性单元
5 实现:自适应线性单元🍇 1 简介 上一篇:【一起撸个DL框架】4 反向传播求梯度 上一节我们实现了计算图的反向传播,可以求结果节点关于任意节点的梯度。下面我们将使用梯度来更新参数,实现一个简单的自适应线性单元。
55 0