多层感知器(神经网络)与激活函数 | 学习笔记

简介: 快速学习多层感知器(神经网络)与激活函数

开发者学堂课程【Tensorflow2.0入门与实战多层感知器(神经网络)与激活函数】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址https://developer.aliyun.com/learning/course/664/detail/11101


多层感知器(神经网络)与激活函数


基本介绍

一.多层感知器

二.激活函数


一.多层感知器

1.单个神经元(二分类)

image.png

有x1、x2、x3、w1、w2、w3三个特征加一个偏置然后得到一个值输出

2.多个神经元(多分类)

image.png

x1、x2、x3乘以偏置加权重得到输出一,输出二,输出三。中间只有一层,叫做浅层学习。

单层神经元的缺陷:无法拟合“异或”运算

异或问题看似简单,使用单层的神经元确实没有办法解决。

image.png

神经元要求数据必须是线性可分的

异或问题无法找到一条直线分割两个类

这个问题使神经网络的发展停滞了很多年

3.神经元的启发

大脑中的神经元是一个连一个的,互相连接网络很深。当一个信号达到一定的强度,神经元被激活将信号向下传递。达到的强度不够,神经元不会向下传递。

神经元的特点:互相连接,网络很深;当信号达到一定强度会传递信号。

4.多层感知器

生物的神经元一层一层连接起来,当神经信号达到某一个条件,这个神经元就会激活,然后继续传递信息下去。

为了继续使用神经网络解决这种不具备线性可分性的问题,采取在神经网络的输入端和输出端之间插入更多的神经元。

image.png

x1、x2两个输入之间添加权重添加偏置连接到隐含层,通过隐含层连接输出层在输出,这种网络叫做多层感知器。

 

二. 激活函数

1.relu

image.png激活会对网络带来非线性使得网络可以拟合非线性的问题。

绝大多数激活函数用 relu 激活,如果信号为x,当x<0时将信号屏蔽输出为0,当x>0时原样输出。

2.sigmoid

image.png

当输入x带入公式计算,y值的输出范围为-1到1。

当x靠近0时变化很大,x远大于0或远小于0时变化较小,

传递的梯度很小。

3.tanh

image.png

y值从-1到+1

4.Leak relu

image.png

Leak 在负值中会传递一些,relu会直接屏蔽掉数值。

相关文章
|
16天前
|
机器学习/深度学习 自然语言处理 并行计算
【深度学习+面经】Transformer 网络学习笔记
Transformer模型的核心概念、优缺点以及在多个领域的应用,并提供了针对Transformer架构的面试问题及答案。
34 2
|
1月前
|
机器学习/深度学习
神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!
【7月更文挑战第14天】研究表明,层归一化(LayerNorm)可能具备非线性表达能力,挑战了神经网络对激活函数的依赖。在LN-Net结构中,仅使用线性层与LayerNorm就能实现复杂分类,其VC维度下界证明了非线性表达。尽管如此,是否能完全替代激活函数及如何有效利用这一特性仍需更多研究。[arXiv:2406.01255]
31 5
|
1月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于负相关误差函数的4集成BP神经网络matlab建模与仿真
**算法预览:** 图像显示无水印的2022a版MATLAB运行结果 **软件版本:** MATLAB 2022a **核心代码片段:** 省略展示 **理论概述:** NCL集成BP网络利用负相关提升泛化,结合多个弱模型减少错误关联。通过λ参数控制模型间负相关程度,λ&gt;0增强集成效果,提高预测准确性和系统稳健性。
|
19天前
|
存储 Java Unix
(八)Java网络编程之IO模型篇-内核Select、Poll、Epoll多路复用函数源码深度历险!
select/poll、epoll这些词汇相信诸位都不陌生,因为在Redis/Nginx/Netty等一些高性能技术栈的底层原理中,大家应该都见过它们的身影,接下来重点讲解这块内容。
|
2月前
|
机器学习/深度学习
激活函数:神经网络的生命之花
激活函数:神经网络的生命之花
激活函数:神经网络的生命之花
|
2月前
|
机器学习/深度学习 算法 Serverless
神经网络的激活函数(二)
本文介绍了神经网络中的激活函数,特别是tanh和ReLU。tanh函数将输入映射到(-1,1),以0为中心,加快了训练速度,但两侧导数为0可能导致梯度消失。ReLU函数在正区间的导数为1,解决了梯度消失问题,常用于隐藏层。softmax函数用于多分类,将输出转换为概率分布。文章还包含了代码示例,展示了这些函数的图形和导数。
|
2月前
|
机器学习/深度学习 人工智能 Serverless
【深度学习】神经网络中的激活函数:释放非线性的力量
【深度学习】神经网络中的激活函数:释放非线性的力量
85 1
|
2月前
|
机器学习/深度学习 算法
神经网络的激活函数(一)
人工神经网络( Artificial Neural Network, 简写为ANN)也简称为神经网络(NN),是一种模仿生物神经网络结构和功能的 计算模型。人脑可以看做是一个生物神经网络,由众多的神经元连接而成。各个神经元传递复杂的电信号,树突接收到输入信号,然后对信号进行处理,通过轴突输出信号。
|
2月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
|
13天前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch代码实现神经网络
这段代码示例展示了如何在PyTorch中构建一个基础的卷积神经网络(CNN)。该网络包括两个卷积层,分别用于提取图像特征,每个卷积层后跟一个池化层以降低空间维度;之后是三个全连接层,用于分类输出。此结构适用于图像识别任务,并可根据具体应用调整参数与层数。

热门文章

最新文章