多层感知器(神经网络)与激活函数 | 学习笔记

简介: 快速学习多层感知器(神经网络)与激活函数

开发者学堂课程【Tensorflow2.0入门与实战多层感知器(神经网络)与激活函数】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址https://developer.aliyun.com/learning/course/664/detail/11101


多层感知器(神经网络)与激活函数


基本介绍

一.多层感知器

二.激活函数


一.多层感知器

1.单个神经元(二分类)

image.png

有x1、x2、x3、w1、w2、w3三个特征加一个偏置然后得到一个值输出

2.多个神经元(多分类)

image.png

x1、x2、x3乘以偏置加权重得到输出一,输出二,输出三。中间只有一层,叫做浅层学习。

单层神经元的缺陷:无法拟合“异或”运算

异或问题看似简单,使用单层的神经元确实没有办法解决。

image.png

神经元要求数据必须是线性可分的

异或问题无法找到一条直线分割两个类

这个问题使神经网络的发展停滞了很多年

3.神经元的启发

大脑中的神经元是一个连一个的,互相连接网络很深。当一个信号达到一定的强度,神经元被激活将信号向下传递。达到的强度不够,神经元不会向下传递。

神经元的特点:互相连接,网络很深;当信号达到一定强度会传递信号。

4.多层感知器

生物的神经元一层一层连接起来,当神经信号达到某一个条件,这个神经元就会激活,然后继续传递信息下去。

为了继续使用神经网络解决这种不具备线性可分性的问题,采取在神经网络的输入端和输出端之间插入更多的神经元。

image.png

x1、x2两个输入之间添加权重添加偏置连接到隐含层,通过隐含层连接输出层在输出,这种网络叫做多层感知器。

 

二. 激活函数

1.relu

image.png激活会对网络带来非线性使得网络可以拟合非线性的问题。

绝大多数激活函数用 relu 激活,如果信号为x,当x<0时将信号屏蔽输出为0,当x>0时原样输出。

2.sigmoid

image.png

当输入x带入公式计算,y值的输出范围为-1到1。

当x靠近0时变化很大,x远大于0或远小于0时变化较小,

传递的梯度很小。

3.tanh

image.png

y值从-1到+1

4.Leak relu

image.png

Leak 在负值中会传递一些,relu会直接屏蔽掉数值。

相关文章
|
2月前
|
Ubuntu 网络安全 图形学
Ubuntu学习笔记(二):ubuntu20.04解决右上角网络图标激活失败或者消失,无法连接有线问题。
在Ubuntu 20.04系统中解决网络图标消失和无法连接有线网络问题的方法,其中第三种方法通过检查并确保Windows防火墙中相关服务开启后成功恢复了网络连接。
752 0
Ubuntu学习笔记(二):ubuntu20.04解决右上角网络图标激活失败或者消失,无法连接有线问题。
用MASM32按Time Protocol(RFC868)协议编写网络对时程序中的一些有用的函数代码
用MASM32按Time Protocol(RFC868)协议编写网络对时程序中的一些有用的函数代码
|
2月前
|
机器学习/深度学习 编解码
深度学习笔记(三):神经网络之九种激活函数Sigmoid、tanh、ReLU、ReLU6、Leaky Relu、ELU、Swish、Mish、Softmax详解
本文介绍了九种常用的神经网络激活函数:Sigmoid、tanh、ReLU、ReLU6、Leaky ReLU、ELU、Swish、Mish和Softmax,包括它们的定义、图像、优缺点以及在深度学习中的应用和代码实现。
173 0
深度学习笔记(三):神经网络之九种激活函数Sigmoid、tanh、ReLU、ReLU6、Leaky Relu、ELU、Swish、Mish、Softmax详解
|
2月前
|
机器学习/深度学习 数据可视化 Linux
Seaborn可视化学习笔记(一):可视化神经网络权重分布情况
这篇文章是关于如何使用Seaborn库来可视化神经网络权重分布的教程,包括函数信息、测试代码和实际应用示例。
60 0
|
3月前
|
机器学习/深度学习 自动驾驶 搜索推荐
深度学习之探索神经网络、感知器与损失函数
在当今的数字化时代,深度学习作为一种强大的机器学习技术,正在迅速改变着我们的生活方式。无论是智能推荐系统、自动驾驶车辆还是语音识别应用,深度学习都在背后默默地发挥作用。
59 1
|
2月前
|
机器学习/深度学习 数据可视化 算法
激活函数与神经网络------带你迅速了解sigmoid,tanh,ReLU等激活函数!!!
激活函数与神经网络------带你迅速了解sigmoid,tanh,ReLU等激活函数!!!
|
4月前
|
机器学习/深度学习 自然语言处理 并行计算
【深度学习+面经】Transformer 网络学习笔记
Transformer模型的核心概念、优缺点以及在多个领域的应用,并提供了针对Transformer架构的面试问题及答案。
194 2
|
4月前
|
机器学习/深度学习 算法
神经网络中激活函数的重要性
【8月更文挑战第23天】
62 0
|
4月前
|
机器学习/深度学习 Shell 计算机视觉
一文搞懂 卷积神经网络 卷积算子应用举例 池化 激活函数
这篇文章通过案例详细解释了卷积神经网络中的卷积算子应用、池化操作和激活函数,包括如何使用卷积算子进行边缘检测和图像模糊,以及ReLU激活函数如何解决梯度消失问题。
|
5月前
|
机器学习/深度学习
神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!
【7月更文挑战第14天】研究表明,层归一化(LayerNorm)可能具备非线性表达能力,挑战了神经网络对激活函数的依赖。在LN-Net结构中,仅使用线性层与LayerNorm就能实现复杂分类,其VC维度下界证明了非线性表达。尽管如此,是否能完全替代激活函数及如何有效利用这一特性仍需更多研究。[arXiv:2406.01255]
68 5
下一篇
DataWorks