【深度学习】笔记2-神经网络

简介: 【深度学习】笔记2-神经网络

2. 神经网络


problem:

前向后向


偏置权重的数量取决于后一层的神经元的数量(不包括后一层的偏置神经元“1”)


图像的通道数


正则化的意义


对于线性可分问题,第 2 章的感知机是可以利用数据自动学习的。 根据“感知机收敛定理”,通过有限次数的学习,线性可分问题是可 解的。但是,非线性可分问题则无法通过(自动)学习来解决。


对这个自动有些疑惑


(9,)的维度是1, (1,9)的维度是2,但形状却是一样的,都是一行。


之所以不能用识别精度作为指标,是因为这样一来绝大多数地方的导数都会变为 0,导致参数无法更新。1)微调参数可能识别精度根本不会变化。2)即使精度变化,变化是离散的。


如果使用了阶跃函数,那么即便将损失函数作为指标,参数的微小变化也会被阶跃函数抹杀,导致损失函数的值不会产生任何变化


曲面是怎么画的


体会:

在输入层加入一个偏置神经元的方法,和《动手学深度学习》中将bia作为参数的方法是不一样的。


为什么一层的b也要有b1,b2,b3······呢?而不是一个b?从多维的角度思考


softmax结果数值不稳定:超大值溢出和截断。(解决这个问题的办法有点秀)


摘抄:

恒等函数会将输入按原样输出


还需要把保存为 NumPy 数组的图像数据转换为 PIL 用

的数据对象,这个转换处理由 Image.fromarray() 来完成


批处理


批处理对计算机的运算大有利处,可以大幅缩短每张图像的处理时

间。那么为什么批处理可以缩短处理时间呢?这是因为大多数处理

数值计算的库都进行了能够高效处理大型数组运算的最优化。并且,

在神经网络的运算中,当数据传送成为瓶颈时,批处理可以减轻数

据总线的负荷(严格地讲,相对于数据读入,可以将更多的时间用在

计算上)。也就是说,批处理一次性计算大型数组要比分开逐步计算

各个小型数组速度更快。


矩阵的第 0 维是列方向,第 1 维是行方向


机器学习:


深 度 学 习 有 时 也 称 为 端 到 端 机 器 学 习(end-to-end machine

learning)。这里所说的端到端是指从一端到另一端的意思,也就是

从原始数据(输入)中获得目标结果(输出)的意思。


为了正确评价模型的泛化能力,就必须划分训练数据和测试数据。


将正确解标签表示为 1,其他标签表示为 0 的表示方法称为 one-hot 表示


函数内部在计算 np.log 时,加上了一个微小值 delta。这是因为,当出现 np.log(0) 时,np.log(0) 会变为负无限大的 -inf,这样一来就会导致后续计算无法进行。


所谓数值微分就是用数值方法近似求解函数的导数的过程


单词:

flatten 展平


数值微分(numerical differentiation)


参考:

深度学习入门:基于Python的理论与实现 (斋藤康毅)

相关文章
|
1月前
|
机器学习/深度学习 数据采集 人工智能
m基于深度学习网络的手势识别系统matlab仿真,包含GUI界面
m基于深度学习网络的手势识别系统matlab仿真,包含GUI界面
41 0
|
1月前
|
机器学习/深度学习 算法 计算机视觉
基于yolov2深度学习网络的视频手部检测算法matlab仿真
基于yolov2深度学习网络的视频手部检测算法matlab仿真
|
1月前
|
机器学习/深度学习 人工智能 TensorFlow
人工智能与图像识别:基于深度学习的卷积神经网络
人工智能与图像识别:基于深度学习的卷积神经网络
35 0
|
15天前
|
机器学习/深度学习 算法 PyTorch
【动手学深度学习】深入浅出深度学习之线性神经网络
【动手学深度学习】深入浅出深度学习之线性神经网络
57 9
|
1月前
|
机器学习/深度学习 并行计算 算法
m基于深度学习网络的瓜果种类识别系统matlab仿真,带GUI界面
m基于深度学习网络的瓜果种类识别系统matlab仿真,带GUI界面
32 0
|
23小时前
|
机器学习/深度学习 算法 计算机视觉
m基于Yolov2深度学习网络的人体喝水行为视频检测系统matlab仿真,带GUI界面
MATLAB 2022a中使用YOLOv2算法对avi视频进行人体喝水行为检测,结果显示成功检测到目标。该算法基于全卷积网络,通过特征提取、锚框和损失函数优化实现。程序首先打乱并分割数据集,利用预训练的ResNet-50和YOLOv2网络结构进行训练,最后保存模型。
11 5
|
3天前
|
机器学习/深度学习 传感器 数据可视化
MATLAB用深度学习长短期记忆 (LSTM) 神经网络对智能手机传感器时间序列数据进行分类
MATLAB用深度学习长短期记忆 (LSTM) 神经网络对智能手机传感器时间序列数据进行分类
19 1
MATLAB用深度学习长短期记忆 (LSTM) 神经网络对智能手机传感器时间序列数据进行分类
|
8天前
|
机器学习/深度学习 数据可视化 测试技术
深度学习:Keras使用神经网络进行简单文本分类分析新闻组数据
深度学习:Keras使用神经网络进行简单文本分类分析新闻组数据
21 0
|
9天前
|
机器学习/深度学习 API 算法框架/工具
R语言深度学习:用keras神经网络回归模型预测时间序列数据
R语言深度学习:用keras神经网络回归模型预测时间序列数据
17 0
|
9天前
|
机器学习/深度学习 数据采集 TensorFlow
R语言KERAS深度学习CNN卷积神经网络分类识别手写数字图像数据(MNIST)
R语言KERAS深度学习CNN卷积神经网络分类识别手写数字图像数据(MNIST)
29 0