Andrew Ng机器学习课程笔记--week4(神经网络)

简介: Neural Networks: Representation一、 内容概要Neural NetworkModel Representation 1Model Representation 2ApplicationsExamples and Intuitions 1Examples and Intuitions 2Multiclass Classification二、重点&难点1. Neural Network1)Model Representation 1首先需要明确一些符号的意思,以方便后面的阅读。

Neural Networks: Representation

一、 内容概要

  • Neural Network
    • Model Representation 1
    • Model Representation 2
  • Applications
    • Examples and Intuitions 1
    • Examples and Intuitions 2
    • Multiclass Classification

二、重点&难点

1. Neural Network

1)Model Representation 1

首先需要明确一些符号的意思,以方便后面的阅读。

αi(j):表示第j层的第i个激活单元(activation)
θ(j) :表示第j层映射到第j+1层的控制函数的权重矩阵。

img_f4be3cf6237105a8a391b677c4268d0b.png
如图是一个三层结构的神经网络(输入层,隐藏层、输出层),每一层的激活单元的计算表达式图中也已经写出来了。
还需要注意的是:

若神经网络在第j层有sj个单元,在j+1层有sj+1个单元,则θ(j)矩阵的维度是(sj+1,sj),之所以要加1是因为输入层和隐藏层都需要加一个bias。

如下图,θ(1)的维度是(4, 3)

img_50783ce676da3fc0a186776a79278e9c.png

2) Model Representation 2

在上面内容的基础上我们继续抽象化,向量化,使得神经网络计算表达式看起来更加简洁(但是更加抽象了。。。)

突然发现Coursera上的数学公式是可以复制的。。。。简直不要太舒服,终于不用自己敲键盘了。。。问我方法?右键即可。

复制MathJax方法

  • 神经网络结构示例

a(2)1=g(Θ(1)10x0+Θ(1)11x1+Θ(1)12x2+Θ(1)13x3)a(2)2=g(Θ(1)20x0+Θ(1)21x1+Θ(1)22x2+Θ(1)23x3)a(2)3=g(Θ(1)30x0+Θ(1)31x1+Θ(1)32x2+Θ(1)33x3)hΘ(x)=a(3)1=g(Θ(2)10a(2)0+Θ(2)11a(2)1+Θ(2)12a(2)2+Θ(2)13a(2)3)

  • 向量化

z(j)k 来向量化g()函数内的值,例如 z(2)k=Θ(1)k,0x0+Θ(1)k,1x1++Θ(1)k,nxn

a(2)1=g(z(2)1)a(2)2=g(z(2)2)a(2)3=g(z(2)3)

  • z与α的关系

z(j)=Θ(j1)a(j1)


a(j)=g(z(j))

hΘ(x)=a(j+1)=g(z(j+1))

2. Applications

1)神经网络实现简单的与或非

这里只简单记录一下或(or)&非(not)

or

not







MARSGGBO原创





2017-8-3



目录
打赏
0
0
0
0
11
分享
相关文章
深度学习笔记(七):如何用Mxnet来将神经网络可视化
这篇文章介绍了如何使用Mxnet框架来实现神经网络的可视化,包括环境依赖的安装、具体的代码实现以及运行结果的展示。
96 0
深度学习笔记(九):神经网络剪枝(Neural Network Pruning)详细介绍
神经网络剪枝是一种通过移除不重要的权重来减小模型大小并提高效率的技术,同时尽量保持模型性能。
199 0
深度学习笔记(九):神经网络剪枝(Neural Network Pruning)详细介绍
深度学习笔记(四):神经网络之链式法则详解
这篇文章详细解释了链式法则在神经网络优化中的作用,说明了如何通过引入中间变量简化复杂函数的微分计算,并通过实例展示了链式法则在反向传播算法中的应用。
240 0
深度学习笔记(四):神经网络之链式法则详解
深度学习笔记(三):神经网络之九种激活函数Sigmoid、tanh、ReLU、ReLU6、Leaky Relu、ELU、Swish、Mish、Softmax详解
本文介绍了九种常用的神经网络激活函数:Sigmoid、tanh、ReLU、ReLU6、Leaky ReLU、ELU、Swish、Mish和Softmax,包括它们的定义、图像、优缺点以及在深度学习中的应用和代码实现。
552 0
深度学习笔记(三):神经网络之九种激活函数Sigmoid、tanh、ReLU、ReLU6、Leaky Relu、ELU、Swish、Mish、Softmax详解
深度学习笔记(一): 神经网络之感知机详解
深度学习笔记(一):探索感知机模型及其在神经网络中的应用。
66 0
深度学习笔记(一): 神经网络之感知机详解
小土堆-pytorch-神经网络-损失函数与反向传播_笔记
在使用损失函数时,关键在于匹配输入和输出形状。例如,在L1Loss中,输入形状中的N代表批量大小。以下是具体示例:对于相同形状的输入和目标张量,L1Loss默认计算差值并求平均;此外,均方误差(MSE)也是常用损失函数。实战中,损失函数用于计算模型输出与真实标签间的差距,并通过反向传播更新模型参数。
【绝技揭秘】Andrew Ng 机器学习课程第十周:解锁梯度下降的神秘力量,带你飞速征服数据山峰!
【8月更文挑战第16天】Andrew Ng 的机器学习课程是学习该领域的经典资源。第十周聚焦于优化梯度下降算法以提升效率。课程涵盖不同类型的梯度下降(批量、随机及小批量)及其应用场景,介绍如何选择合适的批量大小和学习率调整策略。还介绍了动量法、RMSProp 和 Adam 优化器等高级技巧,这些方法能有效加速收敛并改善模型性能。通过实践案例展示如何使用 Python 和 NumPy 实现小批量梯度下降。
73 1
LabVIEW使用机器学习分类模型探索基于技能课程的学习
LabVIEW使用机器学习分类模型探索基于技能课程的学习
76 1
【YOLOv8改进】MCA:用于图像识别的深度卷积神经网络中的多维协作注意力 (论文笔记+引入代码)
YOLO目标检测专栏介绍了YOLO的创新改进和实战案例,包括多维协作注意力(MCA)机制,它通过三分支架构同时处理通道、高度和宽度注意力,提高CNN性能。MCA设计了自适应组合和门控机制,增强特征表示,且保持轻量化。该模块适用于各种CNN,实验证明其在图像识别任务上的优越性。此外,文章还展示了如何在YOLOv8中引入MCA层的代码实现和相关任务配置。
利用机器学习算法改善电商推荐系统的效率
电商行业日益竞争激烈,提升用户体验成为关键。本文将探讨如何利用机器学习算法优化电商推荐系统,通过分析用户行为数据和商品信息,实现个性化推荐,从而提高推荐效率和准确性。
323 14

热门文章

最新文章