第二周神经网络基础

简介: 第二周神经网络基础

2.1 二分分类



使用二分分类来预测图片中是否有猫


20.png

二分分类


21.png

常见的符号表示


x:代表特征向量

y:代表标签

m:代表样本(Mtrain)的数量

矩阵X:是一个nx '*'m的矩阵

矩阵Y:1xm的矩阵


2.2 logistic回归


逻辑回归是一个用在监督学习问题的算法,这是所有输出y的结果为0或者1。逻辑回归的目标就是最小化预测结果与训练数据之间的误差。


22.png


23.png


2.3 logistic 回归损失函数


损失函数L用来衡量算法的运行情况,来衡量你的预测输出值y帽和y的实际值有多接近


24.png

logistic 回归损失函数


2.4 梯度下降


来训练w和b,获得使得J(w,b)最小的参数


25.png


2.5 导数


2.14 向量化logistic 回归的输出


26.png


27.png


2.15 Python中的广播


import numpy as np
A=np.array([
    [56.0,0.0,4.4,68.0],
    [1.2,104.0,52.0,8.0],
    [1.8,135.0,99.0,0.9]
])
print(A)

[[  56.     0.     4.4   68. ]
 [   1.2  104.    52.     8. ]
 [   1.8  135.    99.     0.9]]

cal=A.sum(axis=0)
print(cal)

[  59.   239.   155.4   76.9]

percentage=100*A/cal.reshape(1,4)
print(percentage)

[[ 94.91525424   0.           2.83140283  88.42652796]
 [  2.03389831  43.51464435  33.46203346  10.40312094]
 [  3.05084746  56.48535565  63.70656371   1.17035111]]


下面是几个例子


28.png

2.16 关于python/note的说明


29.png


2.17jupyter/Ipython的说明



相关文章
|
5月前
|
机器学习/深度学习 自然语言处理
LeCun新作:神经网络在实践中的灵活性到底有多大?
【7月更文挑战第23天】论文探究神经网络实践灵活性,由Ravid Shwartz-Ziv等与Yann LeCun合作。挑战理论极限,实验证明网络灵活性受限于优化器与正则化,仅达局部最优,尤其CNN在参数效率上超越MLP与ViT。SGD展现高于全批量梯度下降的灵活性。研究局限在于聚焦图像分类与表格数据,未覆盖NLP或RL领域。[论文](https://arxiv.org/pdf/2406.11463)揭示实践中的神经网络并非如理论上全能。
63 3
|
5月前
|
机器学习/深度学习
深度之眼(二十九)——神经网络基础知识(四)-循环神经网络
深度之眼(二十九)——神经网络基础知识(四)-循环神经网络
56 13
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
深度之眼(二十六)——神经网络基础知识(一)
深度之眼(二十六)——神经网络基础知识(一)
|
7月前
|
机器学习/深度学习 存储 人工智能
一阶优化算法启发,北大林宙辰团队提出具有万有逼近性质的神经网络架构的设计方法
【4月更文挑战第19天】北京大学林宙辰团队在深度学习领域取得突破,提出基于一阶优化算法的神经网络设计方法,构建具有万有逼近性质的模型,提升训练速度和泛化能力。该方法利用一阶导数信息,高效处理大规模问题。虽然面临非光滑优化和收敛速度挑战,但团队通过正则化和自适应学习率等策略进行改进,相关研究在多个标准数据集上表现出色。
98 1
|
机器学习/深度学习 计算机视觉 网络架构
13层网络如何拿下83%精度?极简神经网络架构VanillaNet作者亲自解读
13层网络如何拿下83%精度?极简神经网络架构VanillaNet作者亲自解读
147 0
|
机器学习/深度学习 算法 数据挖掘
# 【深度学习】:《PyTorch入门到项目实战》第三天:简洁代码实现线性神经网络(附代码)
在上一节我们学习了如何使用pytorch从零实现一个线性回归模型。包括生成数据集,构建损失函数,==<corlor>梯度下降==优化求解参数等。和很多其他机器学习框架一样,pytorch中也包含了许多可以自动实现机器学习的包。本章介绍一些如何使用`nn`简便的实现一个线性回归模型
 # 【深度学习】:《PyTorch入门到项目实战》第三天:简洁代码实现线性神经网络(附代码)
|
机器学习/深度学习 人工智能
神经网络入门-宝石分类
神经网络入门-宝石分类
329 0
神经网络入门-宝石分类
|
机器学习/深度学习 算法 测试技术
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.1)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.1)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.1)
|
机器学习/深度学习 存储
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.4)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.4)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.4)
|
机器学习/深度学习 算法
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.2)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.2)
【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.2)