【人工智能】<吴恩达-机器学习>批量梯度下降&矩阵和向量运算概述

简介: 【1月更文挑战第26天】【人工智能】<吴恩达-机器学习>批量梯度下降&矩阵和向量运算概述

 目录

一、Gradient descent for liner regression - 线性回归:

1.线性回归的梯度下降法:

2."Batch" Gradient Descent - 批量梯度下降法:

二、Matrices and Vectors - 矩阵和向量:

1.Matrix:

2.Vector:

三、矩阵&向量运算:

1.Addition and scalar multiplication - 加法和标量乘法:

2.Matrix - Vector multiplication - 矩阵&向量乘法:

3.Matrix-Matrix multiplication - 矩阵&矩阵乘法:

4.Matrix multiplication properties - 矩阵特性:

5.特殊矩阵:

6.Inverse and transpose - 矩阵逆运算&转置:

矩阵的逆:

矩阵的转置:


一、Gradient descent for liner regression - 线性回归:

image.gif编辑

我们通过使用Gradient descent algorithm(梯度下降算法)来使得J()(损失函数)最小化或局部最小化。

1.线性回归的梯度下降法:

image.gif编辑

不断重复进行迭代计算,直到最终结果收敛!

注意:Update and simultaneously

数学推导:

image.gif编辑

Convex Function:

image.gif编辑

类似于这样的回归则会有全局且是唯一的最优解。

image.gif编辑

2."Batch" Gradient Descent - 批量梯度下降法:

       "Batch": Each step of gredient descent uses all the training examples.

       梯度下降算法需要对损失函数求梯度,也就是求导。

       批量梯度下降法是最原始的形式,它的具体思路是在更新每一参数时都使用所有的样本来进行梯度的更新。

       对损失函数求偏导(对 求偏导):

image.gif编辑

       更新值:

image.gif编辑

       不断重复这一步直到算法收敛,也就是对参数不断更新,直到梯度为0。但是,我们的每次迭代更新,都要对所有的m个样本数据进行求和。

       如何检测是否已经收敛了呢?

    • 一种是检验两次迭代,如果两次迭代中,是否改变了很多,如果在两次迭代中没怎么改变,我们或许就可以说算法有可能收敛了。
    • 另一种,更常用的方法是,检验的值,如果你试图最小化的量不再发生很大的改变时,你也许就可以认为它收敛了。

    优点:

      • 一次迭代是对所有样本进行计算,此时利用矩阵进行运算,实现了并行。
      • 由全数据集确定的方向能够更好地代表样本总体,从而更准确地朝向极值所在的方向。当目标函数为凸函数时,批量梯度下降一定能够得到全局最优解。

      缺点:

        • 有时我们会遇到样本数目 m 很大的训练集合,如果有几十上百万,甚至上亿的训练样本。这意味着我们每执行一次批梯度下降算法,都要对m个样本进行求和。我们的程序也就需要检测这上百万的样本,甚至我们完成值下降的第一步都十分困难。这样会导致,训练过程很慢,花费很长的时间。

        二、Matrices and Vectors - 矩阵和向量:

        1.Matrix:

        Matrix: Rectangular array of numbers:

        image.gif编辑

        Dimension of matrix: number of rows x number of cloumns

        2.Vector:

        image.gif编辑


        三、矩阵&向量运算:

        1.Addition and scalar multiplication - 加法和标量乘法:

        Matrix Additon: 对应位置上的元素进行直接相加减(只有同型矩阵才能进行该运算)。

        Scalar Multiplication: 常数乘除上矩阵响应位置上的元素,结果所得到的矩阵型式不变。

        2.Matrix - Vector multiplication - 矩阵&向量乘法:

        image.gif编辑

        3.Matrix-Matrix multiplication - 矩阵&矩阵乘法:

        image.gif编辑

        image.gif编辑

        4.Matrix multiplication properties - 矩阵特性:

        image.gif编辑

        矩阵&矩阵间的乘法:不满足乘法交换律,满足乘法结合率!

        5.特殊矩阵:

        image.gif编辑

        image.gif编辑

        单位矩阵和任何可乘的矩阵相乘,仍然等于该矩阵!

        6.Inverse and transpose - 矩阵逆运算&转置:

        矩阵的逆:

        Not all numbers have an inverse.

        image.gif编辑

        矩阵和该矩阵的逆相乘等于单位矩阵!

        image.gif编辑

        矩阵的转置:

        image.gif编辑

        image.gif编辑


        相关文章
        |
        8天前
        |
        机器学习/深度学习 人工智能 自动驾驶
        探索人工智能的未来:机器学习如何塑造我们的世界
        【8月更文挑战第23天】在这篇文章中,我们将深入探讨人工智能(AI)的发展趋势以及它如何影响我们的生活方式。从自动驾驶汽车到智能医疗,AI正在以前所未有的速度改变世界。我们将通过具体案例和专家分析,揭示AI技术的潜在影响,并思考如何在享受其便利的同时,应对可能带来的挑战。
        24 3
        |
        14天前
        |
        机器学习/深度学习 人工智能 自然语言处理
        【机器学习】python之人工智能应用篇--代码生成技术
        代码生成技术是人工智能与软件工程交叉领域的一项重要技术,它利用机器学习、自然语言处理和其他AI算法自动编写或辅助编写计算机程序代码。这一技术旨在提高编程效率、降低错误率,并帮助非专业开发者快速实现功能。以下是代码生成技术的概述及其典型应用场景。
        25 6
        |
        11天前
        |
        机器学习/深度学习 人工智能 自然语言处理
        探索Python中的人工智能与机器学习库
        【8月更文挑战第20天】
        34 1
        |
        11天前
        |
        机器学习/深度学习 人工智能 监控
        |
        11天前
        |
        机器学习/深度学习 人工智能 自动驾驶
        探索人工智能的未来:机器学习如何重塑我们的世界
        【8月更文挑战第20天】在本文中,我们将深入探讨机器学习技术如何逐步改变我们的生活和工作方式。通过分析当前的技术应用趋势和未来预测,揭示机器学习在医疗、教育、交通等多个领域内的潜在影响。文章将不展示具体的代码示例,而是侧重于机器学习技术的实际应用及其对人类活动的深远影响。
        |
        14天前
        |
        人工智能 自然语言处理 算法
        【人工智能】TF-IDF算法概述
        TF-IDF算法,全称Term Frequency-Inverse Document Frequency(词频-逆文档频率),是一种在信息检索和文本挖掘领域广泛应用的加权技术。它通过评估一个词语在文档中的重要程度,来挖掘文章中的关键词,进而用于文本分析、搜索引擎优化等场景。其核心思想是:如果某个词或短语在一篇文章中出现的频率高(TF高),且在其他文章中很少出现(IDF也高),则认为这个词或短语具有很好的类别区分能力,适合用来代表这篇文章的内容。 具体而言,TF-IDF由两部分组成,即词频(TF)和逆文档频率(IDF)。词频(TF)指的是某一个给定的词在该文件中出现的频率。这个数值通常会被归一化
        10 3
        |
        14天前
        |
        机器学习/深度学习 人工智能 自然语言处理
        【机器学习】python之人工智能应用篇——3D生成技术
        在Python中,人工智能(AI)与3D生成技术的结合可以体现在多个方面,比如使用AI算法来优化3D模型的生成、通过机器学习来预测3D模型的属性,或者利用深度学习来生成全新的3D内容。然而,直接通过AI生成完整的3D模型(如从文本描述中生成)仍然是一个活跃的研究领域。 3D生成技术是一种通过计算机程序从二维图像或文本描述自动创建三维模型的过程。这一技术在近年来得到了飞速的发展,不仅为游戏、动画和影视行业带来了革命性的变革,还在虚拟现实、增强现实以及工业设计等多个领域展现出了巨大的应用潜力
        23 2
        |
        14天前
        |
        机器学习/深度学习 人工智能 自然语言处理
        【机器学习】python之人工智能应用篇--游戏生成技术
        游戏生成技术,特别是生成式人工智能(Generative Artificial Intelligence, 简称Generative AI),正逐步革新游戏开发的多个层面,从内容创作到体验设计。这些技术主要利用机器学习、深度学习以及程序化内容生成(Procedural Content Generation, PCG)来自动创造游戏内的各种元素,显著提高了开发效率、丰富了游戏内容并增强了玩家体验。以下是生成式AI在游戏开发中的几个关键应用场景概述
        12 2
        |
        14天前
        |
        机器学习/深度学习 人工智能 并行计算
        【人工智能】CPU、GPU与TPU:人工智能领域的核心处理器概述
        在人工智能和计算技术的快速发展中,CPU(中央处理器)、GPU(图形处理器)和TPU(张量处理器)作为核心处理器,各自扮演着不可或缺的角色。它们不仅在性能上各有千秋,还在不同的应用场景中发挥着重要作用
        48 2
        |
        14天前
        |
        机器学习/深度学习 人工智能 算法
        【人工智能】传统语音识别算法概述,应用场景,项目实践及案例分析,附带代码示例
        传统语音识别算法是将语音信号转化为文本形式的技术,它主要基于模式识别理论和数学统计学方法。以下是传统语音识别算法的基本概述
        32 2

        热门文章

        最新文章

        下一篇
        云函数