【人工智能】<吴恩达-机器学习>批量梯度下降&矩阵和向量运算概述

简介: 【1月更文挑战第26天】【人工智能】<吴恩达-机器学习>批量梯度下降&矩阵和向量运算概述

 目录

一、Gradient descent for liner regression - 线性回归:

1.线性回归的梯度下降法:

2."Batch" Gradient Descent - 批量梯度下降法:

二、Matrices and Vectors - 矩阵和向量:

1.Matrix:

2.Vector:

三、矩阵&向量运算:

1.Addition and scalar multiplication - 加法和标量乘法:

2.Matrix - Vector multiplication - 矩阵&向量乘法:

3.Matrix-Matrix multiplication - 矩阵&矩阵乘法:

4.Matrix multiplication properties - 矩阵特性:

5.特殊矩阵:

6.Inverse and transpose - 矩阵逆运算&转置:

矩阵的逆:

矩阵的转置:


一、Gradient descent for liner regression - 线性回归:

image.gif编辑

我们通过使用Gradient descent algorithm(梯度下降算法)来使得J()(损失函数)最小化或局部最小化。

1.线性回归的梯度下降法:

image.gif编辑

不断重复进行迭代计算,直到最终结果收敛!

注意:Update and simultaneously

数学推导:

image.gif编辑

Convex Function:

image.gif编辑

类似于这样的回归则会有全局且是唯一的最优解。

image.gif编辑

2."Batch" Gradient Descent - 批量梯度下降法:

       "Batch": Each step of gredient descent uses all the training examples.

       梯度下降算法需要对损失函数求梯度,也就是求导。

       批量梯度下降法是最原始的形式,它的具体思路是在更新每一参数时都使用所有的样本来进行梯度的更新。

       对损失函数求偏导(对 求偏导):

image.gif编辑

       更新值:

image.gif编辑

       不断重复这一步直到算法收敛,也就是对参数不断更新,直到梯度为0。但是,我们的每次迭代更新,都要对所有的m个样本数据进行求和。

       如何检测是否已经收敛了呢?

    • 一种是检验两次迭代,如果两次迭代中,是否改变了很多,如果在两次迭代中没怎么改变,我们或许就可以说算法有可能收敛了。
    • 另一种,更常用的方法是,检验的值,如果你试图最小化的量不再发生很大的改变时,你也许就可以认为它收敛了。

    优点:

      • 一次迭代是对所有样本进行计算,此时利用矩阵进行运算,实现了并行。
      • 由全数据集确定的方向能够更好地代表样本总体,从而更准确地朝向极值所在的方向。当目标函数为凸函数时,批量梯度下降一定能够得到全局最优解。

      缺点:

        • 有时我们会遇到样本数目 m 很大的训练集合,如果有几十上百万,甚至上亿的训练样本。这意味着我们每执行一次批梯度下降算法,都要对m个样本进行求和。我们的程序也就需要检测这上百万的样本,甚至我们完成值下降的第一步都十分困难。这样会导致,训练过程很慢,花费很长的时间。

        二、Matrices and Vectors - 矩阵和向量:

        1.Matrix:

        Matrix: Rectangular array of numbers:

        image.gif编辑

        Dimension of matrix: number of rows x number of cloumns

        2.Vector:

        image.gif编辑


        三、矩阵&向量运算:

        1.Addition and scalar multiplication - 加法和标量乘法:

        Matrix Additon: 对应位置上的元素进行直接相加减(只有同型矩阵才能进行该运算)。

        Scalar Multiplication: 常数乘除上矩阵响应位置上的元素,结果所得到的矩阵型式不变。

        2.Matrix - Vector multiplication - 矩阵&向量乘法:

        image.gif编辑

        3.Matrix-Matrix multiplication - 矩阵&矩阵乘法:

        image.gif编辑

        image.gif编辑

        4.Matrix multiplication properties - 矩阵特性:

        image.gif编辑

        矩阵&矩阵间的乘法:不满足乘法交换律,满足乘法结合率!

        5.特殊矩阵:

        image.gif编辑

        image.gif编辑

        单位矩阵和任何可乘的矩阵相乘,仍然等于该矩阵!

        6.Inverse and transpose - 矩阵逆运算&转置:

        矩阵的逆:

        Not all numbers have an inverse.

        image.gif编辑

        矩阵和该矩阵的逆相乘等于单位矩阵!

        image.gif编辑

        矩阵的转置:

        image.gif编辑

        image.gif编辑


        相关文章
        |
        机器学习/深度学习 人工智能 物联网
        通义灵码在人工智能与机器学习领域的应用
        通义灵码不仅在物联网领域表现出色,还在人工智能、机器学习、金融、医疗和教育等领域展现出广泛应用前景。本文探讨了其在这些领域的具体应用,如模型训练、风险评估、医疗影像诊断等,并总结了其提高开发效率、降低门槛、促进合作和推动创新的优势。
        通义灵码在人工智能与机器学习领域的应用
        |
        9月前
        |
        机器学习/深度学习 人工智能 运维
        阿里云PAI人工智能平台介绍、优势及收费标准,手动整理
        阿里云人工智能平台PAI是面向开发者和企业的机器学习与深度学习工程平台,提供数据标注、模型构建、训练、部署及推理优化等全链路服务。内置140+优化算法,支持PyTorch、TensorFlow等多种框架,具备高性能训练与推理能力,适用于自动驾驶、金融风控、智能推荐、智慧医疗等多个行业场景。PAI提供零代码开发、可视化建模、大模型一键部署等功能,助力企业快速构建AI应用。支持多种购买方式,如按量付费、预付费等,满足不同业务需求。
        |
        机器学习/深度学习 传感器 人工智能
        人工智能与机器学习:改变未来的力量####
        【10月更文挑战第21天】 在本文中,我们将深入探讨人工智能(AI)和机器学习(ML)的基本概念、发展历程及其在未来可能带来的革命性变化。通过分析当前最前沿的技术和应用案例,揭示AI和ML如何正在重塑各行各业,并展望它们在未来十年的潜在影响。 ####
        381 27
        |
        机器学习/深度学习 人工智能 算法
        人工智能浪潮下的编程实践:构建你的第一个机器学习模型
        在人工智能的巨浪中,每个人都有机会成为弄潮儿。本文将带你一探究竟,从零基础开始,用最易懂的语言和步骤,教你如何构建属于自己的第一个机器学习模型。不需要复杂的数学公式,也不必担心编程难题,只需跟随我们的步伐,一起探索这个充满魔力的AI世界。
        348 12
        |
        机器学习/深度学习 人工智能 算法
        探索人工智能与机器学习的融合之路
        在本文中,我们将探讨人工智能(AI)与机器学习(ML)之间的紧密联系以及它们如何共同推动技术革新。我们将深入分析这两种技术的基本概念、发展历程和当前的应用趋势,同时讨论它们面临的挑战和未来的发展方向。通过具体案例研究,我们旨在揭示AI与ML结合的强大潜力,以及这种结合如何为各行各业带来革命性的变化。
        347 11
        |
        机器学习/深度学习 Python
        机器学习中评估模型性能的重要工具——混淆矩阵和ROC曲线。混淆矩阵通过真正例、假正例等指标展示模型预测情况
        本文介绍了机器学习中评估模型性能的重要工具——混淆矩阵和ROC曲线。混淆矩阵通过真正例、假正例等指标展示模型预测情况,而ROC曲线则通过假正率和真正率评估二分类模型性能。文章还提供了Python中的具体实现示例,展示了如何计算和使用这两种工具来评估模型。
        798 8
        |
        机器学习/深度学习 人工智能 算法
        【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
        手写数字识别系统,使用Python作为主要开发语言,基于深度学习TensorFlow框架,搭建卷积神经网络算法。并通过对数据集进行训练,最后得到一个识别精度较高的模型。并基于Flask框架,开发网页端操作平台,实现用户上传一张图片识别其名称。
        799 0
        【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
        |
        机器学习/深度学习 数据采集 人工智能
        人工智能与机器学习:解锁数据洞察力的钥匙
        人工智能与机器学习:解锁数据洞察力的钥匙
        |
        机器学习/深度学习 存储 人工智能
        AI职场突围战:夸克应用+生成式人工智能认证,驱动“打工人”核心竞争力!
        在AI浪潮推动下,生成式人工智能(GAI)成为职场必备工具。文中对比了夸克、豆包、DeepSeek和元宝四大AI应用,夸克以“超级入口”定位脱颖而出。同时,GAI认证为职场人士提供系统学习平台,与夸克结合助力职业发展。文章还探讨了职场人士如何通过加强学习、关注技术趋势及培养合规意识,在AI时代把握机遇。
        |
        机器学习/深度学习 人工智能 自然语言处理
        人工智能应用领域有哪些
        本文全面探讨了人工智能(AI)的应用领域和技术核心,涵盖医疗、交通、金融、教育、制造、零售等多个行业,并分析了AI技术的局限性及规避策略。同时,介绍了生成式人工智能认证项目的意义与展望。尽管AI发展面临数据依赖和算法可解释性等问题,但通过优化策略和经验验证,可推动其健康发展。未来,AI将在更多领域发挥重要作用,助力社会进步。

        热门文章

        最新文章