机器学习中的数学原理——逻辑回归

简介: 机器学习中的数学原理——逻辑回归

什么是逻辑回归算法

逻辑回归 (Logistic Regression)是一种 基于概率的模式识别算法,虽然名字中带"回归",但实际上是一种分类方法,在实际应用中,逻辑回归可以说是应用最广泛的机器学习算法之一。
  • 案例分析

我们还是用刚才按横向和纵向对图像进行分类的例子,接下来要讲的算法与感知机的方法不一样,所以先考虑线性可分的问题比较好,这样有助于我们掌握基础知识。接下来要讲的算法与感知机的不同之处在于,它是把分类作为概率来考虑的。这里设横向的值为 1、纵向的值为 0。

2.1sigmoid 函数

你还记得在学习回归时定义过这样一个带参数的函数吗?

这是通过最速下降法或随机梯度下降法来学习参数 θ的表达式。使用这个 θ 能够求出对未知数据 x 的输出值。这里的思路是一样的。我们需要能够将未知数据分类为某个类别的函数 fθ(x)。这是和感知机的判别函数 fw(x)作用相同的东西,使用与回归时同样的参数 θ,函数的形式就是这样的。

exp 的全称是 exponential,即指数函数。exp(x) 与 ex 含义相同,只是写法不同。e 是自然常数,具体的值为 2.7182 . . .。也就是说 exp(−θTx) 可以换成 e−θTx 这样的写法。指数部分如果过于复杂,上标的字号太小会很难看清,所以这时候使用 exp 写法的情况比较多。

这个函数的名字叫 sigmoid 函数,设 θTx 为横轴,fθ(x)为纵轴,那么它的图形是这样的。

θTx = 0 时 fθ(x) = 0.5,以及 0 < fθ(x) < 1 是 sigmoid 函数的两个特征。首先,刚才说到我们要用概率来考虑分类。因为 sigmoid 函数的取值范围是 0 < fθ(x) < 1所以它可以作为概率来使用。

2.2决策边界

刚才说到把表达式 的 fθ(x)当作概率来使用,那么接下来我们就把未知数据 x 是横向图像的概率作为 fθ(x)。其表达式是这样的

P 中的竖线是条件概率,这是在给出 x 数据时 y = 1,即图像为横向的概率。fθ(x) = 0.7 的意思是图像为横向的概率是 70% 。一般来说这样就可以把 x 分类为横向了,fθ(x) = 0.2 是说横向的概率为 20%、纵向的概率为 80%,这种状态可以分类为纵向我们是以 0.5 为阈值,然后把 fθ(x) 的结果与它相比较,从而分类横向或纵向的

之前我们所谈及的sigmoid函数中,也出现了0.5,在 θTx = 0 时,fθ(x) = 0.5

从图中可以看出在 fθ(x) ⩾ 0.5 时,θTx ⩾ 0,反过来在 fθ(x) < 0.5 时,θTx < 0。

所以我们可以把上面表达式改写为这种形式:

下面我们像学习感知机时那样,设横轴为图像的宽(x1)、纵轴为图像的高(x2),并且画出图来考虑。然后像学习回归时那样,先随便确定 θ 再具体地去考虑。比如当 θ 是这样的向量时,我们来画一下 θTx ⩾ 0 的图像。

这个不等式表示的范围也就是图像被分类为横向的范围了。

那分类为纵向的范围就在另一侧:

也就是说,我们将 θTx = 0 这条直线作为边界线,就可以把这条线两侧的数据分类为横向和纵向了。这样用于数据分类的直线称为决策边界。实际应用时这个决策边界似乎不能正确地分类图像

为了求得正确的参数 θ 而定义目标函数,进行微分,然后求参数的更新表达式。这种算法就称为逻辑回归!


相关文章
|
3天前
|
机器学习/深度学习 算法 搜索推荐
【机器学习】机器学习的基本概念、算法的工作原理、实际应用案例
机器学习是人工智能的一个分支,它使计算机能够在没有明确编程的情况下从数据中学习并改进其性能。机器学习的目标是让计算机自动学习模式和规律,从而能够对未知数据做出预测或决策。
8 2
|
3天前
|
机器学习/深度学习 人工智能 算法
【人工智能】机器学习、分类问题和逻辑回归的基本概念、步骤、特点以及多分类问题的处理方法
机器学习是人工智能的一个核心分支,它专注于开发算法,使计算机系统能够自动地从数据中学习并改进其性能,而无需进行明确的编程。这些算法能够识别数据中的模式,并利用这些模式来做出预测或决策。机器学习的主要应用领域包括自然语言处理、计算机视觉、推荐系统、金融预测、医疗诊断等。
7 1
|
7天前
|
机器学习/深度学习 人工智能 关系型数据库
【机器学习】Qwen2大模型原理、训练及推理部署实战
【机器学习】Qwen2大模型原理、训练及推理部署实战
44 0
【机器学习】Qwen2大模型原理、训练及推理部署实战
|
14天前
|
机器学习/深度学习 算法
【机器学习】SVM面试题:简单介绍一下SVM?支持向量机SVM、逻辑回归LR、决策树DT的直观对比和理论对比,该如何选择?SVM为什么采用间隔最大化?为什么要将求解SVM的原始问题转换为其对偶问题?
支持向量机(SVM)的介绍,包括其基本概念、与逻辑回归(LR)和决策树(DT)的直观和理论对比,如何选择这些算法,SVM为何采用间隔最大化,求解SVM时为何转换为对偶问题,核函数的引入原因,以及SVM对缺失数据的敏感性。
30 3
|
14天前
|
机器学习/深度学习 运维 算法
深入探索机器学习中的支持向量机(SVM)算法:原理、应用与Python代码示例全面解析
【8月更文挑战第6天】在机器学习领域,支持向量机(SVM)犹如璀璨明珠。它是一种强大的监督学习算法,在分类、回归及异常检测中表现出色。SVM通过在高维空间寻找最大间隔超平面来分隔不同类别的数据,提升模型泛化能力。为处理非线性问题,引入了核函数将数据映射到高维空间。SVM在文本分类、图像识别等多个领域有广泛应用,展现出高度灵活性和适应性。
67 2
|
14天前
|
机器学习/深度学习 算法
【机器学习】支持向量机SVM、逻辑回归LR、决策树DT的直观对比和理论对比,该如何选择(面试回答)?
文章对支持向量机(SVM)、逻辑回归(LR)和决策树(DT)进行了直观和理论上的对比,并提供了在选择这些算法时的考虑因素,包括模型复杂度、损失函数、数据量需求、对缺失值的敏感度等。
25 1
|
14天前
|
机器学习/深度学习
【机器学习】逻辑回归LR的推导及特性是什么,面试回答?
逻辑回归(LR)的推导和特性的详细解释,包括其作为二分类模型的基本原理、损失函数(对数损失函数),以及决策树的特性,如不需要先验假设、高效性、易解释性、对缺失值的不敏感性,以及对冗余属性的鲁棒性。
22 1
|
7天前
|
机器学习/深度学习 数据采集 物联网
【机器学习】Google开源大模型Gemma2:原理、微调训练及推理部署实战
【机器学习】Google开源大模型Gemma2:原理、微调训练及推理部署实战
26 0
|
7天前
|
机器学习/深度学习 人工智能 自然语言处理
【机器学习】GLM4-9B-Chat大模型/GLM-4V-9B多模态大模型概述、原理及推理实战
【机器学习】GLM4-9B-Chat大模型/GLM-4V-9B多模态大模型概述、原理及推理实战
30 0
|
1月前
|
机器学习/深度学习 数据采集 人工智能

热门文章

最新文章