逻辑回归和线性回归有何不同?

简介: 逻辑回归和线性回归有何不同?

分类和回归问题

首先我们来明确两个大类:分类问题和回归问题。


分类问题:输出变量为有限个离散变量的预测问题为分类问题


回归问题:输入变量与输出变量均为连续变量的预测问题是回归问题


举个例子:

预测明天的气温是多少度,这是一个回归问题;

预测明天是阴、晴还是雨,就是一个分类问题。


线性回归

线性回归是一个典型的回归算法,所谓的线性回归指的就是用一条直线能够较为准确的描述数据之间的关系,当有新的数据出现时,根据这条直线我们就能够预测出一个值。常见的一个问题便是房价的预测问题,如下图:该问题准确的描述了房屋面积和房屋价格之间的关系。

image.png

逻辑回归

乍一听这个名字,很多人把它当作为回归问题,其实逻辑回归是分类问题中最常用的模型之一。

逻辑回归是什么请看这里


有何异同

实际在逻辑回归中,因变量取值是一个二元分布,模型学习得出的是image.png,即给定了自变量和超参数之后,得到因变量的期望,并基于此期望来处理预测分类问题。而在现行回归中我们求解的是image.png是对我们假设的真实关系image.png的一个近似,后面的ϵϵ表示的是误差项,我们使用这个近似项来处理回归问题。


从另一个角度看逻辑回归和线性回归都使用了极大似然估计来对训练样本进行建模,线性回归使用最小二乘法,实际上就是在变量和超参数θ确定的情况下,因变量服从正态分布的假设下,使用极大似然估计的一个化简;而在逻辑回归中通过对似然函数的学习最终得到最佳参数θ。

相关文章
|
9天前
|
机器学习/深度学习 存储 自然语言处理
逻辑回归的介绍和应用
**逻辑回归简介** 逻辑回归是一种分类模型,尽管名字含“回归”,实际上是用于二分类问题的。它简单易懂,计算高效,适用于许多领域,如医学、社会科学、市场营销等。优点是模型简单,易于实现,具有强解释性。然而,它易受多重共线性影响,可能欠拟合,分类精度有限,尤其对非线性问题和数据不平衡问题处理不佳。在实践中,逻辑回归常作为其他复杂算法的基线,如用于信用卡欺诈检测和点击率预测。通过调整和与其他技术结合,如GBDT,可以提升其性能。
|
8天前
|
机器学习/深度学习 数据可视化 Python
Logistic回归(一)
这篇内容是一个关于逻辑回归的教程概览
|
8天前
|
机器学习/深度学习 算法
Logistic回归(二)
Logistic回归,又称对数几率回归,是用于分类问题的监督学习算法。它基于对数几率(log-odds),通过对数转换几率来确保预测值在0到1之间,适合于二分类任务。模型通过Sigmoid函数(S型曲线)将线性预测转化为概率。逻辑回归损失函数常采用交叉熵,衡量模型预测概率分布与真实标签分布的差异。熵和相对熵(KL散度)是评估分布相似性的度量,低熵表示分布更集中,低交叉熵表示模型预测与真实情况更接近。
|
16天前
|
机器学习/深度学习 资源调度 并行计算
线性回归
【6月更文挑战第7天】线性回归是建立自变量与因变量之间线性关系的模型,常用于预测数值。它假设观测噪声符合正态分布。模型表示为$y=w^Tx+b$,其中$w$是权重,$b$是偏置。损失函数常用平方误差,通过梯度下降法优化。小批量随机梯度下降是常用的更新参数方法。正则化,如L2正则化(权重衰减),用于防止过拟合。丢弃法用于多层感知机,减少模型复杂度。训练时注意数值稳定性,如梯度爆炸和消失,可通过权重初始化、归一化等方法改善。
24 1
|
1月前
|
机器学习/深度学习 定位技术 数据处理
认识线性回归模型
线性回归是一种广泛应用于统计学和机器学习的技术,用于研究两个或多个变量之间的线性关系。
31 1
|
1月前
|
机器学习/深度学习 分布式计算 前端开发
线性回归模型使用技巧
【5月更文挑战第14天】线性回归基础及进阶应用概述:探讨模型假设、最小二乘法和系数估计;通过多项式特征处理非线性关系;应用正则化(Lasso、Ridge)减少过拟合;特征选择优化模型复杂度;使用GridSearchCV进行超参数调优;处理分组数据、缺失值;集成方法(Bagging)提升性能;尝试岭回归、弹性网络、高斯过程回归和鲁棒回归;利用模型融合增强预测力;应对大规模数据挑战;分析特征重要性;自动特征工程;增强模型解释性;集成模型多样性及权重调整;应用序列最小优化(SMO)、预测区间估计;动态特征选择;模型校验与调优;稳定性分析;迁移学习。
54 3
|
1月前
|
机器学习/深度学习 数据采集 供应链
线性回归模型
线性回归模型
23 0
|
10月前
|
机器学习/深度学习 API 算法框架/工具
二、逻辑回归
二、逻辑回归
|
机器学习/深度学习 人工智能 算法

相关实验场景

更多