快速上手逻辑回归模型?读这篇就够了(Python机器学习)

简介: 快速上手逻辑回归模型?读这篇就够了(Python机器学习)


  逻辑回归模型是一种常用的回归或分类模型,可以视为是广义线性模型的特例。


在这里插入图片描述

1.逻辑回归简介

  关于线性回归,线性回归是最基本的回归分析方法线性回归研究的是自变量与因变量之间的线性关系。对于传统的线性回归而言,其基本假设是假设y与x直接呈线性关系。如果x与y不是线性关系,则使用线性回归模型会得到较大的误差。
为了解决这个问题,需要寻找一个函数g(y),使g(y)与x之间是线性关系。(即g(y)与y之间不是线性关系,从y到g(y)经历了非线性变换)。这种间接进行对x进行估计的回归,即称为广义线性回归

2.最大熵模型简介

  在信息论中,熵可以度量随机变量的不确定性。当随机变量呈均匀分布时,熵值最大。在一个有序的系统中,有着较小的熵值;而在一个无序的系统中存在着较大的熵值。

  在机器学习中,有最大熵原理:描述一个概率分布时,在满足所有约束条件的情况下,熵最大的模型是最好的。

对于离散随机变量x,假设其有M个取值,记$\displaystyle p_i=P(x=i),则其熵定义为:
在这里插入图片描述

经过公式推导,最大熵模型与逻辑回归模型之间是完全等价的
(这里不谈及公式推导的过程。)

3.常用评价指标

3.1混淆矩阵

对二分类问题:

真实值 预测值0 预测值1
0 True Negative(TN) False Negative(FP)
1 False Negative(FN) True Positive(TP)

其中,True/False表示判断结果正误,Positive/Negative表示预测值是正标签还是负标签。

指标 简写 描述
真阴率 TN 预测成负样本实际是负样本的个数
假阳率 FP 预测成正样本实际是负样本的个数
假阴率 FN 预测成负样本实际是正样本的个数
真阳率 TP 预测成正样本实际是正样本的个数

对于多分类问题,则迁移为:

TN 预测结果不是该标签,真实标签不是该标签的个数
FP 预测结果是该标签,真实标签不是该标签的个数
FN 预测结果不是该标签,真实标签是该标签的个数
TP 预测结是该标签,真实标签是该标签的个数

很多评价指标都是建立在混淆矩阵之上的。


3.2准确率

即预测正确的结果占总样本的百分比,


在这里插入图片描述

3.3精确率&召回率

精确率,也称查准率
在这里插入图片描述

可以描述为 预测结果是该标签的样例中,实际是该标签的所占比。


召回率,也称查全率


在这里插入图片描述

可以描述为 实际是该标签的样例中,预测结果是该标签的所占比。


3.4PR曲线

分类模型对每个样本点都会输出一个置信度。
通过设定置信度的阈值,就可以完成分类。

不同的置信度对应着不同的精确率 和 召回率
一般来说,置信度阈值较低时,大量样本被预测为正例,所以召回率较高,精确率较低;
置信度阈值较高时,大量样本被预测为负例,所以召回率较低,而精确率较高。

PR曲线就是以精确率为纵坐标,以召回率为横坐标做出的曲线。

3.5ROC曲线与AUC

3.5.1ROC曲线

对于二分类分类器,
为了衡量分类器的分类能力,ROC曲线进行了表征:

ROC曲线的横轴为假阳率(False Positive Rate, FPR)


在这里插入图片描述
描述: 实际标签为负样本的样本中,预测为正样本的比例。

ROC曲线的纵轴为真阳率(True Positive Rate, TPR)


在这里插入图片描述
描述: 实际标签是正样本的样本中,预测为正样本的比例。

通过这两句描述,不看看出,我们更想要的是y轴较大,x轴较小的情况。

  • (0, 0)假阳率和真阳率都为0,即分类器全部预测为负样本。
  • (0, 1)假阳率为0,真阳率为1,即全部完美预测正确。
  • (1, 0)假阳率为1,真阳率为0,即全部完美预测错误。
  • (1, 1)假阳率和真阳率都为1,即分类器全部预测为正样本。

ROC曲线的横走坐标都在[0, 1]之间,面积不大于1。

  • 当TPR=FPR为一条斜对角线时,表示预测为正样本的结果一般是对的,一般是错的。此为随机分类器的预测效果。
  • 当ROC曲线在对角线以下,表示该分类器效果差于随机分类器。
  • 当ROC曲线在对角线以上,表示该分类器效果好于随机分类器,我们希望ROC曲线尽可能地位于斜对角线以上,接近左上角(0,1)位置。

3.5.2AUC

AUC(Area Under Curve),即ROC曲线下与坐标轴围成的面积,根据以上表述,可知,
 AUC越大,分类器分类效果就越好

  • AUC = 1,表示 是完美分类器,采用这个预测模型时,不管设定什么阈值都能得出完美预测。完美分类器一般不存在。
  • 0.5 < AUC < 1,效果好于随机分类器。对于这个分类器,如果设置合适的阈值,则可以有预测价值。
  • AUC = 0.5,相当于随机分类器。
  • AUC < 0.5,差于随机分类器。(所以可以用于反向预测)

4.基于逻辑回归实现乳腺癌预测

以内置的乳腺癌数据集为例,实现逻辑回归:

from sklearn.datasets import load_breast_cancer
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split

from sklearn.metrics import recall_score
from sklearn.metrics import precision_score
from sklearn.metrics import classification_report
from sklearn.metrics import accuracy_score

# 获取数据
cancer = load_breast_cancer()
# 分割数据
X_train, X_test, y_train, y_test = train_test_split(cancer.data, cancer.target, test_size=0.2)

# 创建估计器(实例化逻辑回归模型)
model = LogisticRegression() 
# 训练
model.fit(X_train, y_train)

# 返回给定测试数据下的准确率(即预测正确的结果占总样本的百分比)
# 训练集准确率
train_score = model.score(X_train, y_train)
# 测试集准确率
test_score = model.score(X_test, y_test)
print('train score:{train_score:.6f};test score:{test_score:.6f}'.format(train_score=train_score, test_score=test_score))

# 再对X_test进行预测
y_pred = model.predict(X_test)
# 准确率
accuracy_score_value = accuracy_score(y_test, y_pred)

# 精确率
precision_score_value = precision_score(y_test, y_pred)
# 召回率
recall_score_value = recall_score(y_test, y_pred)


# 输出报告模型评估报告
classification_report_value = classification_report(y_test, y_pred)

print("准确率:", accuracy_score_value)
print("精确率:", precision_score_value)
print("召回率:", recall_score_value)

print(classification_report_value)

程序输出结果
在这里插入图片描述

其中,输出准确率,可以使用model对象的score方法,传入参数是特征数据对应的真实标签

也可以使用sklearn.metrics的accuracy_score方法,传入参数为真实标签预测的标签


参考:
<Python机器学习实战 吕云翔>

目录
相关文章
|
4天前
|
机器学习/深度学习 算法 Python
机器学习特征筛选:向后淘汰法原理与Python实现
向后淘汰法(Backward Elimination)是机器学习中一种重要的特征选择技术,通过系统性地移除对模型贡献较小的特征,以提高模型性能和可解释性。该方法从完整特征集出发,逐步剔除不重要的特征,最终保留最具影响力的变量子集。其优势包括提升模型简洁性和性能,减少过拟合,降低计算复杂度。然而,该方法在高维特征空间中计算成本较高,且可能陷入局部最优解。适用于线性回归、逻辑回归等统计学习模型。
37 7
|
2天前
|
机器学习/深度学习 数据可视化 TensorFlow
Python 高级编程与实战:深入理解数据科学与机器学习
本文深入探讨了Python在数据科学与机器学习中的应用,介绍了pandas、numpy、matplotlib等数据科学工具,以及scikit-learn、tensorflow、keras等机器学习库。通过实战项目,如数据可视化和鸢尾花数据集分类,帮助读者掌握这些技术。最后提供了进一步学习资源,助力提升Python编程技能。
|
3天前
|
机器学习/深度学习 数据可视化 算法
Python 高级编程与实战:深入理解数据科学与机器学习
在前几篇文章中,我们探讨了 Python 的基础语法、面向对象编程、函数式编程、元编程、性能优化和调试技巧。本文将深入探讨 Python 在数据科学和机器学习中的应用,并通过实战项目帮助你掌握这些技术。
|
11天前
|
机器学习/深度学习 数据可视化 算法
Python与机器学习:使用Scikit-learn进行数据建模
本文介绍如何使用Python和Scikit-learn进行机器学习数据建模。首先,通过鸢尾花数据集演示数据准备、可视化和预处理步骤。接着,构建并评估K近邻(KNN)模型,展示超参数调优方法。最后,比较KNN、随机森林和支持向量机(SVM)等模型的性能,帮助读者掌握基础的机器学习建模技巧,并展望未来结合深度学习框架的发展方向。
40 9
Python与机器学习:使用Scikit-learn进行数据建模
|
4月前
|
机器学习/深度学习 数据采集 数据可视化
Python数据科学实战:从Pandas到机器学习
Python数据科学实战:从Pandas到机器学习
|
4月前
|
机器学习/深度学习 人工智能 算法
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
手写数字识别系统,使用Python作为主要开发语言,基于深度学习TensorFlow框架,搭建卷积神经网络算法。并通过对数据集进行训练,最后得到一个识别精度较高的模型。并基于Flask框架,开发网页端操作平台,实现用户上传一张图片识别其名称。
198 0
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
|
4月前
|
机器学习/深度学习 数据采集 人工智能
探索机器学习:从理论到Python代码实践
【10月更文挑战第36天】本文将深入浅出地介绍机器学习的基本概念、主要算法及其在Python中的实现。我们将通过实际案例,展示如何使用scikit-learn库进行数据预处理、模型选择和参数调优。无论你是初学者还是有一定基础的开发者,都能从中获得启发和实践指导。
94 2
|
4月前
|
机器学习/深度学习 数据可视化 数据处理
掌握Python数据科学基础——从数据处理到机器学习
掌握Python数据科学基础——从数据处理到机器学习
75 0
|
4月前
|
机器学习/深度学习 数据采集 人工智能
机器学习入门:Python与scikit-learn实战
机器学习入门:Python与scikit-learn实战
125 0
|
4月前
|
机器学习/深度学习 数据采集 数据挖掘
Python在数据科学中的应用:从数据处理到模型训练
Python在数据科学中的应用:从数据处理到模型训练

热门文章

最新文章