7分钟搞懂逻辑回归的来龙去脉

简介: 7分钟搞懂逻辑回归的来龙去脉

逻辑回归(Logistic Regression)是一种统计机器学习方法,简单易用,却涉及很多知识点。正所谓麻雀虽小,五脏俱全。


大多数教程都是从定义和原理出发,来讲解逻辑回归,容易显得晦涩难懂。本文将结合实例和图示,帮助读者在7分钟内搞懂逻辑回归算法。


1、功能



逻辑回归一般用于二分类任务,并能给出两个类的相应概率


常见的应用包括垃圾邮件判别、银行判断是否给用户贷款等等。当然,二分类问题可以扩展到多分类问题。


做二分类任务,最简单的判别函数是阶跃函数,如下图红线所示。当时判断为正类(1),反之为负类(0)。



但阶跃函数不连续,过于“死板”,不便于后续求导优化。因此用logistic function(上图黑线)代替,因为呈现“S”形,也称为 sigmoid function,对应公式:

定义域为整个实数集合,值域为0~1,相当于概率值。


2、为何不叫逻辑分类?



既然是做分类任务,为什么不叫它“逻辑分类”呢?

首先,“逻辑”指的是“logistic”(音译),“回归”来源于线性回归的 ,使用线性回归去拟合逼近一个决策边界,使得按照这个边界进行数据分类后的总损失最小。

以概率0.5作为界线,将数据分为正例和反例。当 ,对应正例(趋近于概率1);当 ,对应负例(趋近于概率0)。


这是在使用回归的思想去解决分类问题,所以称为逻辑回归。等价于在线性回归外包裹了一层sigmoid函数,将离散值映射为0和1之间的概率,以0.5为界。


3、核心问题



理解逻辑回归的一个核心问题是,如何求解决策边界 ?

对于二维输入样本点,z 等价于:

求最优决策边界,等价于求 的值。当样本的真实标签 是1和0时,我们分别定义一个损失函数:



为例,当模型的预测值 趋向1时,损失函数取值也应该越来越小;反之,当 趋向0时,损失函数值越来越大,可以通过函数 体现。模型的训练目的是尽可能减小损失,所以会让输出值朝着1的方向学习。是否可以将两类的cost函数合并到一块,方便计算总损失呢?


通过一个“聪明”的对数似然函数,我们达到了目的:

其中:

对于下图的样本点,绿线是决策边界。绿线上部 ,距离绿线越远 越大,预测值 越接近1。



看到这里,证明你也是一个热爱学习的人,希望你花1s点个赞,把这篇文章mark一下,再继续阅读,谢谢啦!


4、求解边界



明确了损失函数后,我们来计算模型参数的最优值。首先需要计算cost对参数 的导数,再借助梯度下降等算法微调参数值,不断逼近最优解。

假设我们有10个样本点,每个样本包含3个特征,则 维度为[10, 3], 维度为[3, 1],

网络异常,图片无法展示
|
的维度为[10, 1]。


损失函数:

cost的维度也是[10, 1]。cost和H相关,H和Z相关,Z和WX相关,存在关系映射:cost~H~Z~X。根据链式求导法则,整个计算过程如下:


最终的结果是: ,维度是[3, 1],即参数


5、梯度下降法



刚刚我们使用了梯度下降法迭代求解最优的 ,一共分为3步:

  • 初始化
  • 更新 :
  • 迭代到一定次数或阈值,结束

当cost函数是凸函数时,可以保证cost降到全局最小,否则可能只走到局部最小。



在cost不断减小的过程中,将求得最优的分界线。



使用逻辑回归,我们可以使用python、C++等语言自己实现,或借助机器学习工具包Sklearn中的接口 LogisticRegression [2]。


现在,大家是不是理解了逻辑回归的思想呢?如有疑问,欢迎交流!

相关文章
一文搞懂:【时间序列分析】【1】
一文搞懂:【时间序列分析】【1】
|
机器学习/深度学习 决策智能
什么是贝叶斯网络?原理入门
什么是贝叶斯网络?原理入门
304 0
什么是贝叶斯网络?原理入门
|
算法
动手撸个朴素贝叶斯算法bayes(离散数据)
动手撸个朴素贝叶斯算法bayes(离散数据)
184 0
动手撸个朴素贝叶斯算法bayes(离散数据)
|
算法
重温算法,加深理解
算法在开发中的地位我们都很清楚,但是呢实际上项目里用到的算法并不是很多,虽然不是必须但是我们还是要懂算法,理解算法,运用算法。前几年肝了很多算法,但是这玩意不经常练习就会忘记,今天就重新把算法捡起来吧。
94 0
重温算法,加深理解
|
机器学习/深度学习 人工智能 算法
畅快!5000字通俗讲透决策树基本原理
在当今这个人工智能时代,似乎人人都或多或少听过机器学习算法;而在众多机器学习算法中,决策树则无疑是最重要的经典算法之一。这里,称其最重要的经典算法是因为以此为基础,诞生了一大批集成算法,包括Random Forest、Adaboost、GBDT、xgboost,lightgbm,其中xgboost和lightgbm更是当先炙手可热的大赛算法;而又称其为之一,则是出于严谨和低调。实际上,决策树算法也是个人最喜爱的算法之一(另一个是Naive Bayes),不仅出于其算法思想直观易懂(相较于SVM而言,简直好太多),更在于其较好的效果和巧妙的设计。似乎每个算法从业人员都会开一讲决策树专题,那么今天
302 0
畅快!5000字通俗讲透决策树基本原理
|
机器学习/深度学习 人工智能 算法
终于有人把监督学习讲明白了
在机器学习的各种方法中,监督学习是迄今为止成果最令人印象深刻的一种。本文介绍监督学习解决像肺炎诊断这类问题的基本原理。
终于有人把监督学习讲明白了
|
机器学习/深度学习 算法 Python
通俗易懂!白话朴素贝叶斯
通俗易懂!白话朴素贝叶斯
301 0
通俗易懂!白话朴素贝叶斯
|
算法 机器学习/深度学习 BI
干货 | 关于机器学习的知识点,全在这篇文章里了
本文为大家介绍机器学习的魅力与可怕。
3896 0