模型原理-2| 学习笔记

本文涉及的产品
模型训练 PAI-DLC,5000CU*H 3个月
交互式建模 PAI-DSW,5000CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: 快速学习模型原理-2。

开发者学堂课程【机器学习算法 :模型原理-2】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/535/detail/7220


模型原理-2

 

内容介绍

一、引入非线性函数的条件

二、Logistic 函数的历史

 

一、引入非线性函数的条件

对于二分类因变量的分析引入非线性函数,需要满足以下几个条件:

事件发生的概率image.pngimage.png之间的非线性函数是单调函数,有良好的连续性,无断点。

该非线性函数的值域即事件发生的概率image.png为(0,1)。

该非线性函数的定义域即自变量image.png的取值为(-∞,+∞)。

不管是求参数,还是做拟合都要进行大量的计算。为了方便计算,该非线性函数最好处处可微,处处可导。

满足上述条件的函数有很多,通常选用 logistic 函数,因为其形状为 s 型,又称 Sigmoid 函数。

表达式为 φ(z)=image.png

image.png

这个时候它实际上就是一个连续的函数。这个连续函数的特点就是它的值域就是外值是从0到1。最小也不会等于0只是接近于0,最大就是接近于1。它的值域理论上是可以从负无穷到正无穷的。如果它的取值是0和1,就选择这个。

另外还有一个双子型 Sigmoid 函数image.png

image.png

如果它的取值是-1和1,就选择这个。

 

 

二、Logistic 函数的历史

18世纪末在研究人口规律的时候,发现人口变化率和人口基数是成一定比例的,是成正比的,即有:image.png其中N(t)表示 t 时刻的人口总数,r是常数表示变化率。

解该微分方程有:image.pngimage.png为初始值,它是一个单调递增的函数,数目无限增长。其实这个拟合函数和常识是相违背的。人口不可能一直无限地增长下去。

image.png

皮埃尔-弗朗索瓦-魏吕乐修正了该模型:image.png,K也是常数,表示系统容量。他认为人口的变化是有一个容量极限的。上式即为 Logistic 方程,它表明随着image.png随时间的增长并不断接近系统的容量K,image.png的增长率是逐渐减小的。

令f(t)=image.png,整理后的得到:image.png=r*f*(1-f)

解出来之后f(t)=image.png

image.png,r=1,就得到 f(t)=image.png

 

三、Logistic 回归

使用 Logistic 函数将方程image.png进行变换,因为 y 的取值最初的时候是一个分类变量,要么是0,要么是1。但如果想使用这个回归方程的话,这个预测值是个连续值,那需要对这个0和1进行处理,不再取0和1了,而是把 y 值当做取0和1的一个概率。这个概率是0和1之间的一个连续值。它本来是一个分类变量,想办法把它转变成一个连续变量。这个 y 不仅需要变成连续值,它也有一些特殊的要求,就是取值范围要在0到1之间。并且 x 的取值也不能限制,理论上是可以从负无穷到正无穷的。这个时候使用 Logistic 方程 y=image.png来做一个处理,其中 z就等于 y 的取值。这样实际上就满足了 y 本身的取值就是0到1之间的概率值。最终预测的结果是某一个分类变量取值的概率。刚才也验证了 Logistic 函数它本身的一个性质,就是它处处可为连续的并且它的取值范围是0到1。自变量 x 的取值没有要求,是从负无穷到正无穷的,刚好完美契合了诉求。和自变量相关的项image.png出现在了指数上,处理起来很不方便,这时通常对其进行对数变换。整理一下得到:image.png

这个方程就取一个倒数,因为它是接近于0但不等于0。则image.png

就是回归方程,只不过原来因变量的取值由单纯的 y 变成一个image.png

假设某件事发生的概率是 p,则不发生的概率是1-p,称image.png为该事件发生的几率(Odds),即某事件发生的概率和不发生的概率的比,也叫比值、比数或发生比。称 image.png为 Logit 变换,从概率的角度来看: p(y=1/x)=image.pngp(y=0/x)=1-p(y=1/x)=image.png

回归方程变为:Logit(y)=image.png对 Logit(y) 而言,上式是线性回归的。本来自变量为分类量之前的回归方程,实际上它是不满足回归的前提条件的基本假设的。这个时候需要对它进行一个变换,因为是一个分类变量,就不能使用回归来做。分类变量就取两个值,要么是0,要么是1。如果想把它变成一个连续值,取某一个变量的值,取它等于1的概率。概率是0到1之间的连续值,教研究的对象。对概率值有一个要求,就是它的取值范围是0到1,必须对 x 没有限制,最好是一个连续函数没断点,就去找满足这些条件的函数,刚好找到 Logistic 函数和 Sigmoid 函数。它是满足回归方程的假设条件的。

相关文章
|
2月前
|
机器学习/深度学习 数据可视化
模型性能评价实战
模型性能评价实战
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
什么是大模型?了解大模型的基本概念
大模型是具有大规模参数和复杂计算结构的机器学习模型,常由深度神经网络构建,用于处理如自然语言处理、计算机视觉等复杂任务。与小模型相比,大模型有更强的表达能力和准确性,但需要更多计算资源。大模型的发展经历了从传统神经网络到Transformer架构的演变,如GPT和BERT等,近年来以ChatGPT为代表的大模型在交互式对话和内容生成方面取得了重大突破。大模型的特点包括大规模、涌现能力、高性能和泛化能力,以及在多任务学习、自动化和跨领域应用中的优势。根据输入数据类型和应用领域,大模型可分为语言、视觉和多模态等类别,并通过微调适应特定任务。
|
分布式计算 监控 算法
Pregel模型原理
Pregel模型原理
259 0
|
机器学习/深度学习 算法 数据可视化
机器学习基础——k-近邻算法概述和简单实现
本章介绍第一个机器学习算法:k-近邻算法,它非常有效而且易于掌握。首先,我们将探讨k-近邻算法的基本理论,以及如何使用距离测量的方法分类物品;其次我们将使用Python从文本文件中导人并解析数据。
162 0
机器学习基础——k-近邻算法概述和简单实现
|
机器学习/深度学习 算法 数据挖掘
【阿旭机器学习实战】【12】决策树基本原理及其构造与使用方法
【阿旭机器学习实战】【12】决策树基本原理及其构造与使用方法
【阿旭机器学习实战】【12】决策树基本原理及其构造与使用方法
|
机器学习/深度学习 人工智能 自然语言处理
机器学习入门:概念原理及常用算法
机器学习入门:概念原理及常用算法
161 0
机器学习入门:概念原理及常用算法
|
机器学习/深度学习 算法 开发者
模型原理-1| 学习笔记
快速学习模型原理-1。
120 0
模型原理-1| 学习笔记
|
存储 数据格式 开发者
E906的编程模型|学习笔记
快速学习 E906的编程模型
150 0
E906的编程模型|学习笔记
|
机器学习/深度学习 算法 开发者
模型应用| 学习笔记
快速学习模型应用。
118 0
模型应用| 学习笔记
|
缓存 Kubernetes 负载均衡
K8S原理剖析:网络模型原理剖析和实践
K8S原理剖析:网络模型原理剖析和实践
233 0
K8S原理剖析:网络模型原理剖析和实践