有监督学习分类|学习笔记

简介: 快速学习有监督学习分类。

开发者学堂课程【机器学习入门-概念原理及常用算法有监督学习分类】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/355/detail/4185


有监督学习分类

 

内容介绍

Classification problems

Notation

Logistic regression

Try logistic regression @Parameter Server

五、Fun Time

 

一、Classification problems

1、Sometimes we want to predict discrete outputs rather than continuous

2、Is the email spam or not?(YES/NO)

3、What digit is in this image?(0/1/2/3/4/5/6/7/8/9)

分类跟前面的回归只是在y的上面有点不一样y可能是一些离散的输出枚举的一些值1,2,3,4这种回归更多的是一个实数比如,1.2,1.3,1.333之类的比如这样一个邮件是不是垃圾邮件数字是不是0-9之间的一个数字

Example: classifying household appliances

Differentiate between two refrigerators using their power. consumption signature

以两种类型的电冰箱为例如果从一个抛物跟流水这两个维度来看把它的一些数据展现在一个图上面能明显看出来是两种冰箱

 

二、Notation

Input features:xi∈ Rn,i=1,.,m

Output: yi∈{+-1, 0)(binary clasification task)

Model Parameters∶θ∈Rn,Hypothesis function∶hθ(x)∶R"n->Rreturns continuous prediction of the output y, where the value indicates how"confident"

we are that the example is 0 or +1

所以形式化去看分类跟回归是很像的除了y这个y如果是20以内它可能是一个布尔值,0,1这样的布尔值跟前面也是一样的

y输出是一个指数的值这个样本是0还是正1,相当于一个概率尤其是在逻辑回归中它输出的就是一个概率这个样本是正1的概率是多少

 

三、Logistic regression

Learn P(YX) diretly

Xis a vector of real-valued features,

Y is boolean (1,0)

Choose parameters W to maximize conditional

likelihood of training data

Datalikelihood= Maxπl P(Y|X,W),将P(Y=1|X),P(Y=0|X)代入,取In,得到Loss function∶

逻辑回归它要做的就是在给定x的情况下去学习yx就是前面所讲到的特征y只限制二分钟它就是个布尔值要是 boolean 就是前面讲到的 category 的一个值给定xy=1的概率就是一个公式

7a0cf7e07a1b720060203f5984da27e.jpg

把y=1,y=0,这个数学公式打出来一比再取log还是一个线性回归的问题

Choose parameters W to maximize conditional likelihood of training data

Data likelihood = Max П P(Y]X, w), P(Y=1]X), P(Y=0[X) 代入取In, 得到 LOSS function:

l(W)= Max E[YlnP(Y = 1[X,W)+(1 - Y)lnP(Y = O[X,W)]

等价于 Min ln(1 +è-yXW), 这里(y=+1 or-1)

w是为了最大化的获得条件倾向于用最后一种方法采用梯度下降(GD),或者随机梯度下降(SGD)进行求解

def gradient descent logistic(X, y, theta, alpha,num iters) :

...

Performs gradient descent to l eacn the t a

by taking nTumn items gradient steps with 1 earning

zate alpha

...

m = y.size

J_ history = zeros (shape= (num iters, 1))

foz i in range (num iters) :

predictions = sigmoid (X.dot (theta)) .flatten ()

errors_ x1 = (predictions - y) * X[:, 0]

errors_ x2 = (predictions - y) * X[:,1]

theta[01[0] = theta[0][0] - alpha * (1.0 1 m) * errors x1. sum (

theta[IJ[0] = theta[lJ[0] - alpha * (1.0 1 m)★ezrors x2. sum 0

J_ history[i, 0] = compute_ cost_ logistic(X, y, theta)

return theta, J_ history

梯度下降的曲线是画出了一个等高线

image.png

 

四、Try logistic regression @Parameter Server

http/helpalivun-incom/nternaldoc/detail/34557.html?spm=0.0.0.0.1YTRa4为将样本组织成2第一列为标签第二列为特征

Like ODPS SQL,命令类似∶ps_serialize_train -iinputtab -O outputtab-t DeltaTermination…进行训练,取得模型可以算出模型的指标比如正确率等看模型本身的效果是如何

 

五、Fun Time

Consider logistic hypothesis h(X)=image.pngConvert h(X) to a binary classification prediction by taking sign(h(X)-0.5), What is the equivalent formula for the binary classification prediction?

A. sign(WX-0.5)

B. sign(WX)

c. sign(WX+0.5)

D. None of the above

把wx=0代入公式就能够很快的算出答案

相关文章
|
1月前
|
机器学习/深度学习 存储 自然语言处理
【机器学习】基于逻辑回归的分类预测
【机器学习】基于逻辑回归的分类预测
|
3月前
|
机器学习/深度学习 资源调度 算法
R语言逻辑回归与分类模型的深度探索与应用
【8月更文挑战第31天】逻辑回归作为一种经典的分类算法,在R语言中通过`glm()`函数可以轻松实现。其简单、高效且易于解释的特点,使得它在处理二分类问题时具有广泛的应用价值。然而,值得注意的是,逻辑回归在处理非线性关系或复杂交互作用时可能表现不佳,此时可能需要考虑其他更复杂的分类模型。
|
6月前
|
机器学习/深度学习 算法
【机器学习】如何使用朴素贝叶斯分类器来处理类别特征?
【5月更文挑战第10天】【机器学习】如何使用朴素贝叶斯分类器来处理类别特征?
|
机器学习/深度学习 算法 定位技术
11 机器学习 - KNN简单数据分类实现
11 机器学习 - KNN简单数据分类实现
112 0
|
机器学习/深度学习 存储 自然语言处理
机器学习算法(一): 基于逻辑回归的分类预测
机器学习算法(一): 基于逻辑回归的分类预测
24040 1
机器学习算法(一): 基于逻辑回归的分类预测
|
机器学习/深度学习 自然语言处理 算法
机器学习算法(五):基于企鹅数据集的决策树分类预测
机器学习算法(五):基于企鹅数据集的决策树分类预测
|
机器学习/深度学习 数据挖掘 Python
六、分类问题和逻辑回归
六、分类问题和逻辑回归
六、分类问题和逻辑回归
|
机器学习/深度学习 数据处理
机器学习之分类-概率生成模型
机器学习之分类-概率生成模型
268 0
机器学习之分类-概率生成模型
|
机器学习/深度学习 算法 测试技术
统计学习的分类
统计学习的分类
统计学习的分类
|
机器学习/深度学习 人工智能 算法
分类预测:分类算法概念|学习笔记(二)
快速学习分类预测:分类算法概念
分类预测:分类算法概念|学习笔记(二)