有监督学习分类

简介: 一、Classification problems二、Notation三、Logistic regression四、Try logistic regression @Parameter Server五、Fun Time

有监督学习分类

 

内容介绍

一、Classification problems

二、Notation

三、Logistic regression

四、Try logistic regression @Parameter Server

五、Fun Time

 

 

一、Classification problems

1Sometimes we want to predict discrete outputs rather than continuous

2Is the email spam or not?(YES/NO)

3What digit is in this image?(0/1/2/3/4/5/6/7/8/9)

 

分类跟前面的回归只是在y的上面有点不一样,y可能是一些离散的输出,枚举的一些值1234这种,回归更多的是一个实数,比如,1.21.31.333之类的,比如这样一个邮件是不是垃圾邮件,数字是不是0-9之间的一个数字。

Example: classifying household appliances

Differentiate between two refrigerators using their power. consumption signature

以两种类型的电冰箱为例,如果从一个抛物跟流水这两个维度来看,把它的一些数据展现在一个图上面能明显看出来是两种冰箱。

 

 

二、Notation

Input features:xi)∈ Rn,i=1,.,m

Output: yi)∈{+-1, 0)(binary clasification task)

Model Parameters∶θ∈RnHypothesis functionhθ(x)R"n->Rreturns continuous prediction of the output y, where the value indicates how"confident"

we are that the example is 0 or +1

 

所以形式化去看分类跟回归是很像的,除了y,这个y如果是20以内,它可能是一个布尔值,01这样的布尔值,θ跟前面也是一样的。


y输出是一个指数的值,这个样本是0还是正1,相当于一个概率,尤其是在逻辑回归中它输出的就是一个概率,这个样本是正1的概率是多少。

 

三、Logistic regression

Learn P(YX) diretly

Xis a vector of real-valued features,<XXn>

Y is boolean (1,0)

Choose parameters W to maximize conditional

likelihood of training data

Datalikelihood= Maxπl PY|XW),将P(Y=1|X),PY=0|X)代入,取In,得到Loss function

 

逻辑回归它要做的就是在给定x的情况下去学习yx就是前面所讲到的特征,y只限制二分钟,它就是个布尔值,要是 boolean 就是前面讲到的 category 的一个值,给定xy=1的概率就是一个公式。

 image.png

linear classification rule

image.png

 

y=1y=0,这个数学公式打出来,一比再取log还是一个线性回归的问题。

Choose parameters W to maximize conditional likelihood of training data

Data likelihood = Max П P(Y]X, w), P(Y=1]X), P(Y=0[X) 代入,取In, 得到 LOSS function:

l(W)= Max E[YlnP(Y = 1[X,W)+(1 - Y)lnP(Y = O[X,W)]

等价于 Min ln(1 +è-yXW), 这里(y=+1 or-1)

 

w是为了最大化的获得条件。倾向于用最后一种方法,采用梯度下降(GD),或者随机梯度下降(SGD)进行求解

def gradient descent logistic(X, y, theta, alpha,num iters) :

...

Performs gradient descent to l eacn the t a

by taking nTumn items gradient steps with 1 earning

zate alpha

...

m = y.size

J_ history = zeros (shape= (num iters, 1))

foz i in range (num iters) :

predictions = sigmoid (X.dot (theta)) .flatten ()

errors_ x1 = (predictions - y) * X[:, 0]

errors_ x2 = (predictions - y) * X[:1]

theta[01[0] = theta[0][0] - alpha * (1.0 1 m) * errors x1. sum (

theta[IJ[0] = theta[lJ[0] - alpha * (1.0 1 m)ezrors x2. sum 0

J_ history[i, 0] = compute_ cost_ logistic(X, y, theta)

return theta, J_ history

梯度下降的曲线是画出了一个等高线。

image.png

 

 

四、Try logistic regression @Parameter Server

http/helpalivun-incom/nternaldoc/detail/34557.html?spm=0.0.0.0.1YTRa4为例,将样本组织成2列,第一列为标签,第二列为特征

Like ODPS SQL,命令类似∶ps_serialize_train -iinputtab -O outputtab-t DeltaTermination…进行训练,取得模型,可以算出模型的指标,比如正确率等,看模型本身的效果是如何。

 

 

五、Fun Time

Consider logistic hypothesis h(X)=image.pngConvert h(X) to a binary classification prediction by taking sign(h(X)-0.5), What is the equivalent formula for the binary classification prediction?

A. sign(WX-0.5)

B. sign(WX)

c. sign(WX+0.5)

D. None of the above

wx=0代入公式,就能够很快的算出答案。

 

 

相关文章
|
机器学习/深度学习 SQL 移动开发
有监督学习分类|学习笔记
快速学习有监督学习分类。
有监督学习分类|学习笔记
|
机器学习/深度学习 算法 测试技术
统计学习的分类
统计学习的分类
统计学习的分类
|
9月前
|
算法 Python
利用贝叶斯算法对简单应用实现预测分类
利用贝叶斯算法对简单应用实现预测分类
90 0
|
Python
朴素贝叶斯的学习与分类
概念简介: 朴素贝叶斯基于贝叶斯定理,它假设输入随机变量的特征值是条件独立的,故称之为“朴素”。简单介绍贝叶斯定理: 乍看起来似乎是要求一个概率,还要先得到额外三个概率,有用么?其实这个简单的公式非常贴切人类推理的逻辑,即通过可以观测的数据,推测不可观测的数据。
908 0
|
机器学习/深度学习 自然语言处理 算法
机器学习算法(五):基于企鹅数据集的决策树分类预测
机器学习算法(五):基于企鹅数据集的决策树分类预测
|
算法
基于朴素贝叶斯算法对肿瘤类别分类
基于朴素贝叶斯算法对肿瘤类别分类
223 0
基于朴素贝叶斯算法对肿瘤类别分类
|
机器学习/深度学习 数据挖掘 Python
六、分类问题和逻辑回归
六、分类问题和逻辑回归
六、分类问题和逻辑回归
|
数据挖掘
非监督分类
非监督分类
362 0
|
机器学习/深度学习 算法 数据挖掘
监督分类
监督分类,又称训练分类法,用被确认类别的样本像元去识别其他未知类别像元的过程。它就是在分类之前通过目视判读和野外调查,对遥感图像上某些样区中影像地物的类别属性有了先验知识,对每一种类别选取一定数量的训练样本,计算机计算每种训练样区的统计或其他信息,同时用这些种子类别对判决函数进行训练,使其符合于对各种子类别分类的要求,随后用训练好的判决函数去对其他待分数据进行分类。使每个像元和训练样本作比较,按不同的规则将其划分到和其最相似的样本类,以此完成对整个图像的分类。
298 0
|
算法 数据挖掘 开发者
分类预测:分类算法概念|学习笔记(一)
快速学习分类预测:分类算法概念
分类预测:分类算法概念|学习笔记(一)

热门文章

最新文章