机器学习-监督学习-cost function

简介: 1.引言当我们的训练集如下图1所示,可以假设hypothesis函数如图2θ0和θ1我们称为hθ(x)函数的2个参数,h是x的函数,所以有时候也记着h(x)对于这个已有的hypothesis,我们需要什么方法来评估这个假设函数的好坏呢?因此我们定义了一个叫"代价函数"cost function 来评估当前hθ(x)函数2. 代价函数cost function也叫作loss function,就是对hθ(x)函数进行评估的一个函数。

1.引言

当我们的训练集如下图1所示,可以假设hypothesis函数如图2

θ0和θ1我们称为hθ(x)函数的2个参数,h是x的函数,所以有时候也记着h(x)

对于这个已有的hypothesis,我们需要什么方法来评估这个假设函数的好坏呢?

因此我们定义了一个叫"代价函数"cost function 来评估当前hθ(x)函数

2. 代价函数

cost function也叫作loss function,就是对hθ(x)函数进行评估的一个函数。

代价函数最重要的作用就是是用来度量预测错误的程度,通常来说,模型越准确,越接近真实,其cost function的值就越小。

cost function 通常用大写字母J表示,由于cost function的大小和hθ(x)的参数取值相关,不难想象,J是θ的函数,用Jθ表示。

线性回归中的cost function,通常用最小"平方差"来表示,也称为square loss,

有2个参数θ0和θ1的时候,可以定义cost function函数如下所以

这里x和y的右上角标i,表示training set中第i个数据的特征向量和实际值,加括号表示是第i个,而不是i次幂

由cost function定义可以知道,当hθ(x)对training set测试结果完全正确的时候,const function的值是0

因此我们的目标,就是尽量优化hθ(x),不断更改参数θ0 ~ θn 的值,使得Jθ的值最小,即上图中的Goal

3. 举例

为了简化模型,我们假设hθ(x)只有2个参数θ0和θ1,同时假设θ0 = 0

因此hθ(x) = θ1X

我们根据θ1的值等于 -1,0,1,2 可以画出cost function J(θ)的函数图像如下所示J(θ)。可以发现代价函数J(θ)是一个"凸函数",存在全局最小值。

不难发现,当θ1 =1 的时候training set能够和hθ(x) 完美拟合成一条直线,此时J(θ)值最小为0

类似的,当θ0不等于0的时候,此时hθ(x)有2个不为0的参数θ0和θ1,J(θ)的图像可能如下图所示

目录
相关文章
|
6月前
|
机器学习/深度学习 存储 算法
机器学习面试笔试知识点之非监督学习-K 均值聚类、高斯混合模型(GMM)、自组织映射神经网络(SOM)
机器学习面试笔试知识点之非监督学习-K 均值聚类、高斯混合模型(GMM)、自组织映射神经网络(SOM)
47 0
|
17天前
|
机器学习/深度学习 人工智能 运维
|
19天前
|
机器学习/深度学习 人工智能 自然语言处理
|
2月前
|
机器学习/深度学习 算法
机器学习的魔法(二)超越预测的界限-揭秘机器学习的黑科技-探索监督学习中的回归和分类问题
机器学习的魔法(二)超越预测的界限-揭秘机器学习的黑科技-探索监督学习中的回归和分类问题
136 0
|
4月前
|
机器学习/深度学习 人工智能 数据挖掘
【人工智能】<吴恩达-机器学习>监督学习&非监督学习
【1月更文挑战第26天】【人工智能】<吴恩达-机器学习>监督学习&非监督学习
|
7月前
|
机器学习/深度学习 人工智能 算法
【人工智能】机器学习入门之监督学习(一)有监督学习
定义:利用已知类别的样本,训练学习得到一个最优模型,使其达到所要求性能,再利用这个训练所得模型,将所有的输入映射为相应的输出,对输出进行简单的判断,从而实现分类的目的,即可以对未知数据进行分类。 监督学习分为:有监督学习,无监督学习,半监督学习
75 0
|
12月前
|
机器学习/深度学习 DataX C++
机器学习入门详解(一):理解监督学习中的最大似然估计
 这篇文章在统计学的背景下对机器学习学习建模过程进行了解密。将带你了解如何对数据的假设使我们能够创建有意义的优化问题。事实上,我们将推导出常用的标准,如分类中的交叉熵和回归中的均方误差。
110 0
机器学习入门详解(一):理解监督学习中的最大似然估计
|
机器学习/深度学习 人工智能 算法
机器学习/人工智能 实验一:典型监督学习方法分类实践与比较分析
机器学习/人工智能 实验一:典型监督学习方法分类实践与比较分析
155 0
机器学习/人工智能 实验一:典型监督学习方法分类实践与比较分析
|
机器学习/深度学习 存储 算法
入坑机器学习:三,非监督学习
不同于监督学习的数据的样子,即无监督学习中没有任何的标签或者是有相同的标签或者就是没标签。所以我们已知数据集,却不知如何处理,也未告知每个数据点是什么。别的都不知道,就是一个数据集。你能从数据中找到某种结构吗?针对数据集,无监督学习就能判断出数据有两个不同的聚集簇。这是一个,那是另一个,二者不同。是的,无监督学习算法可能会把这些数据分成两个不同的簇。所以叫做聚类算法。
126 0
入坑机器学习:三,非监督学习
|
机器学习/深度学习 存储 传感器
入坑机器学习:二,监督学习
第三个问题是输入空间的维数。如果输入特征向量具有非常高的维数,学习问题是很困难的,即使真函数仅依赖于一个小数目的那些特征。这是因为许多“额外”的尺寸可混淆的学习算法,并使其具有高方差。因此,高的输入维数通常需要调整分类器具有低方差和高偏置。在实践中,如果工程师能够从输入数据手动删除不相关的特征,这是有可能改善该学习功能的准确性。此外,还有许多算法的特征选择,设法确定相关特征,并丢弃不相关的。这是维数降低,其目的是将输入数据映射到较低维空间中运行的监督学习算法之前的更一般的策略的一个实例。
120 0
入坑机器学习:二,监督学习

热门文章

最新文章