凸函数相关

简介: 凸函数是凸集中元素的数学特征, 体现了凸集中元素所呈现的规律性.

1.3 凸函数

凸函数是凸集中元素的数学特征, 体现了凸集中元素所呈现的规律性. 它被定义为某个向量空间的凸子集 $C$ 上的实值函数 $f$. 若在其定义域 $C$ 上的任意两点 $x_1,x_2$, 及 $α in [0,1]$, 均有

$$ f(αx_1 +(1-α)x_2) \leq αf(x_1) + (1-α)f(x_2) $$

1.3.1 凸函数的判定

  1. 设 $f_1,f_2,\cdots, f_k$ 是凸集 $S$ 上的凸函数,令 $phi(x)= displaystylesum_{i=1}^k λ_if_i(x)$,其中 $∀ λ_i geq 0 $,则 $\psi(x)=\displaystyle\max_{1\leq i \leq k} f_i(x)$ 与 $\phi(x)$ 都是 $S$ 上的凸函数。
  2. 设在凸集 $D \subset \mathbb{R}^n $ 上 $f(x)$ 可微, 则 $f(x)$ 在 $D$ 上的为凸函数的充要条件是对于任意的 $x,y\in D $, 都有

$$ f(y) \geq f(x) + \nabla f(x)^T(y-x) $$

  1. 设在开凸集 $D \subset \mathbb{R}^n $ 上 $f(x)$ 二阶可微,则 $f(x)$ 在 $D$ 上的为凸函数的充要条件是对于任意的 $x\in D$,$f(x)$ 的 Hesse 矩阵半正定。

$$ G(x) = ∇^2 f(x) = \begin{bmatrix} \frac{∂^2f}{∂x_1^2} & \cdots & \frac{∂^2f}{∂x_1x_n}\\ \vdots & \ddots & \vdots\\ \frac{∂^2f}{∂x_nx_1} & \cdots & \frac{∂^2f}{∂x_n^2} \end{bmatrix} $$

1.3.2 常用的凸函数

  • 线性函数和仿射函数都是凸函数
  • 最大值函数
  • 幂函数: 当 $\alpha\in [0,1]$ 时, $x^{\alpha}$ 是一个凸函数; 绝对值幂函数也是凸函数。
  • 对数函数 $\log(x)$ 在 $\mathbb{R}_{++}$ 上是凸函数
  • $f(x) = \log(\displaystyle\sum_{i=1}^n \exp(x_i))$ 是 $\mathbb{R}^n$ 上的凸函数
  • 几何平均: $ f(x) = (displaystyle∏_{i=1}^n x_i)^{frac{1}{n}} $ 是定义在 $\mathbb{R}_{++}^n$ 上的凸函数
  • 范数

1.3.3 凸函数的性质

  • 任一局部极小 (大) 点也是全局极小 (大) 点,且全局极小 (大) 点的集合为凸集。
  • 任一局部最优解都是它的整体最优解。

在最优化理论中,局部最优解被称为满意解,全局最优解被称为最优解。大多数传统的最优化理论和算法都只能保证找到满意解,因而人们尽可能的使用凸函数作为优化问题的目标函数。对于那些无法转换为凸函数的优化问题,只有通过穷举法来计算函数的所有值 (如果可能) 来找到全局最优解。当然针对一些特定的问题可以通过,诸如模拟退火法、隐马尔科夫链算法等随机优化方法来寻找最优解。但这不是我们讨论的要点,我们主要列举一些我认为比较重要的凸函数的相关知识点。

目录
相关文章
|
11月前
曲线拟合-最小二乘法
线性最小二乘法及matlab例程
|
12月前
7-153 找鞍点
7-153 找鞍点
51 0
二阶常系数非齐次线性微分方程的通解
二阶常系数非齐次线性微分方程的通解
二阶常系数齐次线性微分方程的通解
二阶常系数齐次线性微分方程的通解
|
机器学习/深度学习
PRML 1.1 多项式曲线拟合
PRML 1.1 多项式曲线拟合
PRML 1.1 多项式曲线拟合
无偏估计
定义 无偏估计:估计量的均值等于真实值,即具体每一次估计值可能大于真实值,也可能小于真实值,而不能总是大于或小于真实值(这就产生了系统误差)。 估计量评价的标准 (1)无偏性 如上述 (2)有效性 有效性是指估计量与总体参数的离散程度。
1120 0
|
机器学习/深度学习
拉格朗日对偶
拉格朗日对偶
拉格朗日对偶
|
Python
拉格朗日插值法
定义 公式为:\[ l_k(x):= \prod_{i=0, i \neq k}^{j}{{x - x_i}\over{x_k - x_i}} \] 从上面的公式中我们可以了解到, i从0递增到j, 但是在k不会等于i, 因为如果k=i了, 则分母就成为了0, 这个式子就没有意义了, 在...
1158 0
|
人工智能 BI
最小二乘法-公式推导
基本思想 求出这样一些未知参数使得样本点和拟合线的总误差(距离)最小 最直观的感受如下图(图引用自知乎某作者) 而这个误差(距离)可以直接相减,但是直接相减会有正有负,相互抵消了,所以就用差的平方 推导过程 1 写出拟合方程y=a+bxy=a+bx 2 现有样本(x1,y1),(x2,y2).
3936 1