algorithms中计算时间的渐近表示

简介: 1.大写Ο符号大写Ο符号给出了函数f的一个上限。 定义[大写Ο符号]:f(n)=Ο(g(n)),当且仅当存在正的常数c和n0,使得对于所有的n≥n0,有 f(n)≤c*g(n) 上述定义表明,函数f至多是函数g的c倍,除非n小于n0。

1.大写Ο符号
大写Ο符号给出了函数f的一个上限。


定义[大写Ο符号]:f(n)=Ο(g(n)),当且仅当存在正的常数c和n0,使得对于所有的n≥n0,有 f(n)≤c*g(n)


上述定义表明,函数f至多是函数g的c倍,除非n小于n0。因此,对于足够大的n(如n≥n0),g 是 f 的一个上限(不考虑常数因子 c )。


在为函数 f 提供一个上限函数 g 时,通常使用比较简单的函数形式。比较典型的形式是含有 n 的单个项(带一个常数系数)。对于对数函数logn,没有给出对数的基数,是因为对于任何大于1的常数 a 和 b ,都有:logan=logbn/logba所以logan和logbn都有一个相对的乘法系数1/logba,其中 a 是一个常量。

 

2. Ω符号
Ω符号给出了函数f的一个下限。


定义[Ω符号]:f(n)=Ω(g(n)),当且仅当存在正的常数c和n0,使得对于所有的n≥n0,有 f(n)≥c*g(n)。

上述定义表明,函数f至少是函数 g 的 c 倍,除非 n 小于 n0。因此,对于足够大的n(如n≥n0),g 是 f 的一个下限(不考虑常数因子c )。与大Ο定义的应用一样,通常使用单项形式的 g 函数。g(n)仅是f(n)的一个下限,与大Ο符号的情形类似,也可能存在多个函数g(n)满足f(n)=Ω(g(n))。


为了使f(n)=Ω(g(n))更有实际意义,其中的 g(n) 应足够大。因此,有3n+3=Ω(n),6*2n+n2=Ω(n2)。而3n+3=Ω(l),6*2n+n2=Ω(n)不是所希望的,尽管他们也是正确的。

 

3. Θ符号
Θ符号适用于同一个函数g既可以作为f的上限,也可以作为f的下限的情形。


定义[Θ符号]:f(n)=Θ(g(n)),当且仅当存在正的常数c1,c2和n0,使得对于所有的n≥n0,有 c1g(n)≤f(n)≤c2g(n)。

定义表明,函数f介于函数g的c1倍和c2倍之间,除非n<n0。因此对于足够大的n(如n≥n0), g既是f的上限,也是f的下限(不考虑常数因子c)。与大Ο定义和Ω定义的应用一样,通常仅使用单项形式的g函数。

 

4.小写o符号
定义[小写o]:f(n)=o(g(n))当且仅当
f(n)=Ο(g(n))且f(n)≠Ω(g(n))。

 

图3.1列出了一些常用的有关Ο、Ω和Θ的标记,其中,除n以外所有符号均为正常数。图3.1 渐近标记(其中⊕可以Ο、Ω、Θ是之一)

 

图3.2给出了一些关于“和”与“积”的有用的引用规则。对于图3.2的引用规则,大家不难举例验证。

  在时间或步数的渐近表示中,利用了图3.1和图3.2的结论。注意,首先要知道程序完成什么功能,然后分析程序的执行时间和执行步数,再采用渐近表示记录它们,最后根据图3.1和图3.2得到结果。

  有时,可以把Ο(g(n))、Ω(g(n))和Θ(g(n))分别解释成如下集合:
Ο(g(n))={f(n)|f(n)=Ο(g(n))}
Ω(g(n))={f(n)|f(n)=Ω(g(n))}
Θ(g(n))={f(n)|f(n)=Θ(g(n))}
在这种解释下,诸如Ο(g1(n))=Ο(g2(n))和Θ(g1(n))=Θ(g2(n))这样的语句就有了明确的含义。因为,此时可以将f(n)=Ο(g(n))读作“f(n)是g(n)的一个大Ο成员”,另外两种的读法也类似。
小写o符号通常用于执行步数的分析。执行步数3n+Ο(n)表示3n加上上限为n的项。在进行这种分析时,可以忽略步数少于Θ(n)的程序部分。
可以扩充Ο、Ω、Θ和o的定义,采用具有多个变量的函数。例如,
f(m,n)=Ο(g(n,m))当且仅当存在正常量c、n0和m0,使得对于所有的n≥n0和所有的m≥m0,有f(m,n)≤c*g(n,m)。

 

相关文章
|
18天前
|
机器学习/深度学习
2.5天完成1年的MD计算?DeepMind团队基于欧几里得Transformer的新计算方法
【9月更文挑战第3天】DeepMind团队提出了一种基于欧几里得Transformer的新型计算方法,通过机器学习技术大幅提升了分子动力学(MD)模拟的效率和稳定性。此方法利用ML模型预测分子系统的势能面,减少了传统MD模拟中的计算开销。相比传统方法,它不仅显著加快了模拟速度,还提高了稳定性和准确性,并且具有广泛的适用性,可在材料科学和生物学等多个领域推动科学研究的进步。论文详细内容见[此处](https://www.nature.com/articles/s41467-024-50620-6)。尽管如此,该方法仍需更多数据支持及准确性验证。
30 3
|
4月前
|
算法 数据可视化 Python
Python用MCMC马尔科夫链蒙特卡洛、拒绝抽样和Metropolis-Hastings采样算法
Python用MCMC马尔科夫链蒙特卡洛、拒绝抽样和Metropolis-Hastings采样算法
|
4月前
|
算法 数据建模
MATLAB随机波动率SV、GARCH用MCMC马尔可夫链蒙特卡罗方法分析汇率时间序列
MATLAB随机波动率SV、GARCH用MCMC马尔可夫链蒙特卡罗方法分析汇率时间序列
|
4月前
|
数据可视化
R语言极值理论:希尔HILL统计量尾部指数参数估计可视化
R语言极值理论:希尔HILL统计量尾部指数参数估计可视化
|
4月前
|
算法 Linux Python
R语言BUGS序列蒙特卡罗SMC、马尔可夫转换随机波动率SV模型、粒子滤波、Metropolis Hasting采样时间序列分析
R语言BUGS序列蒙特卡罗SMC、马尔可夫转换随机波动率SV模型、粒子滤波、Metropolis Hasting采样时间序列分析
|
4月前
|
资源调度 算法
Matlab马尔可夫链蒙特卡罗法(MCMC)估计随机波动率(SV,Stochastic Volatility) 模型
Matlab马尔可夫链蒙特卡罗法(MCMC)估计随机波动率(SV,Stochastic Volatility) 模型
|
4月前
R语言连续时间马尔科夫链模拟案例 Markov Chains
R语言连续时间马尔科夫链模拟案例 Markov Chains
|
机器学习/深度学习 传感器 算法
【粘菌算法】基于粘菌算法SMA求解单目标优化问题附matlab代码
【粘菌算法】基于粘菌算法SMA求解单目标优化问题附matlab代码
|
机器学习/深度学习 算法 vr&ar
动手学强化学习(四):时序差分算法 (Temporal Difference)
但这在大部分场景下并不现实,机器学习的主要方法都是在数据分布未知的情况下针对具体的数据点来对模型做出更新的。对于大部分强化学习现实场景(例如电子游戏或者一些复杂物理环境),其马尔可夫决策过程的状态转移概率是无法写出来的,也就无法直接进行动态规划。在这种情况下,智能体只能和环境进行交互,通过采样到的数据来学习,这类学习方法统称为无模型的强化学习(model-free reinforcement learning)。
598 0
|
机器学习/深度学习 传感器 算法
鱼鹰算法Osprey Optimization Algorithm求解单目标优化问题附matlab代码
鱼鹰算法Osprey Optimization Algorithm求解单目标优化问题附matlab代码