【计算理论】计算复杂性 ( 算法复杂度标记 | 渐进上界 | 大 O 记号 | 常用的渐进上界 )

简介: 【计算理论】计算复杂性 ( 算法复杂度标记 | 渐进上界 | 大 O 记号 | 常用的渐进上界 )

文章目录

一、渐进上界

二、大 O 记号

三、常用的渐进上界





一、渐进上界


g ( n ) \rm g(n)g(n) 是 f ( n ) \rm f(n)f(n) 的渐进上界 :


存在 c \rm cc , 并且存在 N \rm NN , 使得任何 n \rm nn , 并且 n ≥ N \rm n \geq Nn≥N , 则有 f ( n ) ≤ c g ( n ) \rm f(n) \leq cg(n)f(n)≤cg(n) ,


则称 g ( n ) \rm g(n)g(n) 是 f ( n ) \rm f(n)f(n) 的渐进上界 ;



符号化表示 :


∃ c > 0   ∃ N   ∀ n ( n ≥ N ⇒ f ( n ) ≤ c g ( n ) ) \rm \exist c > 0 \ \exist N \ \forall n ( n \geq N \Rightarrow f(n) \leq cg(n) )∃c>0 ∃N ∀n(n≥N⇒f(n)≤cg(n))



存在 N \rm NN , 使得任何 n \rm nn 并且 n ≥ N \rm n \geq Nn≥N ,


∃ N   ∀ n ( n ≥ N ) \exist N \ \forall n ( n \geq N )∃N ∀n(n≥N)


上述表述 , 表示 当 n \rm nn 充分大 ;



∃ N   ∀ n ( n ≥ N ⇒ f ( n ) ≤ c g ( n ) ) \rm \exist N \ \forall n ( n \geq N \Rightarrow f(n) \leq cg(n) )∃N ∀n(n≥N⇒f(n)≤cg(n)) 整体的含义如下 ,


尽管 f ( n ) \rm f(n)f(n) 不一定小于等于 c g ( n ) \rm cg(n)cg(n) , 当 n \rm nn 充分大时 , 一定有 f ( n ) ≤ c g ( n ) \rm f(n) \leq cg(n)f(n)≤cg(n) , 这是一个趋势 ,


称 g ( n ) \rm g(n)g(n) 是 f ( n ) \rm f(n)f(n) 的渐进上界 ;



在渐近分析中 , 常数 c \rm cc 一般忽略不计 , 其大小是 2 , 3 2 , 32,3 或者几亿 都不重要 ;






二、大 O 记号


f ( n ) = O ( g ( n ) ) \rm f(n) = O(g(n))f(n)=O(g(n))






三、常用的渐进上界


多项式上界 : n c \rm n^cn

c

 , 如 :


① n 2 = O ( n 2 ) \rm n^2 = O(n^2)n

2

=O(n

2

)


② 3 n 2 + 2 n + 1 = O ( n 2 ) \rm 3n^2 + 2n + 1 = O(n^2)3n

2

+2n+1=O(n

2

) , 忽略低阶项 , 系数项 ;


③ 4 n 3 + 2 n 2 + n + 3 = O ( n 3 ) \rm 4n^3 + 2n^2 + n + 3 = O(n^3)4n

3

+2n

2

+n+3=O(n

3

) , 忽略低阶项 , 系数项 ;



指数级上界 : 2 n c \rm 2^{n^c}2

n

c

 , 如 :


① l o g n = O ( n x )   ( x > 0 ) \rm log n = O(n^x) \ (x > 0)logn=O(n

x

) (x>0)



大 O \rm OO 记号运算 :


O ( n ) + O ( n 2 ) = O ( n 2 ) \rm O(n) + O(n^2) = O(n^2)O(n)+O(n

2

)=O(n

2

) , 忽略低阶项 ;



渐进上界表示符号会 忽略系数影响 , 忽略低阶的项 ;



目录
相关文章
|
2月前
|
存储 分布式计算 算法
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
72 0
|
2月前
|
JSON 算法 数据可视化
测试专项笔记(一): 通过算法能力接口返回的检测结果完成相关指标的计算(目标检测)
这篇文章是关于如何通过算法接口返回的目标检测结果来计算性能指标的笔记。它涵盖了任务描述、指标分析(包括TP、FP、FN、TN、精准率和召回率),接口处理,数据集处理,以及如何使用实用工具进行文件操作和数据可视化。文章还提供了一些Python代码示例,用于处理图像文件、转换数据格式以及计算目标检测的性能指标。
77 0
测试专项笔记(一): 通过算法能力接口返回的检测结果完成相关指标的计算(目标检测)
|
2月前
|
存储 算法 Java
【JVM】垃圾释放方式:标记-清除、复制算法、标记-整理、分代回收
【JVM】垃圾释放方式:标记-清除、复制算法、标记-整理、分代回收
66 2
|
3月前
|
算法 数据可视化 数据安全/隐私保护
基于LK光流提取算法的图像序列晃动程度计算matlab仿真
该算法基于Lucas-Kanade光流方法,用于计算图像序列的晃动程度。通过计算相邻帧间的光流场并定义晃动程度指标(如RMS),可量化图像晃动。此版本适用于Matlab 2022a,提供详细中文注释与操作视频。完整代码无水印。
|
3月前
|
算法 C++
如何精确计算出一个算法的CPU运行时间?
如何精确计算出一个算法的CPU运行时间?
|
4月前
|
算法 Go Python
[算法]计算斐波拉契数列
[算法]计算斐波拉契数列
|
4月前
|
算法
计算空间物体包围球的两种算法实现
计算空间物体包围球的两种算法实现
57 0
|
5月前
|
算法 Java
Java面试题:解释垃圾回收中的标记-清除、复制、标记-压缩算法的工作原理
Java面试题:解释垃圾回收中的标记-清除、复制、标记-压缩算法的工作原理
67 1
|
6月前
|
机器学习/深度学习 算法
**反向传播算法**在多层神经网络训练中至关重要,它包括**前向传播**、**计算损失**、**反向传播误差**和**权重更新**。
【6月更文挑战第28天】**反向传播算法**在多层神经网络训练中至关重要,它包括**前向传播**、**计算损失**、**反向传播误差**和**权重更新**。数据从输入层流经隐藏层到输出层,计算预测值。接着,比较预测与真实值计算损失。然后,从输出层开始,利用链式法则反向计算误差和梯度,更新权重以减小损失。此过程迭代进行,直到损失收敛或达到训练次数,优化模型性能。反向传播实现了自动微分,使模型能适应训练数据并泛化到新数据。
75 2
|
5月前
|
算法 Java
Java演进问题之标记-复制算法导致更多的内存占用如何解决
Java演进问题之标记-复制算法导致更多的内存占用如何解决