2.7 算法时间复杂度
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定 T( n )的数量级。算法的时间复杂度,也就是算法的时间量度,记作: T (n)= O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。
这样用大写0( )来体现算法时间复杂度的记法,我们称之为大0记法。
一般情况下, 随着n的增大,T(n)增长最慢的算法为最优算法。
显然,由此算法时间复杂度的定义可知,我们的三个求和算法的时间复杂度分别为O(n), O(1), O(n2)。我们分别给它们取了非官方的名称,0(1)叫常数阶、0(n)叫线性阶、0(n2)叫平方阶,当然,还有其他的一些阶,之后会介绍
2.7.2 推导大0阶方法
那么如何分析一个算法的时间复杂度呢?即如何推导大0阶呢?
推导大O阶:
1.用常数1取代运行时间中的所有加法常数
2.在修改后的运行次数函数中,只保留最高阶项
3.如果最高阶项存在且不是1,则去除与这个项相乘的常数。
得到的结果就是大O阶
哈,仿佛是得到了游戏攻略一样,我们好像已经得到了一个推导算法时间复杂度的万能公式。可事实上,分析一个算法的时间复杂度,没有这么简单,还需要多.看几个例子
2.7.3 常数阶
首先顺序结构的时间复杂度。下面这个算法,也就是刚才的第二种算法(高斯算法),为什么时间复杂度不是0(3),而是0(1)。
int sum = 0,n = 100; /*执行一次*/ sum =(1+n)*n/2; /*执行一次*/ printf ( "8d", sum) ; /*执行一次*/
这个算法的运行次数函数是f (n) =3。 根据我们推导大0阶的方法,第一步就是把常数项3改为1。在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)
如果有多条sum,那么它的时间复杂度依旧是O(1),也叫常数阶
注意:不管这个常数是多少,。我们都记作O(),而不能是O(3). O(12)等其他任何数字
2.7.4 线性阶
线性阶的循环结构会复杂很多。要确定某个算法的阶次,我们常常需要确定某个特定语句或某个语句集运行的次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。
下面这段代码,它的循环的时间复杂度为O(n), 因为循环体中的代码须要执行n次。
#include <stdio.h> void main() { int sum; for (int i = 0; i < n; i++) { sum += i; } printf("%d",sum); }
2.7.5 对数阶
int count=1; while(count< n) { count = count * 2; }
由于每次count乘以2之后,就距离n更近了一分。也就是说,有多少个2相乘后大于n,则会退出循环。由2^x=n 得到x=log2n。 所以这个循环的时间复杂度为
O(logn)。
2.7.6 平方阶
下面例子是一个循环嵌套,它的内循环刚才我们已经分析过,时间复杂度为
O(n)。
for (int i = 0; i < n; i++) { for (int j = 0; j < n; j++) { /* code */ } }
而对于外层的循环,不过是内部这个时间复杂度为O(n)的语句,再循环n次。所以这段代码的时间复杂度为0(n^2)。
下面这个循环嵌套,它的时间复杂度是多少呢?
for (int i = 0; i < n; i++) { for (j = i; j < n; j++) { /* code */ } }
用我们推导大0阶的方法,第一条,没有加法常数不予考虑;第二条,只保留最高阶项,因此保留n2/2; 第三条,去除这个项相乘的常数,也就是去除1/2, 最终这段代码的时间复杂度为O(n^2)。
2.7.7 方法调用的时间复杂度分析
for (int i = 0; i < n; i++) { func(i) }void func(int count){ printf(count);}
函数体是打印这个参数。其实这很好理解,function 函数的时间复杂度是O(1)。所以整体的时间复杂度为O(n)。
如果调用函数的内容有个循环,那么时间复杂度为O(n^2)
根据大O阶的方法,代码的时间复杂度也是O(n^2)