8.函数的渐近增长
我们现在来判断一下,以下两个算法A和B哪个更好。假设两个算法的输入规模都是n,算法A要做2n+3
次操作,你可以理解为先有一个n次的循环,执行完成后,再有一个n次循环,最后有三次赋值或运算,共2n +3次操作。算法B要做3n+1
次操作。你觉得它们谁更快呢?
准确说来,答案是不一定的(如下表所示)。
当n = 1时,算法A效率不如算法B(次数比算法B要多一次)。而当n= 2时,两者效率相同;当n > 2时,算法A就开始优于算法B了,随着n的增加,算法A比算法B越来越好了(执行的次数比B要少)。于是我们可以得出结论,算法A总体上要好过算法B。
此时我们给出这样的定义,输入规模n在没有限制的情况下,只要超过一个数值N,这个函数就总是大于另一个函数,我们称函数是渐近增长的。
函数的渐近增长:给定两个函数f (n)和g (n),如果存在一个整数N,使得对于所有的n >N, f(n)总是比g(n)大,那么,我们说f(n )的增长渐近快于g(n )。
从中我们发现,随着n的增大,后面的+3还是+1其实是不影响最终的算法变化的,例如算法A′与算法B′。
1️⃣ 所以,我们可以忽略这些加法常数。后面的例子,这样的常数被忽略的意义可能会更加明显。
我们来看第二个例子,算法C是4n+8,算法D是2n 2 n^2n2+1。
当n≤3的时候,算法C要差于算法D(因为算法C次数比较多),但当n > 3后,算法C就越来越优于算法D了,到后来更是远远胜过。而当后面的常数去掉后,我们发现其实结果没有发生改变。甚至我们再观察发现,哪怕去掉与n相乘的常数,这样的结果也没发生改变,算法C′的次数随着n的增长,还是远小于算法D’。
2️⃣ 也就是说,与最高次项相乘的常数并不重要。
我们再来看第三个例子。算法E是2n 2 n^2n2+ 3n+1,算法F是2n 3 n^3n3+ 3n +1。
当n = 1的时候,算法E与算法F结果相同,但当n >1后,算法E的优势就要开始优于算法F,随着n的增大,差异越来越明显。通过观察发现,最高次项的指数大的,函数随着n的增长,结果也会增长更快。
我们来看最后一个例子。算法G是2n 2 n^2n2,算法H是3n+1,算法I是2n 2 n^2n2 + 3n+1。
这组数据应该就看得很清楚。当n的值越来越大时,你会发现,3n+1已经没法和2n 2 n^2n2的结果相比较,最终几乎可以忽略不计。也就是说,随着n值变得非常大以后,算法G其实已经很趋近于算法I。
3️⃣ 于是我们可以得到这样一个结论,判断一个算法的效率时,函数中的常数和其他次要项常常可以忽略,而更应该关注主项(最高阶项)的阶数。
【总结】
判断一个算法好不好,我们只通过少量的数据是不能做出准确判断的。根据刚的几个样例,我们发现,如果我们可以对比这几个算法的关键执行次数函数的渐近增长性,基本就可以分析出:某个算法,随着n的增大,它会越来越优于另一算法,或者越来越差于另一算法。这其实就是事前估算方法
的理论依据,通过算法时间复杂度
来估算算法时间效率
。
9.算法时间复杂度
9.1 算法时间复杂度定义
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作T(n) = O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f (n)是问题规模n的某个函数。
这样用大写O()
来体现算法时间复杂度的记法,我们称之为大O记法
。
一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。
显然,由此算法时间复杂度的定义可知,我们的三个求和算法的时间复杂度分别为O(n),O(1),O(n 2 n^2n2)。我们分别给它们取了非官方的名称,O(1)叫常数阶
、O(n)叫线性阶
、O(n 2 n^2n2)叫平方阶
。
9.2 🔖 推导大O阶方法
- 用常数1取代运行时间中的所有加法常数。
- 在修改后的运行次数函数中,只保留最高阶项。
- 如果最高阶项存在且其系数不是1,则去除与这个项相乘的系数。得到的结果就是大O阶。
9.3 常数阶
首先介绍顺序结构的时间复杂度。下面这个算法,也就是刚才的第二种算法(高斯算法),为什么时间复杂度不是O(3),而是O(1)。
🌿 c语言
int sum = 0,n = 100; /* 执行一次 */ sum = (1 + n) * n / 2; /* 执行一次 */ printf("%d", sum); /* 执行一次 */
这个算法的运行次数函数是f(n)=3。根据我们推导大O阶的方法,第一步就是把常数项3改为1。在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)。
另外,我们试想一下,如果这个算法当中的语句sum=(1+n)*n/2有10句,即:
🌿 c语言
int sum = 0, n = 100; /* 执行1次 */ sum = (1+n)*n/2; /* 执行第1次 */ sum = (1+n)*n/2; /* 执行第2次 */ sum = (1+n)*n/2; /* 执行第3次 */ sum = (1+n)*n/2; /* 执行第4次 */ sum = (1+n)*n/2; /* 执行第5次 */ sum = (1+n)*n/2; /* 执行第6次 */ sum = (1+n)*n/2; /* 执行第7次 */ sum = (1+n)*n/2; /* 执行第8次 */ sum = (1+n)*n/2; /* 执行第9次 */ sum = (1+n)*n/2; /* 执行第10次 */ printf("%d",sum); /* 执行1次 */
事实上无论n为多少,上面的两段代码就是3次和12次执行的差异。
📍 这种与问题的大小(n的大小)无关,执行时间恒定的算法,我们称之为具有O(1)的时间复杂度,又叫常数阶
。
⚠️ 不管这个常数是多少,我们都记作
O(1)
,而不能是O(3)、O(12)等其他任!;何数字,这是初学者常常犯的错误。
对于分支结构而言,无论是真,还是假,执行的次数都是恒定的,不会随着n的变大而发生变化,所以单纯的分支结构(不包含在循环结构中),其时间复杂度也是O(1)。
9.4 线性阶
线性阶的循环结构会复杂很多。要确定某个算法的阶次,我们常常需要确定某个特定语句或某个语句集运行的次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。
下面这段代码,它的循环的时间复杂度为O(n),因为循环体中的代码需要执行n次。
🌿 c语言
int i; for(i = 0; i < n; i++) { /* 时间复杂度为O(1)的程序步骤序列 */ }
9.5 对数阶
下面的这段代码,时间复杂度又是多少呢?
🌿 c语言
int count = 1; while count < n) { count = count * 2; /* 时间复杂度为O(1)的程序步骤序列 */ }
由于每次count乘以2之后,就距离n更近了一分。也就是说,有多少个2相乘后大于n,则会退出循环。由 2 x 2^x2x=n 得到 x=l o g 2 n log_2{n}log2n。所以这个循环的时间复杂度为O(logn)。
9.6 平方阶
下面例子是一个循环嵌套,它的内循环刚才我们已经分析过,时间复杂度为O(n)。
🌿 c语言
int i,j; for(i = 0; i < n; i++) { for(j = 0; j < n; j++) { /* 时间复杂度为O(1)的程序步骤序列 */ } }
而对于外层的循环,不过是内部这个时间复杂度为O(n)的语句,再循环n次。所以这段代码的时间复杂度为O(n 2 n^2n2)。
如果外循环的循环次数改为了m,时间复杂度就变为O(m×n)。
🌿 c语言
int i,j; for(i = 0; i < m; i++) { for(j = 0; j < n; j++) { /* 时间复杂度为O(1)的程序步骤序列 */ } }
所以我们可以总结得出,循环的时间复杂度等于循环体的复杂度乘以该循环运行的次数
那么下面这个循环嵌套它的时间复杂度是多少呢?
🌿 c语言
int i,j; for(i = 0; i < n; i++) { for(j = i; j < n; j++) /* 注意j = i而不是0 */ { /* 时间复杂度为O(1)的程序步骤序列 */ } }
由于当i= 0时,内循环执行了n次,当i= 1时,执行了n-1次,……当i= n-1时,执行了1次。所以总的执行次数为:
用我们推导大O阶的方法,第一条,没有加法常数不予考虑;第二条,只保留最高阶项,因此保留 n 2 n^2n2/2 ;第三条,去除与这个项相乘的常数,也就是去除1/2,最终这段代码的时间复杂度为O(n 2 n^2n2)。
对于方法调用的时间复杂度分析,只需要把方法体替换到方法的调用位置即可。
10.常见的时间复杂度
常用的时间复杂度所耗费的时间从小到大依次是:
11.最坏情况与平均情况
你早晨上班出门后突然想起来,手机忘记带了,这年头,钥匙、钱包、手机三大件,出门哪件也不能少呀。于是回家找。打开门一看,手机就在门口玄关的台子上,原来是出门穿鞋时忘记拿了。这当然是比较好,基本没花什么时间寻找。可如果不是放在那里,你就得进去到处找,找完客厅找卧室、找完卧室找厨房、找完厨房找卫生间,就是找不到,时间一分一秒地过去,你突然想起来,可以用家里座机打一下手机,循着手机铃声来找呀,真是笨。终于找到了,在床上枕头下面。你再去上班,迟到。见鬼,这一年的全勤奖,就因为找手机给黄了。
找东西有运气好的时候,也有怎么也找不到的时候。但在现实中,通常我们碰到的绝大多数既不是最好的也不是最坏的,所以算下来是平均情况居多。算法的分析也是类似,我们查找一个有n个随机数字数组中的某个数字,最好的情况是第一个数字就是,那么算法的时间复杂度为O(1),但也有可能这个数字就在最后一个位置上待着,那么算法的时间复杂度就是O(n),这是最坏的一种情况了。
最坏情况运行时间是一种保证,那就是运行时间不会再坏了。在应用中,这是种最重要的需求。通常,除非特别指定,我们提到的运行时间都是最坏情况的运行时间。
而平均运行时间也就是从概率的角度看,这个数字在每一个位置的可能性是相同的,所以平均的查找时间为n/2次后发现这个目标元素。
平均运行时间是所有情况中最有意义的,因为它是期望的运行时间。也就是说,我们运行一段程序代码时,是希望看到平均运行时间的。可现实中,平均运行时间很难通过分析得到,一般都是通过运行一定数量的实验数据后估算出来的。
对算法的分析,一种方法是计算所有情况的平均值,这种时间复杂度的计算方法称为平均时间复杂度
。另一种方法是计算最坏情况下的时间复杂度,这种方法称为最坏时间复杂度
。一般在没有特殊说明的情况下,都是指最坏时间复杂度。
12.算法空间复杂度
我们在写代码时,完全可以用空间来换取时间
,比如说,要判断某某年是不是闰年,你可能会花一点心思写了一个算法,而且由于是一个算法,也就意味着,每次给一个年份,都是要通过计算得到是否是闰年的结果。还有另一个办法就是,事先建立一个有2050个元素的数组(年数略比现实多一点),然后把所有的年份按下标的数字对应,如果是闰年,此数组项的值就是1,如果不是则值为0。这样,所谓的判断某一年是否是闰年,就变成了查找这个数组的某一项的值是多少的问题。此时,我们的运算是最小化了,但是硬盘上或者内存中需要存储这2050个0或1的数字。
这是以存储空间来换取计算时间的小技巧。到底哪-个好,其实要看你用在什么地方。
算法的空间复杂度通过计算算法所需的存储空间实现,算法空间复杂度的计算公式记作:S(n)= O(f(n)),其中,n为问题的规模,fn)为语句关于n所占存储空间的函数。
一般情况下,一个程序在机器上执行时,除了需要存储程序本身的指令
、常数
、变量
和输入数据
外,还需要存储对数据操作的存储单元
。若输入数据所占空间只取决于问题本身,和算法无关,这样只需要分析该算法在实现时所需的辅助单元即可。若算法执行时所需的辅助空间相对于输入数据量而言是个常数,则称此算法为原地工作
,空间复杂度为O(1)。
通常,我们都使用“时间复杂度”来指运行时间的需求,使用“空间复杂度”指空间需求。当不用限定词地使用“复杂度”时,通常都是指时间复杂度。
13.总结
数据结构与算法的关系是相互依赖不可分割的。
1️⃣ 算法的定义
算法是解决特定问题求解步骤的描述,在计算机中为指令的有限序列,并且每条指令表示一个或多个操作。
2️⃣ 算法的特性
有穷性、确定性、可行性、输入、输出。
3️⃣ 算法的设计的要求
正确性、可读性、健壮性、高效率和低存储量需求。
4️⃣ 算法的度量方法
事后统计方法(不科学、不准确))、事前分析估算方法。
5️⃣ 函数的渐近增长定义
给定两个函数fn)和g(n),如果存在一个整数N,使得对于所有的n>N,n)总是比g(n)大,那么,我们说fn)的增长渐近快于g(n)。于是我们可以得出一个结论,判断一个算法好不好,我们只通过少量的数据是不能做出准确判断的,如果我们可以对比算法的关键执行次数函数的渐近增长性,基本就可以分析出:某个算法,随着n的变大,它会越来越优于另一算法,或者越来越差于另一算法。
6️⃣ 推导大O阶的步骤
- 用常数1取代运行时间中的所有加法常数。
- 在修改后的运行次数函数中,只保留最高阶项。
- 如果最高阶项存在且其系数不是1,则去除与这个项相乘的系数。得到的结果就是大O阶。
7️⃣ 常见的时间复杂度所耗时间的大小排列
8️⃣ 算法最坏情况和平均情况,以及空间复杂度的概念