1.事前分析方法
一个算法的运行时间:指一个算法在计算机上运行所消耗费的时间大致可以=计算机执行一种简单的操作(赋值,比较,移动等)所需要的时间与算法中进行的简单操作次数的乘积。
算法运算时间=一个简单操作所需要的时间×简单操作次数
也可以记为算法中的每一条语句的执行时间之和
算法运行时间=每条语句的执行次数(语句频度)× 该语句执行一次所需要的时间
例如:
for(j=0;j<=n;i++) //n+1 { for(j=1;j<=n;j++) //n(n+1) c=[i][j]=0; for(k=0;k<n;k++) //n*n*(n+1) { c[i][j]=c[i][j]+a[i][j]*b[i][j]; //n*n*n } }
算法运算时间T(n)=2n^3+3n^2+2n+1
2.算法时间复杂度的渐进表示法:
为了便于比较不同算法的时间效率,我们仅比较它的数量级
例如:
两种不同算法时间消耗分别是:
T1(n)=10n^2 与 T2(n)=5n^3
根据指数大爆炸可以知道 其n的指数越大其消耗时间越大所有越不好
算法时间复杂度:
若有某个辅助函数f(n),使n --> 无穷大,limT(n)/f(n)是不是那个与0的常数,则称f(n)是T(n)的同级函数,记作T(n)=O(f(n))为算法的时间复杂度。
算法时间复杂度的定义:
算法中基本语句重复执行的次数是问题规模n的某个函数f(n),算法时间度量 记作:T(n)=Of(n)
随着n的增大算法执行时间的增长率和f(n)的增长率相同,称为渐进时间复杂
3. 时间复杂度的计算方法
时间复杂的推导方法一般如下:
第一步:用常数1取代运行时间中的所有加法常数。
第二步:在修改后的运行次数函数中,只保留最高阶项。
第三步:如果最高阶项存在且不是1,则去除与这个项相乘的常数。
时间复杂度一般分为以下几种,分别是:
(1)常数阶 首先顺序结构的时间复杂度。
main() { int sum=0,n=100; sum=(1+n)*n/2; printf(“%d”,sum); }
算法的时间复杂度为O(1)。 这个算法的运行次数函数是f(n)=3。根据我们推导的方法,第一步就是把常数项3改为1。在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)。
(2)线性阶 要确定某个算法的阶次,需要确定某个特定语句或某个语句集运行的次数。因此,要分析算法的复杂度,关键就是要分析循环结构的运行情况。
int i; for(i=0;i<n;i++) { /*时间复杂度为O(1)的程序步骤序列*/ }
(3)对数阶
int count=1; while(count<n) { count=count*2; /*时间复杂度为O(1)的程序步骤序列*/}
由于每次count乘以2之后,就距离n更近了一点。也就是说,有多少个2相乘后大于n,则会退出循环。由2x=n得到x=log2n。所以这个循环的时间复杂度为O(log2n)。
(4)平方阶
inti,j; for(i=0;i<n;i++) { for(j=0;j<n;j++) { /*时间复杂度为O(1)的程序步骤序列*/ } }
循环的时间复杂度等于循环体的复杂度乘以该循环运行的次数。间复杂度为O(n2)。
4. 总结
本文主要讨论算法的时间复杂度,算法时间复杂度在数据结构中是比较难的问题,通过本文给出的计算时间复杂度的方法,能够比较容易掌握时间复杂的计算。
4.渐进空间时间复杂度
定义
对于一个算法,假设其问题的输入大小为n,那么我们可以用 O(f(n)) 来表示其算法复杂度(time complexity)。那么,渐进时间复杂度(asymptotic time complexity)就是当n趋于无穷大的时候,f(n) 得到的极限值。
可以理解为:我们通过计算得出一个算法的运行时间 T(n), 与T(n)同数量级的即幂次最高的O(F(n))即为这个算法的时间复杂度。例如:某算法的运行时间T(n) = n+10与n是同阶的(同数量级的),所以称T(n)=O(n)为该算法的时间复杂度。
算法的渐进分析就是要估计:n逐步增大时资源开销T(n)的增长趋势。
5.设计算法的过程