数据结构溢彩加强版——(二)算法篇

简介: 数据结构溢彩加强版——(二)算法篇

算法:算法是解决特定问题求解步骤的描述,在计算机中表现为指令的有限序列,并且每条指令表示一个或多个操作。@[toc]

两种算法的比较

要求写一个求1+2+3+……+100结果的程序

inti , sum=0, n=100;

for(int=1; i<=n; i++)

{

   sum=sum+i;

}

printf("%d ", sum);

用程序来实现如下:

intsum=0, n=100;

sum= (1+n) *n/2;

printf("%d "sum);

<a name="HpiXo"></a>

算法的特征

1.输入输出

算法具有零个或多个输入;算法至少一个或多个输出。<a name="LB92e"></a>

2.有穷性

有穷性:指算法在执行有限的步骤之后,自动结束而不会出现无限循环,并且每一个步骤在可接受的时间内完成。<a name="Cc0RG"></a>

3.确定性

确定性:算法的每一步骤都具有有确定的含义,不会出现二义性。<a name="K5BPb"></a>

4.可行性

可行性:算法的每一步都必须是可行的,也就是说,每一步都能够通过执行有限次数完成。<a name="Mtfl1"></a>

算法设计的要求

1.正确性

正确性:算法的正确性是指算法至少应该具有输入,输出和加工处理无歧义性,能正确反映问题的需求,能够得到问题的正确答案。

但是算法的“正确”通常在用法上有很大的差别,大体分为一下四个层次:(1)算法程序没有语法错误。(2)算法程序对于合法的输入数据能够产生满足要求的输出结果。(3)算法程序对于非法的输入数据能够得出满足规格说明的结果(4)算法程序对于精心选择的,甚至刁难的测试数据都有满足要求的输出结果。

<a name="oqRK6"></a>

2.可读性

可读性:算法程序设计的另一目的是为了便于阅读,理解和交流。<a name="qn0i8"></a>

3.健壮性

健壮性:当输入数据不合法时,算法也能做出相应的处理,而不是产生异常或莫名奇妙的结果。<a name="cjRZK"></a>

4.时间效率高和存储量低

设计算法应该尽量满足时间效率高和存储量低的需求。


<a name="s2XPo"></a>

算法效率的度量方法

<a name="GccS9"></a>

1.事后统计方法

1.事后统计法衡量算法效率最简单的一个办法就是把算法变成一个程序,然后再机器上执行,然后计时,这就是事后统计法。这样显然有一些缺点:

(1)必须到机器上去计算,而且这个计算不只是一次,我们要用多组数据对其进行重复的运算,然后得到一个统计的结果,那么你要算上机器的时间。(2)肯定会有一些其他因素掩盖算法的本质。

<a name="aaY7W"></a>

2.事前分析估算法

通常比较算法好坏,都是在设计算法的时候就应该知道它的效率,这就是事前分析估算法。

说明: 要比较两个算法,实际上在设计的时候就做着工作来衡量它们的效率,因此更常用的方法是事前分析估算法。我们来看看两种求和的算法:第一种算法:

inti, sum=0, n=100;    /*执行一次*/

for(i=1; i<=n; i++)      /*执行了n+1次*/

{

   sum=sum+i;          /*执行n次*/

}

printf("%d ",sum);          /*执行一次*/

第二种算法:

intsum=0, n=100;       /*执行一次*/

sum= (1+n) *n/2;      /*执行一次*/

printf("%d "sum);           /*执行一次*/

显然,第一种算法,执行了1+(n+1)+n+1次=2n+3次;而第二种算法,是1+1+1=3次。我们再来延伸一下上面这个例子:

intx, j, x=0, sum=0, n=100;      /*执行1次*/

for(i=1; i<=n; i++)

{

   for(j=1; j<=n; j++)

   {

       x++;                            /*执行n*n次*/

       sum=sum+x;

   }

}

printf("%d ",sum);                      /*执行1次*/

在这个例子中,i到1到100,每次都要让j循环100次,而当中x++和sum=sum+x;其实就是1+2+3+……+10000,也就是1002次,所以这个算法当中,循环部分的代码整体需要执行n2。此时你会看到,测试运行时间最可靠的方法就是计算对运行时间有消耗的基本操作的执行次数,运行时间与这个数成正比。最终,在分析程序的运行期间时,最终要的是把程序看成是独立于程序设计语言的算法或一系列步骤。


<a name="ituuW"></a>

函数的渐近增长

我们先通过一个例子来看一下,假设两个算法的输入规模都是n,算法A要做2n+3次操作,可以理解为先有一个n次的循环,执行完成后,再有一个n次的循环,最后有三次赋值或运算,共2n+3次操作,算法B要做3n+!次操作,那么这两个算法那个更快呢?当n = 1时,算法A的效率不如算法B(次数比B多一次)。而当n = 2时,两者效率相同;当n >2时,算法A就开始优于算法B了,随着n的增加,算法A比算法B越来越好了。我们可以说,算法A总体上要好于算法B。此时我们给出这样的定义,输入规模n在没有限制的情况下,只要超过一个数值N,这个函数就总是大于另一个函数,我们称函数是渐进增长的。

函数的渐进增长:给定两个函数 f  (n) 和 g (n),如果存在一个整数N,使得对于所有的 n > N,f  (n)总是比 g (n) 大,那么,就可以说 f  (n) 的渐进增长大于 g (n) 。

从中我们可以发现,随着n的增大,后面的+3还是+1其实是不影响最终的算法变化的,所以,我们可以忽略这些加法常数。再来看第二个例子,算法C是4n + 8,算法D是2n2 + 1。当n≤3的时候,算法C要差于算法D(因为算法C次数比较多),但当n>3后,算法C的优势就越来越优于算法D了,到后来更是远远胜过。而当后面的常数去掉后,我们发现其实结果没有发生改变。甚至我们再观察发现,哪怕去掉与n相乘的常数,这样的结果也没发生改变,算法C′的次数随着n的增长,还是远小于算法D′。也就是说,与最高次项相乘的常数并不重要。再看第三个例子,算法E是2n2+3n+1,算法F是2n3+3n+1。请添加图片描述当n=1的时候,算法E与算法F结果相同,但当n>1后,算法E的优势就要开始优于算法F,随着n的增大,差异非常明显。通过观察发现,最高次项的指数大的,函数随着n的增长,结果也会变得增长特别快。来看最后一个例子。算法G是2n2,算法H是3n+1,算法I是2n2+3n+1。这组数据应该就看得很清楚。当n的值越来越大时,你会发现,3n+1已经没法和2n2的结果相比较,最终几乎可以忽略不计。也就是说,随着n值变得非常大以后,算法G其实已经很趋近于算法I。于是我们可以得到这样一个结论,判断一个算法的效率时,函数中的常数和其他次要项常常可以忽略,而更应该关注主项(最高阶项)的阶数。判断一个算法好不好,我们只通过少量的数据是不能做出准确判断的。根据刚才的几个样例,我们发现,如果我们可以对比这几个算法的关键执行次数函数的渐近增长性,基本就可以分析出:某个算法,随着n的增大,它会越来越优于另一算法,或者越来越差于另一算法。这其实就是事前估算方法的理论依据,通过算法时间复杂度来估算算法时间效率。


<a name="wZrpy"></a>

算法时间复杂度

<a name="Jnoa8"></a>

1.算法时间复杂度定义

在进行算法分析时,语句总的执行次数T  (n)是关于问题规模n的函数,进而分析 T (n) 随 n 的变化情况并确定 T  (n) 的数量级。算法的时间复杂度,也就是算法的时间量度,记作:T (n) = O  (f(n))。它表示随问题规模 n 的增大,算法执行时间的增长率和 f  (n) 的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中 f  (n)是问题规模 n 的某个函数。

这样用大写O( )来体现算法时间复杂度的记法,我们称之为大O记法。一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。显然,由此算法时间复杂度的定义可知,在函数的渐进增长一文中前三个例子的求和算法的时间复杂度分别为O(n),O(1),O(n2)。我们分别可以称之为,O(1)叫常数阶、O(n)叫线性阶、O(n2)叫平方阶,当然,还有其他的一些阶,请接着往下看!<a name="R6Ro9"></a>

2.推导大o阶方法

(1).用常数1取代运行时间中的所有加法常数。(2).在修改后的运行次数函数中,只保留最高阶项。(3).如果最高阶项存在且不是1,则去除与这个项相乘的系数,得到的结果就是大O阶。

<a name="oXbtd"></a>

3.常数阶

首先顺序结构的时间复杂度。下面这个算法,也就是高斯算法,为什么时间复杂度不是O(3),而是O(1)。

intsum=0, n=100;       /* 执行一次 */

sum= (1+n) *n/2;      /* 执行一次 */

printf("%d",sum);           /* 执行一次 */

这个算法的运行次数函数是f(n)=3。根据我们推导大O阶的方法,第一步就是把常数项3改为1。在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)。另外,我们试想一下,如果这个算法当中的语句sum=(1+n)*n/2有10句,即:

intsum=0, n=100;       /*执行1次*/

sum= (1+n) *n/2;           /*执行第1次*/

sum= (1+n) *n/2;           /*执行第2次*/

sum= (1+n) *n/2;           /*执行第3次*/

sum= (1+n) *n/2;           /*执行第4次*/

sum= (1+n) *n/2;           /*执行第5次*/

sum= (1+n) *n/2;           /*执行第6次*/

sum= (1+n) *n/2;           /*执行第7次*/

sum= (1+n) *n/2;           /*执行第8次*/

sum= (1+n) *n/2;           /*执行第9次*/

sum= (1+n) *n/2;           /*执行第10次*/

printf("%d ",sum);          /*执行1次*/

事实上无论n为多少,上面的两段代码就是3次和12次执行的差异。这种与问题的大小无关(n的多少),执行时间恒定的算法,我们称之为具有O(1)的时间复杂度,又叫常数阶。

注意:不管这个常数是多少,我们都记作 O(1),而不能是O(3),O(12)等其它任何数学,这就是初学者尝尝犯的错误。

对于分支结构而言,无论是真,还是假,执行的次数都是恒定的,不会随着n的变大而发生变化,所以单纯的分支结构(不包含在循环结构中),其时间复杂度也是O(1)。<a name="VGQ6k"></a>

4.线性阶

线性阶的循环结构会复杂很多。要确定某个算法的阶次,我们常常需要确定某个特定语句或某个语句集运行的次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。下面这段代码,它的循环的时间复杂度为O(n),因为循环体中的代码须要执行n次。

int i;

for (i = 0; i < n; i++)

{

/* 时间复杂度为O(1)的程序步骤序列 */

}

<a name="SVYAw"></a>

5.对数阶

来看一下下面这段代码的时间复杂度是多少?

int count = 1;

while (count < n)

{

count = count * 2;

/* 时间复杂度为O(1)的程序步骤序列 */

}

由于每次count乘以2之后,就距离n更近了一分。也就是说,有多少个2相乘后大于n,则会退出循环。由2x(次幂)=n得到x=log2n。所以这个循环的时间复杂度为O(logn)。<a name="haYDk"></a>

6.平方阶

下面例子是一个循环嵌套,它的内循环刚才我们已经分析过,时间复杂度为O(n)。

int i, j;

for (i = 0; i < n; i++)

{

for (j = 0; j < n; j++)

{

/* 时间复杂度为O(1)的程序步骤序列 */

}

}

而对于外层的循环,不过是内部这个时间复杂度为O(n)的语句,再循环n次。所以这段代码的时间复杂度为O(n2)(n的平方)。如果外循环的循环次数改为了m,时间复杂度就变为O(m×n)。

int i, j;

for (i = 0; i < n; i++)

{

for (j = 0; j < n; j++)

{

/* 时间复杂度为O(1)的程序步骤序列 */

}

}

所以我们可以总结得出,循环的时间复杂度等于循环体的复杂度乘以该循环运行的次数。那么下面这个循环嵌套,它的时间复杂度是多少呢?

int i, j;

for (i = 0; i < n; i++)

{

/* 注意j = i 而不是0 */

for (j = i; j < n; j++)

{

/* 时间复杂度为O(1)的程序步骤序列 */

}

}

由于当i=0时,内循环执行了n次,当i=1时,执行了n-1次,……当i=n-1时,执行了1次。所以总的执行次数为:n + (n - 1) + (n - 2) + … + 1 = n(n+1) / 2 = n^2 / 2 + n / 2用推导大O阶的方法,第一条,没有加法常数不予考虑;第二条,只保留最高阶项,因此保留n2/2;第三条,去除这个项相乘的常数,也就是去除1/2,最终这段代码的时间复杂度为O(n2)。

接下来看一下对于方法调用的时间复杂度该怎样分析。

int i, j;

for (i = 0; i <n; i++)

{

function(i);

}

上面这段代码调用一个函数 function()。

void function(int count)

{

print(count);

}

函数体是打印这个参数。其实这很好理解,function函数的时间复杂度是O(1)。所以整体的时间复杂度为O(n)。如果 function 是下面这样的:

void function(int count)

{

int j;

for (j = count; j < n; j++)

{

/* 时间复杂度为O(1)的程序步骤序列 */

}

}

事实上,这和上面举的例子是一样的,只不过把嵌套内循环放到了函数中,所以最终的时间复杂度为O(n2)。


<a name="gjf5j"></a>

常见的时间复杂度

最后我们来看一下常见的时间复杂度有哪些吧:执行次数 函数阶 非正式术语

执行次数函数 非正式术语
12 O(1) 常数阶
2n+3 O(n) 线性阶
3n2+2n+1 O(n2) 平方阶
5log2n+19 O(logn) 对数阶
2n+3nlog2 O(nlogn) nlogn阶
6n3+2n2+3n+4 O(n3) 立方阶
2n O(2n) 指数阶

常用的时间复杂度所耗费的时间从小到大依次是:

O(1)<O(logn)<O(n)<O(nlogn)<O(n2)<O(n3)<O(2n)<O(n!)<O(n^n)

<a name="MM27E"></a>

最坏情况与平均情况

你早晨上班出门后突然想起来,手机忘记带了,这年头,钥匙、钱包、手机三大件,出门哪样也不能少呀。于是回家找。打开门一看,手机就在门口玄关的台子上,原来是出门穿鞋时忘记拿了。这当然是比较好,基本没花什么时间寻找。可如果不是放在那里,你就得进去到处找,找完客厅找卧室、找完卧室找厨房、找完厨房找卫生间,就是找不到,时间一分一秒的过去,你突然想起来,可以用家里座机打一下手机,听着手机铃声来找呀,真是笨。终于找到了,在床上枕头下面。你再去上班,迟到。见鬼,这一年的全勤奖,就因为找手机给黄了。找东西有运气好的时候,也有怎么也找不到的情况。但在现实中,通常我们碰到的绝大多数既不是最好的也不是最坏的,所以算下来是平均情况居多。算法的分析也是类似,我们查找一个有n个随机数字数组中的某个数字,最好的情况是第一个数字就是,那么算法的时间复杂度为O(1),但也有可能这个数字就在最后一个位置上待着,那么算法的时间复杂度就是O(n),这是最坏的一种情况了。最坏情况运行时间是一种保证,那就是运行时间将不会再坏了。在应用中,这是一种最重要的需求,通常,除非特别指定,我们提到的运行时间都是最坏情况的运行时间。而平均运行时间也就是从概率的角度看,这个数字在每一个位置的可能性是相同的,所以平均的查找时间为n/2次后发现这个目标元素。平均运行时间是所有情况中最有意义的,因为它是期望的运行时间。也就是说,我们运行一段程序代码时,是希望看到平均运行时间的。可现实中,平均运行时间很难通过分析得到,一般都是通过运行一定数量的实验数据后估算出来的。对算法的分析,一种方法是计算所有情况的平均值,这种时间复杂度的计算方法称为平均时间复杂度。另一种方法是计算最坏情况下的时间复杂度,这种方法称为最坏时间复杂度。一般在没有特殊说明的情况下,都是指最坏时间复杂度。


<a name="RuThr"></a>

算法空间复杂度

我们在写代码时,完全可以用空间来换取时间,比如说,要判断某某年是不是闰年,你可能会花一点心思写了一个算法,而且由于是一个算法,也就意味着,每次给一个年份,都是要通过计算得到是否是闰年的结果。还有另一个办法就是,事先建立一个有2050个元素的数组(年数略比现实多一点),然后把所有的年份按下标的数字对应,如果是闰年,此数组项的值就是1,如果不是值为0。这样,所谓的判断某一年是否是闰年,就变成了查找这个数组的某一项的值是多少的问题。此时,我们的运算是最小化了,但是硬盘上或者内存中需要存储这2050个0和1。这是通过一笔空间上的开销来换取计算时间的小技巧。到底哪一个好,其实要看你用在什么地方。算法的空间复杂度通过计算算法所需的存储空间实现,算法空间复杂度的计算公式记作:S(n)=O(f(n)),其中,n为问题的规模,f(n)为语句关于n所占存储空间的函数。一般情况下,一个程序在机器上执行时,除了需要存储程序本身的指令、常数、变量和输入数据外,还需要存储对数据操作的存储单元。若输入数据所占空间只取决于问题本身,和算法无关,这样只需要分析该算法在实现时所需的辅助单元即可。若算法执行时所需的辅助空间相对于输入数据量而言是个常数,则称此算法为原地工作,空间复杂度为O(1)。通常,我们都使用“时间复杂度”来指运行时间的需求,使用“空间复杂度”指空间需求。当不用限定词地使用“复杂度”时,通常都是指时间复杂度。


<a name="PIvRm"></a>

总结与回顾

。。。。。。


目录
相关文章
|
18天前
|
算法 数据处理 C语言
C语言中的位运算技巧,涵盖基本概念、应用场景、实用技巧及示例代码,并讨论了位运算的性能优势及其与其他数据结构和算法的结合
本文深入解析了C语言中的位运算技巧,涵盖基本概念、应用场景、实用技巧及示例代码,并讨论了位运算的性能优势及其与其他数据结构和算法的结合,旨在帮助读者掌握这一高效的数据处理方法。
28 1
|
21天前
|
机器学习/深度学习 算法 数据挖掘
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构。本文介绍了K-means算法的基本原理,包括初始化、数据点分配与簇中心更新等步骤,以及如何在Python中实现该算法,最后讨论了其优缺点及应用场景。
66 4
|
2月前
|
存储 人工智能 算法
数据结构与算法细节篇之最短路径问题:Dijkstra和Floyd算法详细描述,java语言实现。
这篇文章详细介绍了Dijkstra和Floyd算法,这两种算法分别用于解决单源和多源最短路径问题,并且提供了Java语言的实现代码。
91 3
数据结构与算法细节篇之最短路径问题:Dijkstra和Floyd算法详细描述,java语言实现。
|
19天前
|
存储 算法 搜索推荐
Python 中数据结构和算法的关系
数据结构是算法的载体,算法是对数据结构的操作和运用。它们共同构成了计算机程序的核心,对于提高程序的质量和性能具有至关重要的作用
|
19天前
|
数据采集 存储 算法
Python 中的数据结构和算法优化策略
Python中的数据结构和算法如何进行优化?
|
26天前
|
算法
数据结构之路由表查找算法(深度优先搜索和宽度优先搜索)
在网络通信中,路由表用于指导数据包的传输路径。本文介绍了两种常用的路由表查找算法——深度优先算法(DFS)和宽度优先算法(BFS)。DFS使用栈实现,适合路径问题;BFS使用队列,保证找到最短路径。两者均能有效查找路由信息,但适用场景不同,需根据具体需求选择。文中还提供了这两种算法的核心代码及测试结果,验证了算法的有效性。
89 23
|
26天前
|
算法
数据结构之蜜蜂算法
蜜蜂算法是一种受蜜蜂觅食行为启发的优化算法,通过模拟蜜蜂的群体智能来解决优化问题。本文介绍了蜜蜂算法的基本原理、数据结构设计、核心代码实现及算法优缺点。算法通过迭代更新蜜蜂位置,逐步优化适应度,最终找到问题的最优解。代码实现了单链表结构,用于管理蜜蜂节点,并通过适应度计算、节点移动等操作实现算法的核心功能。蜜蜂算法具有全局寻优能力强、参数设置简单等优点,但也存在对初始化参数敏感、计算复杂度高等缺点。
58 20
|
18天前
|
并行计算 算法 测试技术
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面,旨在通过综合策略提升程序性能,满足实际需求。
47 1
|
27天前
|
机器学习/深度学习 算法 C++
数据结构之鲸鱼算法
鲸鱼算法(Whale Optimization Algorithm,WOA)是由伊朗研究员Seyedali Mirjalili于2016年提出的一种基于群体智能的全局优化算法,灵感源自鲸鱼捕食时的群体协作行为。该算法通过模拟鲸鱼的围捕猎物和喷出气泡网的行为,结合全局搜索和局部搜索策略,有效解决了复杂问题的优化需求。其应用广泛,涵盖函数优化、机器学习、图像处理等领域。鲸鱼算法以其简单直观的特点,成为初学者友好型的优化工具,但同时也存在参数敏感、可能陷入局部最优等问题。提供的C++代码示例展示了算法的基本实现和运行过程。
46 0
|
27天前
|
算法 vr&ar 计算机视觉
数据结构之洪水填充算法(DFS)
洪水填充算法是一种基于深度优先搜索(DFS)的图像处理技术,主要用于区域填充和图像分割。通过递归或栈的方式探索图像中的连通区域并进行颜色替换。本文介绍了算法的基本原理、数据结构设计(如链表和栈)、核心代码实现及应用实例,展示了算法在图像编辑等领域的高效性和灵活性。同时,文中也讨论了算法的优缺点,如实现简单但可能存在堆栈溢出的风险等。
39 0