【数据结构】算法效率的度量方法

简介: 【数据结构】算法效率的度量方法

在上篇文章中我们提到了算法的设计要求中我们要尽量满足时间效率高和存储量低的需求.这里的时间效率大都指算法的执行时间.


而算法的执行时间需通过依据该算法编制的程序在计算机上运行时所消耗的时间来度量.度量一个程序的执行时间通常有两种方法:事后统计方法事前分析估算方法.


🎏事后统计方法

这种方法主要是通过设计好的测试程序和数据,利用计算机计时器对不同算法编制的程序运行时间进行比较,从而确定算法效率的高低.


但这种方法存在一些缺陷:


  • 因为要依靠设计好的程序来测试,那么我们就必须依据算法事先编好程序,这通常需要花费大量的时间和精力,并且如果最后的测试结果表明这是个很糟糕的算法,那么之前的所有努力就都白费了.
  • 时间的比较依赖于计算机硬件和软件等环境因素,有时会掩盖算法本身的优劣.计算机的处理器,所用操作系统,编译器,运行框架等软件的不同,也可以影响它们的结果,就算是同一台机器,CPU使用率和内存占用情况不一样,也会造成细微的差异.
  • 算法的测试数据设计困难,并且程序的运行时间往往还与测试数据的规模有很大关系,效率高的算法在小的测试数据面前往往得不到体现.


基于上面的缺陷,我们常常采用另一种事前分析估算的方法:事前分析估算方法.


🎏事前分析估算方法

在计算机程序编制前,依据统计方法对算法进行估算.


一个用高级语言编写的程序在计算机上运行时所消耗的时间取决于下列因素:

  1. 依据的算法选用的策略,方法.
  2. 问题的规模,如求100以内还是1000以内的素数.
  3. 编译产生的代码质量.
  4. 书写程序的语言,对于同一个算法,实现语言的级别越高,执行效率就越低.
  5. 机器执行指令的速度.


这五个因素中,第一条是算法好坏的根本,第三条要由软件来支持,第四条要看程序员的选择,第五条要看硬件性能.这表明使用绝对的时间单位衡量算法的效率是不合适的.


抛开这些与计算机硬件,软件有关的因素,一个程序的运行时间,依赖于算法的好坏和问题的输入规模.

我们拿高斯求和算法举个例子:


从1加到100,第一种算法:

int i=0;            /*执行1次*/
int sum=0;          /*执行1次*/
int n=100;          /*执行1次*/
for(i=1;i<=n;i++)   /*执行n+1次*/
{
    sum=sum+i;      /*执行n次*/
}
printf("%d",sum);   /*执行1次*/

第二种算法:

int i=0;            /*执行1次*/
int sum=0;          /*执行1次*/
int n=100;          /*执行1次*/
sum=(1+n)*n/2;      /*执行1次*/
printf("%d",sum);   /*执行1次*/


显然,第一种算法一共执行了1+1+1+(n+1)+n+1=2n+5次.而第二种算法一共执行了1+1+1+1+1=5次.

事实上这两种算法的前三条语句和最后一条语句是一样的,所以我们只需要关注中间那部分代码即可.我们把循环看作一个整体,忽略头尾循环判断的开销,那么这两个算法其实就是n次与1次的差距.这样一比,两种算法的好坏显而易见了.


通过这个例子我们可以看出,测定运行时间最可靠的方法就是计算对运行时间有消耗的基本操作的执行次数.运行时间与这个计数成正比.


我们不关心编写程序所用的程序设计语言是什么,也不关心这些程序将跑在什么样的计算机中,我们只关心它所实现的算法.


这样,不计那些循环索引的递增和循环终止条件,变量声明,打印结果等操作,最终,在分析程序的运行时间时,最重要的是把程序看成是独立于程序设计语言的算法或一系列步骤.


我们在分析一个算法的运行时间时,重要的是把基本操作的数量与输入规模关联起来,即基本操作的数量必须表示成输入规模的函数.



如上面那个例子,同样的问题输入规模是n,第一种算法需要一段代码运行n次.那么这个问题的输入规模使得操作数量是f(n)=n.而第二种,无论n为多少,运行次数都为1,即f(n)=1.


可以看到,随着n值的越来越大,它们在时间效率上的差异也就越来越大了.



🎏函数的渐进式增长

函数的渐近增长:给定两个函数f(n)和g(n),如果存在一个整数N,使得对于所有的n>N,f(n)总是比g(n)大,那么,我们说f(n)的增长渐近快于g(n).


我们来看一个例子:算法A是n^2,

算法B是2n^2,

算法C是3n+1,

算法D是2n^2+3n+1.

次数 算法A(n^2) 算法B(2n^2) 算法C(3n+1)

算法D(2n^2+3n+1)

n=1 1 2 4 6

n=2

4 8 7 15
n=5 25 50 16 66
n=10 100 200 31 231
n=100 10,000 20,000 301 20,301
n=1,000 1,000,000 2,000,000 3,001 2,003,001
n=10,000 100,000,000 200,000,000 30,001 200,030,001
n=100,000 10,000,000,000 20,000,000,000 300,001 20,000,300,001
n=1,000,000 1,000,000,000,000 2,000,000,000,000 3,000,001 200,000,3000,001

显示详细信息

通过这组表格对比我们可以发现,随着n的增大,算法中的加减常数对结果的影响几乎可以忽略不计

,而非最高次像外的其他次要项对结果的影响也几乎可以忽略,以及最高项前的系数对结果的影响也可以忽略.


因此,判断一个算法的效率时,函数中的常数项和其他次要项以及最高项的系数常常可以忽略,而更应该关注主项(最高阶项)的阶数.



结语

当我们搞清楚算法效率的两种度量方法后,在数据结构算法篇,我们还将一起学习算法的时间复杂度算法的空间复杂度相关的知识.希望这些内容能对大家有所帮助,一起学习,一起进步!



数据结构算法篇思维导图:


相关文章
|
6天前
|
存储 监控 NoSQL
Redis处理大量数据主要依赖于其内存存储结构、高效的数据结构和算法,以及一系列的优化策略
【5月更文挑战第15天】Redis处理大量数据依赖内存存储、高效数据结构和优化策略。选择合适的数据结构、利用批量操作减少网络开销、控制批量大小、使用Redis Cluster进行分布式存储、优化内存使用及监控调优是关键。通过这些方法,Redis能有效处理大量数据并保持高性能。
27 0
|
5天前
|
缓存 算法 Java
数据结构~缓存淘汰算法--LRU算法(Java的俩种实现方式,万字解析
数据结构~缓存淘汰算法--LRU算法(Java的俩种实现方式,万字解析
|
6天前
|
机器学习/深度学习 算法 数据可视化
Python 数据结构和算法实用指南(四)(4)
Python 数据结构和算法实用指南(四)
14 1
|
6天前
|
机器学习/深度学习 存储 算法
Python 数据结构和算法实用指南(四)(3)
Python 数据结构和算法实用指南(四)
15 1
|
6天前
|
存储 算法 搜索推荐
Python 数据结构和算法实用指南(四)(2)
Python 数据结构和算法实用指南(四)
10 0
|
6天前
|
算法 数据安全/隐私保护 计算机视觉
基于二维CS-SCHT变换和LABS方法的水印嵌入和提取算法matlab仿真
该内容包括一个算法的运行展示和详细步骤,使用了MATLAB2022a。算法涉及水印嵌入和提取,利用LAB色彩空间可能用于隐藏水印。水印通过二维CS-SCHT变换、低频系数处理和特定解码策略来提取。代码段展示了水印置乱、图像处理(如噪声、旋转、剪切等攻击)以及水印的逆置乱和提取过程。最后,计算并保存了比特率,用于评估水印的稳健性。
|
3天前
|
算法
m基于BP译码算法的LDPC编译码matlab误码率仿真,对比不同的码长
MATLAB 2022a仿真实现了LDPC码的性能分析,展示了不同码长对纠错能力的影响。短码长LDPC码收敛快但纠错能力有限,长码长则提供更强纠错能力但易陷入局部最优。核心代码通过循环进行误码率仿真,根据EsN0计算误比特率,并保存不同码长(12-768)的结果数据。
21 9
m基于BP译码算法的LDPC编译码matlab误码率仿真,对比不同的码长
|
4天前
|
算法
MATLAB|【免费】融合正余弦和柯西变异的麻雀优化算法SCSSA-CNN-BiLSTM双向长短期记忆网络预测模型
这段内容介绍了一个使用改进的麻雀搜索算法优化CNN-BiLSTM模型进行多输入单输出预测的程序。程序通过融合正余弦和柯西变异提升算法性能,主要优化学习率、正则化参数及BiLSTM的隐层神经元数量。它利用一段简单的风速数据进行演示,对比了改进算法与粒子群、灰狼算法的优化效果。代码包括数据导入、预处理和模型构建部分,并展示了优化前后的效果。建议使用高版本MATLAB运行。
|
6天前
|
算法 计算机视觉
基于高斯混合模型的视频背景提取和人员跟踪算法matlab仿真
该内容是关于使用MATLAB2013B实现基于高斯混合模型(GMM)的视频背景提取和人员跟踪算法。算法通过GMM建立背景模型,新帧与模型比较,提取前景并进行人员跟踪。文章附有程序代码示例,展示从读取视频到结果显示的流程。最后,结果保存在Result.mat文件中。
|
6天前
|
资源调度 算法 块存储
m基于遗传优化的LDPC码OMS译码算法最优偏移参数计算和误码率matlab仿真
MATLAB2022a仿真实现了遗传优化的LDPC码OSD译码算法,通过自动搜索最佳偏移参数ΔΔ以提升纠错性能。该算法结合了低密度奇偶校验码和有序统计译码理论,利用遗传算法进行全局优化,避免手动调整,提高译码效率。核心程序包括编码、调制、AWGN信道模拟及软输入软输出译码等步骤,通过仿真曲线展示了不同SNR下的误码率性能。
10 1