【入门篇】1 # 复杂度分析(上):如何分析、统计算法的执行效率和资源消耗?

简介: 【入门篇】1 # 复杂度分析(上):如何分析、统计算法的执行效率和资源消耗?

说明

【数据结构与算法之美】专栏学习笔记。



什么是复杂度?

复杂度也叫渐进复杂度,包括时间复杂度和空间复杂度,用来分析算法执行效率与数据规模之间的增长关系,可以粗略地表示,越高阶复杂度的算法,执行效率越低。


常见的复杂度从低阶到高阶有:O(1)、O(logn)、O(n)、O(nlogn)、O( n^2  )。


d100a10293fa46e18e2ce43c00a5ac27.png



为什么需要复杂度分析?


性能测试的局限性:


  • 测试结果非常依赖测试环境
  • 测试结果受数据规模的影响很大

复杂度分析有不依赖执行环境、成本低、效率高、易操作、指导性强的特点。



大 O 复杂度表示法

也叫作渐进时间复杂度(asymptotic time complexity),简称时间复杂度,它不具体表示代码真正的执行时间,只是表示代码执行时间随数据规模增长的变化趋势。



算法的执行效率,粗略地讲,就是算法代码执行的时间。所有代码的执行时间 T(n) 与每行代码的执行次数 f(n) 成正比。


   T(n) = O(f(n))

   T(n):表示代码执行的时间

   n:表示数据规模的大小

   f(n) :表示每行代码执行的次数总和

   O:表示代码的执行时间 T(n) 与 f(n) 表达式成正比。


举个例子:

int cal(int n) {
  int sum = 0;
  int i = 1;
  int j = 1;
  for (; i <= n; ++i) {
    j =1;
    for (; j <= n; ++j) {
      sum = sum +  i * j;
    }
  }
}


上面代码,我们假设每个语句的执行时间是 unit_time,那么

   第 2、3、4 行代码都需要 1 个 unit_time 的执行时间

   第 5、6 行代码循环执行了 n 遍,需要 2n * unit_time 的执行时间

   第 7、8 行代码循环执行了  n^2 遍,需要 22 n^2 * unit_time 的执行时间

综上,上面整段代码总的执行时间 T(n) = ( 2 n^2 + 2n + 3) * unit_time。



大 O 时间复杂度表示法:T(n) = O( n^2  + 2n + 3)。当 n 很大,低阶、常量、系数不左右增长趋势,可以忽略这些项,记录一个最大量级即可:T(n) = O( n^2 )。



时间复杂度分析


1、循环执行次数最多法则

只关注循环执行次数最多的一段代码


大 O 复杂度表示方法只是表示一种变化趋势,通常会忽略掉公式中的常量、低阶、系数,只需要记录一个最大阶的量级即可。

int cal(int n) {
  int sum = 0;
  int i = 1;
  for (; i <= n; ++i) {
    sum = sum + i;
  }
  return sum;
}


比如上面这个例子,循环执行次数最多的是第 4、5 行代码,时间复杂度就是 O(n)。



2、加法法则

总的时间复杂度就等于量级最大的那段代码的时间复杂度。

int cal(int n) {
  int sum_1 = 0;
  int p = 1;
  for (; p < 100; ++p) {
    sum_1 = sum_1 + p;
  }
  int sum_2 = 0;
  int q = 1;
  for (; q < n; ++q) {
    sum_2 = sum_2 + q;
  }
  int sum_3 = 0;
  int i = 1;
  int j = 1;
  for (; i <= n; ++i) {
    j = 1; 
    for (; j <= n; ++j) {
      sum_3 = sum_3 +  i * j;
    }
  }
  return sum_1 + sum_2 + sum_3;
}



上面代码可以分成3段代码来看:


   第一段:可以忽略掉

   第二段:时间复杂度为 O(n)

   第三段:时间复杂度为 O(  n^2 )


这三段代码的时间复杂度,取其中最大的量级 O(  n^2 )。


公式表示如下:


   T(n) = T1(n) + T2(n) = max(O(f(n)), O(g(n))) = O(max(f(n), g(n)))



3、乘法法则

嵌套代码的复杂度等于嵌套内外代码复杂度的乘积

公式如下:

T(n) = T1(n) * T2(n) = O(f(n)) * O(g(n)) = O(f(n) * g(n))

int cal(int n) {
  int ret = 0; 
  int i = 1;
  for (; i < n; ++i) {
    ret = ret + f(i);
  } 
} 
int f(int n) {
  int sum = 0;
  int i = 1;
  for (; i < n; ++i) {
    sum = sum + i;
  } 
  return sum;
}

上面的代码里 for 循环嵌入了另外一个函数,这个代码时间复杂度就是T(n) = T1(n) * T2(n) = O(n * n) = O( n 2 n^2 n2)。




几种常见时间复杂度实例分析


复杂度量级分类:

   多项式量级

   非多项式量级

       O(2^n )

       O(n!)


时间复杂度为非多项式量级的算法问题叫作 NP(Non-Deterministic Polynomial,非确定多项式)问题。


下面看几种常见的多项式时间复杂度:



1、O(1)

O(1) 只是常量级时间复杂度的一种表示方法,并不是指只执行了一行代码。只要算法中不存在循环语句、递归语句,代码的执行时间不随 n 的增大而增长,不管代码多少行,其时间复杂度也是Ο(1)。


2、O(logn)、O(nlogn)

i=1;
while (i <= n)  {
  i = i * 2;
}


上面列出来就是这样的效果

    2^0  2^1 …2^x  = n


这里知道 x 值即可,就能知道 while 这行代码执行的次数,我们通过 2 x 2^x 2x = n 求解得到 x = l o g 2 log_2 log2n,时间复杂度就是 O( l o g 2 log_2 log2n)。


由于对数之间是可以互相转换的,所以在对数阶时间复杂度的表示方法里,我们可以忽略对数的“底”,统一表示为 O(logn)。


对于 O(nlogn) 就是上面讲的乘法规则:一段代码的时间复杂度是 O(logn),循环执行 n 遍,时间复杂度就是 O(nlogn) ,比如,归并排序、快速排序的时间复杂度都是 O(nlogn)。



3、O(m+n)、O(m*n)

int cal(int m, int n) {
  int sum_1 = 0;
  int i = 1;
  for (; i < m; ++i) {
    sum_1 = sum_1 + i;
  }
  int sum_2 = 0;
  int j = 1;
  for (; j < n; ++j) {
    sum_2 = sum_2 + j;
  }
  return sum_1 + sum_2;
}


上面代码里 m 和 n 是表示两个数据规模,无法确定那个大,所以不能忽略其中一个,这里的时间复杂度就是 O(m + n)。

  • 加法规则:T1(m) + T2(n) = O(f(m) + g(n))
  • 乘法法则:T1(m) * T2(n) = O(f(m) * f(n))。



空间复杂度分析

也叫渐进空间复杂度(asymptotic space complexity),表示算法的存储空间与数据规模之间的增长关系。

void print(int n) {
  int i = 0;
  int[] a = new int[n];
  for (i; i <n; ++i) {
    a[i] = i * i;
  }
  for (i = n-1; i >= 0; --i) {
    print out a[i]
  }
}


上面代码空间复杂度就是 O(n)。

  • 第 2 行代码:申请了一个空间存储变量 i,但是它是常量阶的,跟数据规模 n 没有关系,可以忽略。
  • 第 3 行代码:申请了一个大小为 n 的 int 类型数组



常见的空间复杂度就是 O(1)、O(n)、O(  n^2  ),像 O(logn)、O(nlogn) 对数阶复杂度平时用不上,空间复杂度分析比时间复杂度分析要简单很多。





目录
相关文章
|
4月前
|
机器学习/深度学习 边缘计算 算法
NOMA和OFDMA优化算法分析
NOMA和OFDMA优化算法分析
244 127
|
6月前
|
数据采集 机器学习/深度学习 算法
别急着上算法,咱先把数据整明白:大数据分析的5个基本步骤,你都搞对了吗?
别急着上算法,咱先把数据整明白:大数据分析的5个基本步骤,你都搞对了吗?
234 4
|
3月前
|
人工智能 自然语言处理 算法
2025 年 7 月境内深度合成服务算法备案情况分析报告
2025年7月,中央网信办发布第十二批深度合成算法备案信息,全国389款产品通过备案,服务提供者占比超七成。截至7月14日,全国累计备案达3834款,覆盖文本、图像、音视频等多模态场景,广泛应用于生活服务、医疗、金融等领域。广东以135款居首,数字人、AI客服等C端应用主导,民营企业成主力,国企聚焦公共服务。随着AI政策推动,备案已成为AI产品合规上线关键环节。
|
6月前
|
存储 监控 算法
员工行为监控软件中的 Go 语言哈希表算法:理论、实现与分析
当代企业管理体系中,员工行为监控软件已逐步成为维护企业信息安全、提升工作效能的关键工具。这类软件能够实时记录员工操作行为,为企业管理者提供数据驱动的决策依据。其核心支撑技术在于数据结构与算法的精妙运用。本文聚焦于 Go 语言中的哈希表算法,深入探究其在员工行为监控软件中的应用逻辑与实现机制。
147 14
|
7月前
|
自然语言处理 算法 安全
境内深度合成服务算法备案通过名单分析报告
本报告基于《境内深度合成服务算法备案通过名单》,分析了2023年6月至2025年3月公布的10批备案数据,涵盖属地分布、行业应用及产品形式等多个维度。报告显示,深度合成算法主要集中于经济发达地区,如北京、广东、上海等地,涉及教育、医疗、金融、娱乐等多行业。未来趋势显示技术将向多模态融合、行业定制化和安全合规方向发展。建议企业加强技术研发、拓展应用场景、关注政策动态,以在深度合成领域抢占先机。此分析旨在为企业提供参考,助力把握技术发展机遇。
境内深度合成服务算法备案通过名单分析报告
|
7月前
|
供应链 算法 搜索推荐
从公布的前十一批其他算法备案通过名单分析
2025年3月12日,国家网信办发布算法备案信息,深度合成算法通过395款,其他算法45款。前10次备案中,深度合成算法累计3234款,其他类别647款。个性化推送类占比49%,涵盖电商、资讯、视频推荐;检索过滤类占31.53%,用于搜索优化和内容安全;调度决策类占9.12%,集中在物流配送等;排序精选类占8.81%,生成合成类占1.55%。应用领域包括电商、社交媒体、物流、金融、医疗等,互联网科技企业主导,技术向垂直行业渗透,内容安全和多模态技术成新增长点。未来大模型检索和多模态生成或成重点。
从公布的前十一批其他算法备案通过名单分析
|
7月前
|
存储 监控 算法
基于 PHP 语言的滑动窗口频率统计算法在公司局域网监控电脑日志分析中的应用研究
在当代企业网络架构中,公司局域网监控电脑系统需实时处理海量终端设备产生的连接日志。每台设备平均每分钟生成 3 至 5 条网络请求记录,这对监控系统的数据处理能力提出了极高要求。传统关系型数据库在应对这种高频写入场景时,性能往往难以令人满意。故而,引入特定的内存数据结构与优化算法成为必然选择。
148 3
|
7月前
|
机器学习/深度学习 算法 机器人
强化学习:时间差分(TD)(SARSA算法和Q-Learning算法)(看不懂算我输专栏)——手把手教你入门强化学习(六)
本文介绍了时间差分法(TD)中的两种经典算法:SARSA和Q-Learning。二者均为无模型强化学习方法,通过与环境交互估算动作价值函数。SARSA是On-Policy算法,采用ε-greedy策略进行动作选择和评估;而Q-Learning为Off-Policy算法,评估时选取下一状态中估值最大的动作。相比动态规划和蒙特卡洛方法,TD算法结合了自举更新与样本更新的优势,实现边行动边学习。文章通过生动的例子解释了两者的差异,并提供了伪代码帮助理解。
429 2
|
7月前
|
JavaScript 算法 前端开发
JS数组操作方法全景图,全网最全构建完整知识网络!js数组操作方法全集(实现筛选转换、随机排序洗牌算法、复杂数据处理统计等情景详解,附大量源码和易错点解析)
这些方法提供了对数组的全面操作,包括搜索、遍历、转换和聚合等。通过分为原地操作方法、非原地操作方法和其他方法便于您理解和记忆,并熟悉他们各自的使用方法与使用范围。详细的案例与进阶使用,方便您理解数组操作的底层原理。链式调用的几个案例,让您玩转数组操作。 只有锻炼思维才能可持续地解决问题,只有思维才是真正值得学习和分享的核心要素。如果这篇博客能给您带来一点帮助,麻烦您点个赞支持一下,还可以收藏起来以备不时之需,有疑问和错误欢迎在评论区指出~
|
8天前
|
传感器 机器学习/深度学习 算法
【使用 DSP 滤波器加速速度和位移】使用信号处理算法过滤加速度数据并将其转换为速度和位移研究(Matlab代码实现)
【使用 DSP 滤波器加速速度和位移】使用信号处理算法过滤加速度数据并将其转换为速度和位移研究(Matlab代码实现)

热门文章

最新文章