算法复杂度分析

简介: 算法复杂度分析

我们都知道软件开发,数据结构、算法都是我们绕不过的知识点,而它们都是为了解决“快”和“省”的问题。所以我们怎么去衡量我们写出来的代码既快又省呢?这里就要用我们这篇文章说的两个复杂度来说明了。

复杂度分析

写出来的代码,通过一些监控、统计,就可以知道我们的程序执行时间以及所占用的内存大小等,但是这些监控、统计是建立在我们运行程序的基础上的,而且与我们运行的环境、数据量的大小、数据的随机性等等因素有密切的关系,我们很难保证代码上到线上就如我们所想那样速度非常而且占用内存小。

所以我们就需要有一种建立在程序无需运行的基础上的机制来帮助我们粗略估算程序有“多快”“多省”。

大 O 复杂度表示法

我们先来看以下代码:

func func3(n int) int {
  result := 0
  for i := 0; i <= n; i++ {
    result += i
  }
  return result
}

CPU 的角度来看,这段代码的每一行都执行着类似的操作:读数据-运算-写数据

我们假设对每行代码的执行都是一样的时间,假设为 time_stamp

第 1 行代码需要 1 个 time_stamp 的执行时间,第 2、3 行都运行了 n 遍,所以需要 2n*time_stamp 的执行时间,所以这段代码总的执行时间就是 (2n+1)*time_stamp。可以看出来,所有代码的执行时间 T(n) 与每行代码的执行次数成正比。

那么我们就可以总结出来一个公式了:

解释一下这个公式:T(n) 它表示代码执行的时间;n 表示数据规模的大小;func(n) 表示每行代码执行的次数总和。因为这是一个公式,所以用 func(n) 来表示。公式中的 O,表示代码的执行时间 T(n)func(n) 表达式成正比。

时间复杂度

那我们来看看如何分析一段代码的时间复杂度。

1. 关注循环执行次数最多的代码

如下代码

func func3(n int) int {
  result := 0
  for i := 0; i <= n; i++ {
    result += i
  }
  return result
}

这段代码执行次数实际由传入的 n 来计算,这个时候我们就认为这是跟 n 线性增长的,则此段代码的时间复杂度为 O(n)

2. 加法法则:总复杂度等于量级最大的那段代码的复杂度

如下代码:

int cal(int n) {
   int sum_1 = 0;
   int p = 1;
   for (; p < 100; ++p) {
     sum_1 = sum_1 + p;
   }
   int sum_2 = 0;
   int q = 1;
   for (; q < n; ++q) {
     sum_2 = sum_2 + q;
   }
 
   int sum_3 = 0;
   int i = 1;
   int j = 1;
   for (; i <= n; ++i) {
     j = 1; 
     for (; j <= n; ++j) {
       sum_3 = sum_3 +  i * j;
     }
   }
 
   return sum_1 + sum_2 + sum_3;
 }

这段代码分为三部分。我们可以分别分析每一部分的时间复杂度,然后把它们放到一块儿,再取一个量级最大的作为整段代码的复杂度。

第一个 for 循环就执行了 100 次,和 n 无关,所以是常量级的 O(1)。

第二个 for 循环根据传入的 n 来进行执行,所以是线性级别的 O(n)。

第三个 for 循环有嵌套循环,所以是平方级别的 O(n^2)。

综合这三段代码的时间复杂度,我们取其中最大的量级。所以,整段代码的时间复杂度就为 O(n^2)。

3. 乘法法则:嵌套代码的复杂度等于嵌套内外代码复杂度的乘积

也就是说,假设 T1(n) = O(n),T2(n) = O(n2),则 T1(n) * T2(n) = O(n3)。可以把乘法法则看成是嵌套循环。

func func4(n int) int {
  sum := 0
  for i := 1; i < n; i++ {
    for j := 1; j < n; j++ {
      sum = sum + i
    }
  }
  return sum
}

常见的时间复杂度

O(1):常数复杂度

n:=1000
fmt.Println("input :",n)

O(log n):对数复杂度

for i <= n {
    i = i * 2
}

O(n):线性时间复杂度

for i := 0; i <= n; i++ {
  fmt.Println("i : ", i)
}

O(n^2):平方

for i := 0; i <= 100; i++ {
  for j := 0; j <= 100; j++ {
    fmt.Printf("i : %d, j : %d\n", i, j)
  }
}

空间复杂度

表示算法的存储空间与数据规模之间的增长关系。

空间复杂度就没有时间复杂度那么多变、复杂了,主要是观察函数中创建对象的多少。

比如如下代码:

func func5(n int) int {
  var i, count = 1, 0
  for i <= n {
    i = i * 2
    count++
  }
  return count
}

从第二行来看,我们就只申请了 icount 两个变量的内存,那么我们就可以认为这段函数的空间复杂度为常量级别的,也就是我们所说的 O(1)

常见的空间复杂度

我们常见的空间复杂度就是 O(1)O(n)O(n^2),像 O(logn)O(nlogn) 这样的对数阶复杂度平时都用不到。

相关文章
|
2月前
|
机器学习/深度学习 算法 搜索推荐
从理论到实践,Python算法复杂度分析一站式教程,助你轻松驾驭大数据挑战!
【10月更文挑战第4天】在大数据时代,算法效率至关重要。本文从理论入手,介绍时间复杂度和空间复杂度两个核心概念,并通过冒泡排序和快速排序的Python实现详细分析其复杂度。冒泡排序的时间复杂度为O(n^2),空间复杂度为O(1);快速排序平均时间复杂度为O(n log n),空间复杂度为O(log n)。文章还介绍了算法选择、分而治之及空间换时间等优化策略,帮助你在大数据挑战中游刃有余。
87 4
|
4月前
|
人工智能 算法 BI
第一周算法设计与分析 D : 两面包夹芝士
这篇文章介绍了解决算法问题"两面包夹芝士"的方法,通过找出两个数组中的最大最小值,计算这两个值之间的整数个数,包括特判不存在整数的情况。
|
23天前
|
并行计算 算法 测试技术
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面,旨在通过综合策略提升程序性能,满足实际需求。
54 1
|
2月前
|
并行计算 算法 IDE
【灵码助力Cuda算法分析】分析共享内存的矩阵乘法优化
本文介绍了如何利用通义灵码在Visual Studio 2022中对基于CUDA的共享内存矩阵乘法优化代码进行深入分析。文章从整体程序结构入手,逐步深入到线程调度、矩阵分块、循环展开等关键细节,最后通过带入具体值的方式进一步解析复杂循环逻辑,展示了通义灵码在辅助理解和优化CUDA编程中的强大功能。
|
2月前
|
算法
PID算法原理分析
【10月更文挑战第12天】PID控制方法从提出至今已有百余年历史,其由于结构简单、易于实现、鲁棒性好、可靠性高等特点,在机电、冶金、机械、化工等行业中应用广泛。
|
3月前
|
算法 搜索推荐 开发者
别再让复杂度拖你后腿!Python 算法设计与分析实战,教你如何精准评估与优化!
在 Python 编程中,算法的性能至关重要。本文将带您深入了解算法复杂度的概念,包括时间复杂度和空间复杂度。通过具体的例子,如冒泡排序算法 (`O(n^2)` 时间复杂度,`O(1)` 空间复杂度),我们将展示如何评估算法的性能。同时,我们还会介绍如何优化算法,例如使用 Python 的内置函数 `max` 来提高查找最大值的效率,或利用哈希表将查找时间从 `O(n)` 降至 `O(1)`。此外,还将介绍使用 `timeit` 模块等工具来评估算法性能的方法。通过不断实践,您将能更高效地优化 Python 程序。
70 4
|
3月前
|
算法 程序员 Python
程序员必看!Python复杂度分析全攻略,让你的算法设计既快又省内存!
在编程领域,Python以简洁的语法和强大的库支持成为众多程序员的首选语言。然而,性能优化仍是挑战。本文将带你深入了解Python算法的复杂度分析,从时间与空间复杂度入手,分享四大最佳实践:选择合适算法、优化实现、利用Python特性减少空间消耗及定期评估调整,助你写出高效且节省内存的代码,轻松应对各种编程挑战。
60 1
|
2月前
|
算法
PID算法原理分析及优化
【10月更文挑战第6天】PID控制方法从提出至今已有百余年历史,其由于结构简单、易于实现、鲁棒性好、可靠性高等特点,在机电、冶金、机械、化工等行业中应用广泛。
|
3月前
|
算法 数据可视化
基于SSA奇异谱分析算法的时间序列趋势线提取matlab仿真
奇异谱分析(SSA)是一种基于奇异值分解(SVD)和轨迹矩阵的非线性、非参数时间序列分析方法,适用于提取趋势、周期性和噪声成分。本项目使用MATLAB 2022a版本实现从强干扰序列中提取趋势线,并通过可视化展示了原时间序列与提取的趋势分量。代码实现了滑动窗口下的奇异值分解和分组重构,适用于非线性和非平稳时间序列分析。此方法在气候变化、金融市场和生物医学信号处理等领域有广泛应用。
195 19
|
4月前
|
算法
算法设计与分析作业
这篇文章是关于算法设计与分析的作业,其中包含了两个算法实现:一个是使用分治算法实现的十进制大整数相乘(包括加法、减法和乘法函数),并进行了正确性和健壮性测试;另一个是使用快速排序思想实现的分治查找第K小元素的程序,并分析了其平均和最坏时间复杂度。
算法设计与分析作业