【数据结构】算法的复杂度分析:让你拥有未卜先知的能力

简介: 【数据结构】算法的复杂度分析:让你拥有未卜先知的能力

一、前言

一个程序能用很多不同的算法来实现,那么到底那种算法是效率最高的呢?
对此我们有两种方法:

第一种是事后统计法,既在编写之后,通过计时,比较不同算法编写的程序的运行时间,以此确定算法效率的高低。但是该方法的缺陷很大,会受到测试环境、数据规模的影响。

第二种是事前分析法,即在编写之前,依据一些统计方法对算法进行粗略估算,大致的估算出该算法的时间复杂度和空间复杂度,通过对比复杂度来评判那种算法的效率更高。

在这里插入图片描述
可以说,学会了如何分析一个算法的复杂度,就拥有了未卜先知的能力,即在这个算法被写出来之前,就能大致评判出这个算法的好坏。

二、时间复杂度

1、定义

维基百科:在计算机科学中,算法的时间复杂度(time complexity)是一个函数,它定性描述该算法的运行时间。这是一个代表算法输入值的字符串的长度的函数。时间复杂度常用大O符号表述,不包括这个函数的低阶项和首项系数。使用这种方式时,时间复杂度可被称为是渐近的,亦即考察输入值大小趋近无穷时的情况。

在这里插入图片描述

额......具体来举个例子吧。

void Func1(int N)
{
int count = 0;
// n*n次
for (int i = 0; i < N ; ++ i)
{
 for (int j = 0; j < N ; ++ j)
 {
 ++count;
 }
}
// 2*n次
for (int k = 0; k < 2 * N ; ++ k)
{
 ++count;
}
// 10次
int M = 10;
while (M--)
{
 ++count;
}
printf("%d\n", count);
}

这个函数一共执行的基本操作次数为:$F(n)=n^2+2*n+10$
但是,我们计算复杂度的时候,不一定需要计算这么精确的执行次数,我们只需要计算出大概的执行次数就行了,所以这里我们应该使用大O的渐进表示法。那么什么是大O表示法呢?

2、大O的渐进表示法

大O符号(Big O notation):是用于描述函数渐进行为(趋向于特定值或无穷大)的数学符号。

上面函数一共执行的操作次数为:$F(n)=n^2+2*n+10$
学过极限的都知道,当$n$趋向于无穷的时候,$n^2+2*n+10$ 中的$2*n$和10可以忽略不记。
所以用大O的渐进表示法,上面函数的时间复杂度应该为:$O(n^2)$
**这里我们可以简单的总结一下方法:
1、用常数1取代运行时间中的所有加法常数。
2、在修改后的运行次数函数中,只保留最高阶项。
3、嵌套代码的复杂度等于嵌套内外代码复杂度的乘积。
4、如果最高阶项存在且不是1,则去除与这个项目相乘的常数。**

3、常见的时间复杂度

  • $O(1)$型
一般情况下,要算法的执行时间不随问题规模 n 的增加而增大,那么就是$O(1)$的时间复杂度
void Func(int n)
{
 int count = 0;
 for (int k = 0; k < 100; ++ k)
 {
 ++count;
 }
 printf("%d\n", count);
}

以上代码看似存在循环,但是仔细看,当循环到第100次的时候,这个循环就停止了。
所以上面的时间复杂度为 $O(1)$

  • $O(logn)$型
类似于二分查找、幂运算都是$O(logn)$的时间复杂度
void Func(int n)
{
 int i=1;
 while (i <= n)  
 {
   i = i * 2;
 }
}

以上代码,变量 i 从 1 开始,每循环一次就乘以 2。当大于n时,循环结束。所以,假设一共循环了$x$次,那么我们就可以得到:$2^x=n$ 即$x=log_2n$ ,忽略掉底数2,则该时间复杂度为:$O(logn)$

在这里插入图片描述

为什么可以忽略掉底数?
高中学过的换底公式:$log_bn=log_ba*log_an$
现在假设底数不是2是3,我们可以把$log_3n$写成$log_32*log_2n$,根据前面的规矩: 如果最高阶项存在且不是1,则去除与这个项目相乘的常数。 而这里的$log_32$是个常数,可以直接去除。所以兜兜转转,最后的时间复杂度还是$O(logn)$
  • $O(nlogn)$型
void Func(int n)
{
    for (int i = 1; i <= n; i++)
    {
        int j = 1;
        while (j <= n)
        {
            j = j * 2;
        }
    }
}

根据上面可以知道,这个循环里面的循环的复杂度是$O(logn)$,而这个循环又要执行n次,所以算下来,它的时间复杂度是$O(nlogn)$

  • $O(n)$型
void Func(int n)
{
    for (int i = 1; i <= n; i++)
    {
        printf("我一共执行了n次哦!");
    }
}
  • $O(n^2)$型
循环套循环,每个循环都是n次
void Func(int n)
{
    for (int i = 1; i <= n; i++)
    {
        for (int j = 1; j <= n; j++)
        {
            printf("我一共执行了n*n次哦!");
        }
    }
}
  • $O(m*n)$型
void Func(int n,int m)
{
    for (int i = 1; i <= n; i++)
    {
        for (int j = 1; j <= m; j++)
        {
            printf("看的出来我有那些不一样吗?");
        }
    }
}

在这里插入图片描述
确实还有其他很多不同的时间复杂度,比如,$O(2^n)、O(n!)$...但是这些时间复杂度都太高了,以至于高到很多计算机都承受不了,所以比较少见。

在这里插入图片描述
在这里插入图片描述

三、空间复杂度

1、定义

维基百科:在计算机科学中,一个算法或程序的空间复杂度定性地描述该算法或程序运行所需要的存储空间大小。空间复杂度是相应计算问题的输入值的长度的函数,它表示一个算法完全执行所需要的存储空间大小。和时间复杂度类似,空间复杂度通常也使用大O记号来渐进地表示例如$O(n)、O(nlogn)$其中n用来表示输入的长度,该值可以影响算法的空间复杂度。

就像时间复杂度的计算不考虑算法所使用的空间大小一样,空间复杂度也不考虑算法运行需要的时间长短。

注意:函数运行时所需要的栈空间(存储参数、局部变量、一些寄存器信息等)在编译期间已经确定好了,因此空间复杂度主要通过函数在运行时候显式申请的额外空间来确定。

2、常见的空间复杂度

  • $O(1)型$
无论 n 的值如何变化,代码在执行过程中开辟的内存空间是固定的
void Func(int n)
{
    int i = 0; int sum = 0;
    for (i = 1; i < n; i++)
    {
        sum = sum + i;
    }
}

这段代码之开辟了sum和i两个int类型的空间,大小是固定的。
所以这段代码的空间复杂度为$O(1)$

  • $O(n)型$
随着n的值的增大,开辟的空间也逐渐增大
long long Fac(size_t N)
{
 if(N == 0)
 return 1;
 
 return Fac(N-1)*N;
}

这段代码递归调用了N次,开辟了N个栈帧,每个栈帧使用了常数个空间。
所以这段代码的空间复杂度为$O(N)$

  • $O(n^2)型$
  int** fun(int n) {
    int ** s = (int **)malloc(n * sizeof(int *));
    while(n--)
      s[n] = (int *)malloc(n * sizeof(int));
    return s;
  }

此处开辟的是一个二维数组,数组有n行,每行分别有1,2,3,...n列,所以是$n(n + 1)/2$个元素空间,空间复杂度为$n^2$

在这里插入图片描述

相关文章
|
24天前
|
算法 数据处理 C语言
C语言中的位运算技巧,涵盖基本概念、应用场景、实用技巧及示例代码,并讨论了位运算的性能优势及其与其他数据结构和算法的结合
本文深入解析了C语言中的位运算技巧,涵盖基本概念、应用场景、实用技巧及示例代码,并讨论了位运算的性能优势及其与其他数据结构和算法的结合,旨在帮助读者掌握这一高效的数据处理方法。
37 1
|
28天前
|
机器学习/深度学习 算法 数据挖掘
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构
K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构。本文介绍了K-means算法的基本原理,包括初始化、数据点分配与簇中心更新等步骤,以及如何在Python中实现该算法,最后讨论了其优缺点及应用场景。
90 4
|
2天前
|
存储 运维 监控
探索局域网电脑监控软件:Python算法与数据结构的巧妙结合
在数字化时代,局域网电脑监控软件成为企业管理和IT运维的重要工具,确保数据安全和网络稳定。本文探讨其背后的关键技术——Python中的算法与数据结构,如字典用于高效存储设备信息,以及数据收集、异常检测和聚合算法提升监控效率。通过Python代码示例,展示了如何实现基本监控功能,帮助读者理解其工作原理并激发技术兴趣。
41 20
|
25天前
|
存储 算法 搜索推荐
Python 中数据结构和算法的关系
数据结构是算法的载体,算法是对数据结构的操作和运用。它们共同构成了计算机程序的核心,对于提高程序的质量和性能具有至关重要的作用
|
25天前
|
数据采集 存储 算法
Python 中的数据结构和算法优化策略
Python中的数据结构和算法如何进行优化?
|
1月前
|
算法
数据结构之路由表查找算法(深度优先搜索和宽度优先搜索)
在网络通信中,路由表用于指导数据包的传输路径。本文介绍了两种常用的路由表查找算法——深度优先算法(DFS)和宽度优先算法(BFS)。DFS使用栈实现,适合路径问题;BFS使用队列,保证找到最短路径。两者均能有效查找路由信息,但适用场景不同,需根据具体需求选择。文中还提供了这两种算法的核心代码及测试结果,验证了算法的有效性。
98 23
|
1月前
|
算法
数据结构之蜜蜂算法
蜜蜂算法是一种受蜜蜂觅食行为启发的优化算法,通过模拟蜜蜂的群体智能来解决优化问题。本文介绍了蜜蜂算法的基本原理、数据结构设计、核心代码实现及算法优缺点。算法通过迭代更新蜜蜂位置,逐步优化适应度,最终找到问题的最优解。代码实现了单链表结构,用于管理蜜蜂节点,并通过适应度计算、节点移动等操作实现算法的核心功能。蜜蜂算法具有全局寻优能力强、参数设置简单等优点,但也存在对初始化参数敏感、计算复杂度高等缺点。
60 20
|
24天前
|
并行计算 算法 测试技术
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面
C语言因高效灵活被广泛应用于软件开发。本文探讨了优化C语言程序性能的策略,涵盖算法优化、代码结构优化、内存管理优化、编译器优化、数据结构优化、并行计算优化及性能测试与分析七个方面,旨在通过综合策略提升程序性能,满足实际需求。
56 1
|
1月前
|
机器学习/深度学习 算法 C++
数据结构之鲸鱼算法
鲸鱼算法(Whale Optimization Algorithm,WOA)是由伊朗研究员Seyedali Mirjalili于2016年提出的一种基于群体智能的全局优化算法,灵感源自鲸鱼捕食时的群体协作行为。该算法通过模拟鲸鱼的围捕猎物和喷出气泡网的行为,结合全局搜索和局部搜索策略,有效解决了复杂问题的优化需求。其应用广泛,涵盖函数优化、机器学习、图像处理等领域。鲸鱼算法以其简单直观的特点,成为初学者友好型的优化工具,但同时也存在参数敏感、可能陷入局部最优等问题。提供的C++代码示例展示了算法的基本实现和运行过程。
50 0
|
1月前
|
算法 vr&ar 计算机视觉
数据结构之洪水填充算法(DFS)
洪水填充算法是一种基于深度优先搜索(DFS)的图像处理技术,主要用于区域填充和图像分割。通过递归或栈的方式探索图像中的连通区域并进行颜色替换。本文介绍了算法的基本原理、数据结构设计(如链表和栈)、核心代码实现及应用实例,展示了算法在图像编辑等领域的高效性和灵活性。同时,文中也讨论了算法的优缺点,如实现简单但可能存在堆栈溢出的风险等。
42 0