一. 算法效率
算法效率分析分为两种:
第一种是时间效率。时间效率也被称为时间复杂度,时间复杂度主要衡量的是一个算法的运行速度。
第二种是空间效率。空间效率也被称作空间复杂度,空间复杂度主要衡量一个算法所需要的额外空间。
PS:在计算机发展的早期,计算机的存储容量很小。所以对空间复杂度很是在乎。但是经过计算机行业的迅速发展,计算机的存储容量已经达到了很高的程度。所以我们如今已经不需要再特别关注一个算法的空间复杂度。所以算法效率主要取决于时间复杂度;如果是做芯片这样的,那么空间复杂度还是很重要的。
二. 时间复杂度
1. 介绍
时间复杂度定义:在计算机科学中,算法的时间复杂度是一个函数,它定量描述了该算法的运行时间(即一个算法执行所耗费的时间)。
2. 大O的渐进表示法
从理论上说,是不能直接算出算法的运行时间的,只有你把你的程序放在机器上跑起来,才能知道。但是我们需要每个算法都上机测试吗?是可以都上机测试,但是这很麻烦,所以才有了时间复杂度这个大致分析方式:一个算法所花费的时间与其中语句的执行次数成正比例,算法中的基本操作的执行次数,为算法的时间复杂度。
举个例子:下面这个算法语句的执行次数为n^2,所以时间复杂度为 n^2
3. 推导大O阶方法
实际中我们计算时间复杂度时,我们其实并不一定要计算精确的执行次数,而只需要大概执行次数,那么这里我们使用大O的渐进表示法。
大O符号(Big O notation):是用于描述函数渐进行为的数学符号
用常数1取代运行时间中的所有加法常数。
在修改后的运行次数函数中,只保留最高阶项。
如果最高阶项存在且不是1,则去除与这个项目相乘的常数。得到的结果就是大O阶
PS:一言以蔽之就是当我们计算出语句执行次数表达式时,假设n无限大,去掉了那些对结果影响不大的项,保留影响最大的项就是该算法的时间复杂度了。
三. 几个常见算法的时间复杂度分析
1. 二分法查找的时间复杂度 O(logN)
PS:为了方便把logx认为是以2为底x的对数
代码:
//二分查找函数 //arr为数组首元素地址 //num为需要查找的数 //size为数组长度 int Binary_Search(int* arr, int num, int size) { int left = 0; int right = size - 1; while (left <= right) { int mid = (left + right) / 2; if (arr[mid] > num) { right = mid - 1; } else if (arr[mid] < num) { left = mid + 1; } else { return mid;//找到了返回对应的下标 } } return -1;//找不到就返回-1 }
分析:从n个数里面查找一个数,找的过程就是和中间那个数比较,如果不相等的话就对应缩小一半的区间(此时数组长度n在原来的基础上除了2),在继续重复的查找。那么每次在数组中间位置查找,找不到就数组长度除以2,最后一次在中间位置找到了,从这里倒退回来,我们从原来长度为n的数组到现在数组长度一共除了几次2?(现在数组长度 * 2 * 2 * 2…2=n),除了几次2就是在最后一次比较找到了数之前我们查找了几次,那就是2的多少次方等于n?就是logn
PS:要真正的算查找了几次找到logn还要加上最后一次的查找的的那一次,总的查找次数就是(logn)+1,推导大O阶方法,当n无穷大时,多个1还是少个1影响不大,所以时间复杂度为O(logN)
2. 阶乘递归Factorial的时间复杂度 O(N)
递归算法的时间复杂度 = 递归次数 + 每次递归中函数的次数
代码:
long long Factorial(size_t N) { return N < 2 ? N : Factorial(N-1)*N; }
分析:这个算法中:递归次数为n次,每次递归中函数的次数为1,所以时间复杂度为O(N)
3. 斐波那契递归Fibonacci的时间复杂度 O(2^N )
代码:
long long Fibonacci(size_t N) { return N < 2 ? N : Fibonacci(N-1)+Fibonacci(N-2); }
分析:
PS: 当n无穷大时,空缺的那部分影响不大,所以该算法的时间复杂度为O(2^N)
四 . 空间复杂度
空间复杂度是对一个算法在运行过程创建出来的临时占用存储空间大小的量度。空间复杂度计算规则基本跟时间复杂度类似,也使用大O渐进表示法。