算法学习有些时候是枯燥的,这一次,让我们先人一步,趣学算法!欢迎记录下你的那些努力时刻(算法学习知识点/算法题解/遇到的算法bug/等等),在分享的同时加深对于算法的理解,同时吸收他人的奇思妙想,一起见证技术er的成长~
初始算法
有一名著名的教授曾经提出:程序=数据结构+算法。
什么是算法
算法是对特定问题求解的一种描述。
算法只是一种对特定问题求解的一种描述,它不依赖任何一种语言,既可以使用编程语言跟自然语言,也可以使用图表来表示。
例如:
求以下序列之和
-1,1,-1,1,...,(-1)^n
看到这道题你会怎么做?
算法1.
int sum1(int n) { int a = 0; int sum = 0; for (a = 0; a < n; a++) { sum += pow(-1, a); //求和 } return sum; }
算法2.
int sum2(int n) { if (n % 2 == 0) return 0; else return -1; }
这样看算法2更加简单
算法二只需要运行一次,而算法一需要运行n+1次,如果n是10000次,那么算法一就需要运行10001次。
这里就体现了算法的好与坏
好的算法有如下标准
1.正确性:能够满足问题需求,程序正常运行,无语法错误。
2.易读性:算法遵循标识符命名规则,注释语句恰当适量,简洁易懂。
3.健壮性:算法对错误数字以及错误操作有较好的反应以及处理。
4.高效性:算法运行消耗的时间短。
5.低储存性:算法所需要的存储空间小。
算法的特性
- 有穷性:算法是由若干条语句组成的有穷序列,在语句执行完宏就会停止。
- 确定性:每条语句的含义都是确定的。
- 可行性:算下在当前环境下可以通过有限次运算来实现。
- 输入\输出:有0个或者多个输入以及一个或者多个输出。
算法的时间复杂度
时间复杂度即算法运行需要的时间。
算法的时间复杂度就是算法运行所需的时间。现代计算机一秒能计算数十亿次,所以不能用秒来具体计算算法消耗的时间。由于相同配置的计算机进行一次基本运算的时间是一定的,可以用算法基本运算的执行次数来衡量算法 效率,因此我们将算法基本运算的执行次数作为时间复杂度的衡量标准。
大O表示法
int sum = 0; //运行1次 int num = 0; //运行1次 for (int i = 0; i < n; i++) //运行n+1次 { sum += i; //n次 for (int j = 0; j < n; j++) // n*(n+1)次 { num += j; //n*n次 } }
用Tn来表达上面所有语句运行次数之和Tn=2n^2+3n+3
当n足够大的时,算法的运算时间取决于最高项,小项跟常数可以忽略不计。
大O表示法就是将算法的所有步骤转换为代数项,然后忽略不会对问题的整体复杂度产生较大影响的较低阶常数和系数。
例如上面的例子的时间复杂度用大O表示法就是O(n^2)。
算法复杂度存在的情况
有些算法的时间复杂度存在最好,平均和最坏情况:
例如:在一个长度为N的数组中查找一个数据X,最好的情况1次就找到;平均的情况(N+1)/2就找到;最坏的情况N次才找到.
- 最坏情况:任意输入规模的最大运行次数(上界)
- 平均情况:任意输入规模的期望运行次数
- 最好情况:任意输入规模的最小运行次数(下界)
-> 在实际中一般情况关注的是算法的最坏运行情况,所以数组中搜索数据时间复杂度为O(N)。
本篇文章就先介绍到这里!
- 如对算法有兴趣欢迎参加本次活动,了解更多知识。