前言
在我们电脑中怎样去存储数据?
简单来说,内存和磁盘都是电脑存储数据的两个核心介质。不同在于,数据结构是在内存中管理数据。速度快,带电存储。数据库是在磁盘上管理数据。速度慢,不带电存储。永久保存,磁盘上的简单数据 都存储到文件中,复杂的文件 都存储到数据库中。数据库也是对数据的增删查改等功能实现。
什么时候需要在内存底下管理数据和在磁盘底下管理数据呢?
举个例子,当我们电脑打开微信,我们需要增删查改的信息时,这些信息都是存储在我们电脑的内存上的,磁盘上是找不到这些人的信息的。那为什么我们关闭电脑再次打开,这些信息还是存在呢?
打开微信------>根据信息管理特征(群名/分组)------>拉取腾讯服务器的上的信息------->根据数据结构将信息临时存放到我们的电脑内存上。永久存储其实是在腾讯的服务器上的磁盘上。
为什么不会存储在我们的磁盘上?
因为磁盘运行的速度太慢。不方便增删查改。
在前面的C语言学习中,我们写的通讯录就是包含顺序表/数组的数据结构,后面我们还会去学习链表/数/图/哈希表,
什么是数据结构?
数据结构(Data Structure)是计算机存储、组织数据的方式,指相互之间存在一种或多种特定关系的数据元素的集合。
什么是算法?
算法(Algorithm):就是定义良好的计算过程,他取一个或一组的值为输入,并产生出一个或一组值作为输出。简单来说算法就是一系列的计算步骤,用来将输入数据转化成输出结果。
算法的复杂度(算法效率)
如何去衡量一个算法的好坏?
在C语言中我们学习了递归。比如用递归实现斐波那契数列:
long long Fib(int N) { if(N < 3) return 1; return Fib(N-1) + Fib(N-2); }
斐波那契数列的递归实现方式非常简洁,但简洁一定好吗?那该如何衡量其好与坏呢?
这时,我们引入一个【算法复杂度】的概念:
算法在编写成可执行程序后,运行时需要耗费时间资源和空间(内存)资源 。因此衡量一个算法的好坏,一般是从时间和空间两个维度来衡量的,即时间复杂度和空间复杂度。
时间复杂度主要衡量一个算法的运行快慢,而空间复杂度主要衡量一个算法运行所需要的额外空间。在计算机发展的早期,计算机的存储容量很小。所以对空间复杂度很是在乎。但是经过计算机行业的迅速发展,计算机的存储容量已经达到了很高的程度。所以我们如今已经不需要再特别关注一个算法的空间复杂度。 所以,在实际中我们谈论较多就是时间复杂度,即程序运行的效率和速度。
算法的时间复杂度
传统意义上,我们会觉得时间复杂度就是 不同的程序去实现需求 所需要的不同的S秒数。但是实际上,我们去比较S秒数,这是不科学和不准确的。
一个程序在不同的电脑上运行的时间是不同的,运行的S秒数取决于电脑的硬件。例如一个i7 32G的电脑和i3 4G的电脑,运行的S秒数肯定是不同的。没有一个标准去比较。
时间复杂度概念
时间复杂度的定义:在计算机科学中,算法的时间复杂度是一个函数,它定量描述了该算法的运行时间。
一个算法执行所耗费的时间,从理论上说,是不能算出来的,只有你把你的程序放在机器上跑起来,才能知道。但是我们需要每个算法都上机测试吗?是可以都上机测试,但是这很麻烦,所以才有了时间复杂度这个分析方式。这个分析方式和机器的硬件是无关的。
一个算法所花费的时间与其中语句的执行次数成正比例,算法中的基本操作的执行次数,为算法的时间复杂度。
即:找到某条基本语句与问题规模N之间的数学表达式,就是算出了该算法的时间复杂度
大O的渐进表示法
大O符号(Big O notation):是用于描述函数渐进行为的数学符号。
推导大O阶方法:
- 用常数1取代运行时间中的所有加法常数。所有常数都是O(N)
- 在修改后的运行次数函数中,只保留最高阶项。取决定性的项。用极限的思维去考虑。
- 如果最高阶项存在且不是1,则去除与这个项目相乘的常数。去掉系数
- 【预期管理法】另外有些算法的时间复杂度存在最好、平均和最坏情况
- 最坏情况:任意输入规模的最大运行次数(上界)
- 平均情况:任意输入规模的期望运行次数
- 最好情况:任意输入规模的最小运行次数(下界)
- 在实际中一般情况关注的是算法的最坏运行情况,所以数组中搜索数据时间复杂度为O(N)
- 特别提醒:双层嵌套循环不一定是O(N^2),根据思想来求时间复杂度。
- 根据不同的思想求各自的时间复杂度,找到最优的,再写代码。
常见的时间复杂度计算示例
根据代码来计算
示例1
请计算一下Func1中++count语句总共执行了多少次?
void Func1(int N) { int count = 0; for (int i = 0; i < N; ++i) { for (int j = 0; j < N; ++j) { ++count; } } for (int k = 0; k < 2 * N; ++k) { ++count; } int M = 10; while (M--) { ++count; } printf("%d\n", count); }
实际中我们计算时间复杂度时,我们其实并不一定要计算精确的执行次数,而只需要大概执行次数,那么这里我们使用【大O的渐进表示法】。
通过上面我们会发现大O的渐进表示法去掉了那些对结果影响不大的项,简洁明了的表示出了执行次数。
示例2
计算Func2的时间复杂度?
void Func2(int N) { int count = 0; for (int k = 0; k < 2 * N; ++k) { ++count; } int M = 10; while (M--) { ++count; } printf("%d\n", count); }
示例3
计算Func3的时间复杂度?
void Func3(int N, int M) { int count = 0; for (int k = 0; k < M; ++k) { ++count; } for (int k = 0; k < N; ++k) { ++count; } printf("%d\n", count); }
示例4
计算Func4的时间复杂度?
void Func4(int N) { int count = 0; for (int k = 0; k < 100; ++k) { ++count; } printf("%d\n", count); }
- O(1)并不是代表1次,代表的是常数次。
示例5
计算strchr的时间复杂度?
const char * strchr ( const char * str, int character );