【数据结构和算法】时间复杂度和空间复杂度

简介: 一、前言二、时间复杂度2.1时间复杂度表示形式2.1.1规则:3.1如何计算时间复杂度3.1.1线性阶3.1.2平方阶3.1.3对数阶常见的时间复杂度排序:三、空间复杂度3.1Java的基本类型内存占用

一、前言


数据结构和算法是程序的灵魂,这是某位程序员大佬所言,学习了这门,我们便可以在


编程之路越走越远。时间复杂度一般是我们所关心的。


二、时间复杂度


时间复杂度简单的说就是一个程序运行所消耗的时间,叫做时间复杂度,我们无法目测


一个程序具体的时间复杂度,但是我们可以估计大概的时间复杂度。


一段好的代码的就根据算法的时间复杂度,即使在大量数据下也能保持高效的运行速


率,这也是我们学习算法的必要性。


2.1时间复杂度表示形式


一般用O()来表示算法的时间复杂度,我们叫做大O记法。


2.1.1规则:


①用常数1取代运行时间中的所有的加法常数。比如,一个程序中有十条输出语句


我们不会记成O(10),而是用O(1)来表示。


②如果最高阶项不是1,那么去掉最高阶阶项,因为我们认为数字在后期影响不大。


如O(8n),则时间复杂度应该为O(n)。


③只保留最高阶项,如O(3n^2+6n+2),则时间复杂度为O(n^2)


3.1如何计算时间复杂度


计算时间复杂度主要看执行的次数和输入的关系


3.1.1线性阶


顾名思义,就是输入和输出成正比。


       for(int i=0;i<n;i++){
            sum+=i;
       } 


当n=1,执行一次,当n=100,执行100次 ,所以当为n时,执行n次,所以时间复杂度为

O(n)


3.1.2平方阶

for(int i=0;i<n;i++){
   for(int j=0;j<n;j++){
    }
}


外层for循环和内层for循环都是时间复杂度时n外层循环一次,内层循环n次,所以时间复杂度是


O(n^2)。


另一种:


for(int i=0;i<n;i++){
   for(int j=0;j<i;j++){
    }
}


外层复杂度是n,内层是1+2+...+n-1+n,所以是n(1+n)/2,由大O法得时间复杂度是O(n^2).


3.1.3对数阶


int i=0;n=100;
while(i<n){
i=i*2;
}


满足条件时,程序运行了,先设X个2相乘后大于n,则2^X=n,解得X=log2(n),所以时间


复杂度时O(log2(n)),log以2为底,n为真数。



常见的时间复杂度排序:


O(1)< O(log2(n))< O(n)< O(nlog2(n)< O(n^2)< O(n^3)< O(2^n)< O(n!)< O(n^n)


一般来说,到了O(n^2)及以上数据量大时运行效率极低,所以数据量大时,应选用更有的算法


三、空间复杂度


简单的说就是程序运行所需要的空间。


写代码我们可以用时间换空间,也可以用空间换时间。加大空间消耗来换取运行时间


的缩短加大时间的消耗换取空间,我们一般选择空间换时间。一般说复杂度是指时间复杂度


3.1Java的基本类型内存占用


微信图片_20220106111233.png


计算机访问内存都是一次一个字节。


一个引用(机器地址)需要8个字节表示


如 Date date=new Date();则date这个变量需要8字节表示。


一般内存的使用,如果不够8字节,都会自动填充8字节(也就是8的整数倍)


目录
相关文章
|
1天前
|
机器学习/深度学习 算法 数据可视化
Python 数据结构和算法实用指南(四)(4)
Python 数据结构和算法实用指南(四)
7 1
|
1天前
|
机器学习/深度学习 存储 算法
Python 数据结构和算法实用指南(四)(3)
Python 数据结构和算法实用指南(四)
12 1
|
1天前
|
存储 算法 搜索推荐
Python 数据结构和算法实用指南(四)(2)
Python 数据结构和算法实用指南(四)
8 0
|
1天前
|
存储 算法 Serverless
Python 数据结构和算法实用指南(四)(1)
Python 数据结构和算法实用指南(四)
11 0
|
4天前
|
算法 数据安全/隐私保护 计算机视觉
基于二维CS-SCHT变换和LABS方法的水印嵌入和提取算法matlab仿真
该内容包括一个算法的运行展示和详细步骤,使用了MATLAB2022a。算法涉及水印嵌入和提取,利用LAB色彩空间可能用于隐藏水印。水印通过二维CS-SCHT变换、低频系数处理和特定解码策略来提取。代码段展示了水印置乱、图像处理(如噪声、旋转、剪切等攻击)以及水印的逆置乱和提取过程。最后,计算并保存了比特率,用于评估水印的稳健性。
|
1天前
|
算法 计算机视觉
基于高斯混合模型的视频背景提取和人员跟踪算法matlab仿真
该内容是关于使用MATLAB2013B实现基于高斯混合模型(GMM)的视频背景提取和人员跟踪算法。算法通过GMM建立背景模型,新帧与模型比较,提取前景并进行人员跟踪。文章附有程序代码示例,展示从读取视频到结果显示的流程。最后,结果保存在Result.mat文件中。
|
1天前
|
资源调度 算法 块存储
m基于遗传优化的LDPC码OMS译码算法最优偏移参数计算和误码率matlab仿真
MATLAB2022a仿真实现了遗传优化的LDPC码OSD译码算法,通过自动搜索最佳偏移参数ΔΔ以提升纠错性能。该算法结合了低密度奇偶校验码和有序统计译码理论,利用遗传算法进行全局优化,避免手动调整,提高译码效率。核心程序包括编码、调制、AWGN信道模拟及软输入软输出译码等步骤,通过仿真曲线展示了不同SNR下的误码率性能。
7 1
|
5天前
|
存储 算法 数据可视化
基于harris角点和RANSAC算法的图像拼接matlab仿真
本文介绍了使用MATLAB2022a进行图像拼接的流程,涉及Harris角点检测和RANSAC算法。Harris角点检测寻找图像中局部曲率变化显著的点,RANSAC则用于排除噪声和异常点,找到最佳匹配。核心程序包括自定义的Harris角点计算函数,RANSAC参数设置,以及匹配点的可视化和仿射变换矩阵计算,最终生成全景图像。
|
5天前
|
算法 Serverless
m基于遗传优化的LDPC码NMS译码算法最优归一化参数计算和误码率matlab仿真
MATLAB 2022a仿真实现了遗传优化的归一化最小和(NMS)译码算法,应用于低密度奇偶校验(LDPC)码。结果显示了遗传优化的迭代过程和误码率对比。遗传算法通过选择、交叉和变异操作寻找最佳归一化因子,以提升NMS译码性能。核心程序包括迭代优化、目标函数计算及性能绘图。最终,展示了SNR与误码率的关系,并保存了关键数据。
13 1
|
6天前
|
算法 调度
考虑需求响应的微网优化调度模型【粒子群算法】【matlab】
考虑需求响应的微网优化调度模型【粒子群算法】【matlab】