齐姐漫画:排序算法(一)

简介: 借用《算法导论》里的例子,就是我们打牌的时候,每新拿一张牌都会把它按顺序插入,这,其实就是插入排序。

对于数组来说怎么做呢?


有一个重要的思想,叫做挡板法,就是用挡板把数组分成两个区间:


  • 挡板左边:已排序


  • 挡板右边:未排序


那么排序分三步走


  1. 最初挡板是在数组的最左边,保证已排序区间里一个数都没有,或者也可以包含一个数啦;


  1. 核心思想就是:


依次遍历未排序区间里的元素,在已排序区间里找到正确的位置插入;


  1. 重复这个过程,直到未排序区间为空。


举个例子:{5, 2, 1, 0}


第一步,挡板最初在这里:


image.png


第二步,


把 2 插入已排序区间的正确位置,变成:


image.png


重复这个步骤,把 1 排好:


image.png


最后把 0 排好:


image.png


那代码也很简单:


public void insertionSort(int[] input) {
    if(input == null || input.length <= 1) {
        return;
    }
    for(int i = 1; i < input.length; i++) {
        int tmp = input[i];
        int j = i - 1;
        while(j >= 0 && input[j] > tmp) {
            input[j+1] = input[j];
            j --;
        }
        input[j+1] = tmp;
    }
}


我们来分析一下这个算法的时空复杂度。


时间复杂度


关于时间复杂度大 O 有两个要点


  • 是描述随着自变量的增长,所需时间的增长率;


  • 是渐近线复杂度,就是说


  • 不看系数
  • 只看最高阶项


那么我们关心的 worst case 的情况就是:


如果数组是近乎倒序的,每次插入都要在数组的第一个位置插入,那么已排序区间内的所有的元素都要往后移动一位,这一步平均是 O(n),那么重复 n 次就是 O(n^2).


空间复杂度


重点是一个峰值的概念,并不是累计使用的空间。


这里是 O(1) 没什么好说的。


引入一个概念:sorted in place,也就是原地排序


原地排序就是指空间复杂度为 O(1) 的算法,因为没有占用额外的空间,就是原地打转嘛。


其实 in-place 的思想并不是只在排序算法里有,只不过排序算法是一个最广为人知的例子罢了。本质上就是一个节省使用空间的思想。


但是对于排序算法,只分析它的时空复杂度是不够的,还有另外一个重要指标:


稳定性


意思是元素之间的相对顺序是否保持了不变。


比如说:{5, 2, 2, 1, 0}


这个数组排序完成后这里面的两个 2 的相对顺序没有变,那么这个排序就是一个稳定排序。


那有同学可能就想,顺序变了又有什么关系呢?


其实,在实际工作中我们排序的对象不会只是一个数字,而是一个个的对象 (object),那么先按照对象的一个性质来排序,再按照另一个性质来排序,那就不希望原来的那个顺序被改变了。好像有点抽象,我们举个例子。


比如在股票交易系统里,有买卖双方的报价,那是如何匹配的呢?


  • 先按照价格排序;


  • 在相等的价格中,按照出价的时间顺序来排序。


那么一般来说系统会维持一个按时间排序的价格序列,那么此时只需要用一个具有稳定性的排序算法,再按照价格大小来排序就好了。因为稳定性的排序算法可以保持大小相同的两个对象仍维持着原来的时间顺序。


那么插入排序是否是稳定性的排序呢?


答案是肯定的。因为在我们插入新元素的时候是从后往前检查,并不是像打牌的时候随便插一个位置不能保证相对顺序。


大家可以看下下面的动画 就非常清楚了~


image.png


优化


插入排序其实是有很大的优化空间的,你可以搜一下“希尔排序”。


在刚开始学习的时候,深度固然重要,但因为广度不够,如果学的太深可能会很痛苦,一个知识点就无穷无尽的延展,这并不是一个高效的学习方式。


时间有限时还要做好深度和广度的平衡:


  • 在常用常考的知识点上多花时间精力,追求深度;


  • 在一些拓展性的知识点上点到为止,先知道有这么回事就行。


保持 open minded 的心态,后期就会有质的提高。



image.png


image.png


选择排序


选择排序也是利用了“挡板法”这个经典思想。


挡板左边是已排序区间,右边是未排序区间,那么每次的“选择”是去找右边未排序区间的最小值,找到之后和挡板后面的第一个值换一下,然后再把挡板往右移动一位,保证排好序的这些元素在挡板的左边。


比如之前的例子:{5, 2, 0, 1}


我们用一个挡板来分隔数组是否排好序,


用指针 j 来寻找未排序区间的最小值;


image.png


第一轮 j 最初指向 5,然后遍历整个未排序区间,最终指向 0,那么 0 就和挡板后的第一个元素换一下,也就是和 5 交换一下位置,挡板向右移动一位,结束第一轮。


image.png


第二轮,j 从挡板后的2开始遍历,最终指向1,然后1和挡板后的第一个元素 2 换一下,挡板向右移动一位,结束第二轮。


image.png


第三轮,j 从2开始遍历,最终指向2,然后和2自己换一下,挡板向右移动一位,结束第三轮。


image.png


还剩一个元素,不用遍历了,就结束了。


选择排序与之前的插入排序对比来看,要注意两点:


  1. 挡板必须从 0 开始,而不能从 1 开始。虽然在这两种算法中,挡板的物理意义都是分隔已排序和未排序区间,但是它们的已排序区间里放的元素的意义不同:


  • 选择排序是只能把当前的最小值放进来,而不能放其他的;


  • 插入排序的第一个元素可以为任意值。


所以选择排序的挡板左边最开始不能有任何元素。


  1. 在外层循环时,


  • 选择排序的最后一轮可以省略,因为只剩下最大的那个元素了;


  • 插入排序的最后一轮不可省略,因为它的位置还没定呢。


class Solution {
  public void selectionSort(int[] input) {
    if(input == null || input.length <= 1) {
      return;
    } 
    for(int i = 0; i < input.length - 1; i++) {
      int minValueIndex = i;
      for(int j = i + 1; j < input.length; j++) {
        if(input[j] < input[minValueIndex]) {
          minValueIndex = j;
        }
      }
      swap(input, minValueIndex, i);
    }
  }
  private void swap(int[] input, int x, int y) {
    int tmp = input[x];
    input[x] = input[y];
    input[y] = tmp;
  }
}


image.png


时间复杂度


最内层的 if 语句每执行一次是 O(1) ,那么要执行多少次呢?


  • 当 i = 0 时,是 n-1 次;


  • 当 i = 1 时,是 n-2 次;


  • ...


  • 最后是 1 次;


所以加起来,总共是:


(n-1) + (n-2) + … + 1 = n*(n-1) / 2 = O(n^2)


是这样算出来的,而不是一拍脑袋说两层循环就是 O(n^2).


空间复杂度


这个很简单,最多的情况是 call swap() 的时候,然后 call stack 上每一层就用了几个有限的变量,所以是 O(1)。


那自然也是原地排序算法了。


稳定性


这个答案是否定的,选择排序并没有稳定性。


因为交换的过程破坏了原有的相对顺序,比如: {5, 5, 2, 1, 0} 这个例子,第一次交换是 0 和 第一个 5 交换,于是第一个 5 跑到了数组的最后一位,且再也无翻身之地,所以第一个 5 第二个 5 的相对顺序就已经打乱了。


这个问题在石头哥的那篇谷歌面经文章里有被考到哦,如果还没有看过这篇面经文章的,在「码农田小齐」公众号里回复「谷歌」二字,就可以看到了。


优化


选择排序的其中一步是选出每一轮的最小值,那么这一步如果使用 heapify() 来优化,就可以从 O(n) 优化到 O(logn),这其实就变成了 heapSort.


image.png


image.png


image.png



目录
相关文章
|
搜索推荐 算法 IDE
齐姐漫画:排序算法(二)之「 归并排序」和「外排序」
那我们借用 cs50 里的例子,比如要把一摞卷子排好序,那用并归排序的思想是怎么做的呢?
186 0
齐姐漫画:排序算法(二)之「 归并排序」和「外排序」
|
11天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
145 80
|
4天前
|
机器学习/深度学习 算法
基于遗传优化的双BP神经网络金融序列预测算法matlab仿真
本项目基于遗传优化的双BP神经网络实现金融序列预测,使用MATLAB2022A进行仿真。算法通过两个初始学习率不同的BP神经网络(e1, e2)协同工作,结合遗传算法优化,提高预测精度。实验展示了三个算法的误差对比结果,验证了该方法的有效性。
|
7天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。
|
3天前
|
算法
基于梯度流的扩散映射卡尔曼滤波算法的信号预处理matlab仿真
本项目基于梯度流的扩散映射卡尔曼滤波算法(GFDMKF),用于信号预处理的MATLAB仿真。通过设置不同噪声大小,测试滤波效果。核心代码实现数据加载、含噪信号生成、扩散映射构建及DMK滤波器应用,并展示含噪与无噪信号及滤波结果的对比图。GFDMKF结合非线性流形学习与经典卡尔曼滤波,提高对非线性高维信号的滤波和跟踪性能。 **主要步骤:** 1. 加载数据并生成含噪测量值。 2. 使用扩散映射捕捉低维流形结构。 3. 应用DMK滤波器进行状态估计。 4. 绘制不同SNR下的轨迹示例。
|
8天前
|
机器学习/深度学习 算法 索引
单目标问题的烟花优化算法求解matlab仿真,对比PSO和GA
本项目使用FW烟花优化算法求解单目标问题,并在MATLAB2022A中实现仿真,对比PSO和GA的性能。核心代码展示了适应度计算、火花生成及位置约束等关键步骤。最终通过收敛曲线对比三种算法的优化效果。烟花优化算法模拟烟花爆炸过程,探索搜索空间,寻找全局最优解,适用于复杂非线性问题。PSO和GA则分别适合快速收敛和大解空间的问题。参数调整和算法特性分析显示了各自的优势与局限。
|
2天前
|
算法 5G
基于MSWA相继加权平均的交通流量分配算法matlab仿真
本项目基于MSWA(Modified Successive Weighted Averaging)相继加权平均算法,对包含6个节点、11个路段和9个OD对的交通网络进行流量分配仿真。通过MATLAB2022A实现,核心代码展示了迭代过程及路径收敛曲线。MSWA算法在经典的SUE模型基础上改进,引入动态权重策略,提高分配结果的稳定性和收敛效率。该项目旨在预测和分析城市路网中的交通流量分布,达到用户均衡状态,确保没有出行者能通过改变路径减少个人旅行成本。仿真结果显示了27条无折返有效路径的流量分配情况。
|
30天前
|
算法
基于WOA算法的SVDD参数寻优matlab仿真
该程序利用鲸鱼优化算法(WOA)对支持向量数据描述(SVDD)模型的参数进行优化,以提高数据分类的准确性。通过MATLAB2022A实现,展示了不同信噪比(SNR)下模型的分类误差。WOA通过模拟鲸鱼捕食行为,动态调整SVDD参数,如惩罚因子C和核函数参数γ,以寻找最优参数组合,增强模型的鲁棒性和泛化能力。
|
16天前
|
供应链 算法 调度
排队算法的matlab仿真,带GUI界面
该程序使用MATLAB 2022A版本实现排队算法的仿真,并带有GUI界面。程序支持单队列单服务台、单队列多服务台和多队列多服务台三种排队方式。核心函数`func_mms2`通过模拟到达时间和服务时间,计算阻塞率和利用率。排队论研究系统中顾客和服务台的交互行为,广泛应用于通信网络、生产调度和服务行业等领域,旨在优化系统性能,减少等待时间,提高资源利用率。

热门文章

最新文章