用调试来帮你分析并拿捏折半插入排序算法的流程

简介: 用调试来帮你分析并拿捏折半插入排序算法的流程

折半插入排序算法解析


一、理解算法思想


每次从原有数据中取出一个数,插入到之前已经排好的序列中,直到所有的数全部取完,该算法过程与直接插入排序算法极为相似,区别就是在插入的时候 高效 的选择位置。

使用二分(折半)查找来选择插入位置


二、算法流程


外层循环用来找到序列中无序的入口

进入无序入口后,记录入口位置元素值并进入二分查找

二分查找结束后,将元素值向依次后覆盖

最后将入口位置的元素值插入到二分查找结束的位置即可


三、代码实现


1、源代码


int main(void)
{
  int arr[6] = { 27,45,50,35,66,32 };
  int len = sizeof(arr) / sizeof(arr[0]);
  cout << "排序前:" << endl;
  for (int i = 0; i < len; i++) {
  cout << arr[i] << " ";
  }
  cout << endl;
  for (int i = 1; i < len ; i++)
  {
  if (arr[i] < arr[i - 1])
  {
    int temp = arr[i]; 
    int low = 0;
    int high = i - 1;  
    while (low <= high) {
    int middle = (low + high) / 2;
    if (temp < arr[middle])
    {
      high = middle - 1;
    }
    else
    {
      low = middle + 1;
    }
    }
    for (int j = i - 1; j >= high + 1; j--)
    {
    arr[j + 1] = arr[j];
    }
    arr[high + 1] = temp;
  }
  }
  cout << "排序后:" << endl;
  for (int i = 0; i < len; i++) {
  cout << arr[i] << " ";
  }
}


解析:


由于不会出现重复元素,所以最后一定会将搜索区间缩小至low与high重合(左右区间端点不断移动)。在最后一次循环时,low、high的值相同,在比较完成后,左右端点发生交错,相差为1,此时要选择一个变量的值作为新插入元素的位置参照。


需要明确的是,在左右端点重合之前,待插入元素必定是能够落在low与high的区间内的,这就决定了tmp一定大于low对应的元素,小于high对应的元素。


而且最终的插入位置应该放在最后比较元素的后一个位置,也就是mid对应位置的后面,所以是mid+1。如果用low表示,就刚好是low,如果用high表示,则是high+ 1。


2、运行效果



四、调试程序,分析算法流程


1、详细的调试过程


使用VS编译器,在程序更改序列的的位置设置断点



启动调试,可以看到程序已经运行到断点处且无错误



根据上一个调试结果可以看到第一个程序入口位置是 i = 3,二分查找结束的条件是 low >high,那么继续逐语句调试,观察数组中元素值的变化



上一张图片arr[3]变为了50,随之j--,再次调试的话arr[2]的值也会发生改变



可以看到arr[2]的值变为45,那么下一次调试将跳出for循环,arr[1]的将变为入口位置的元素值



那么该入口的折半插入排序就完成了,接下来运行到外层for循环,继续寻找无序入口并重复上面的操作



上次调试的情况是当i=5时,进入折半排序入口,流程和前五步一致,所以直接看最终调试结果




2、时间复杂度


对于折半插入排序来说,元素的串位次数没有并发生变化,只是在查找位置是更加快速了,因此该算法与直接插入排序处于同一量级。不过在数据量很大时,要优于直接插入排序,时间复杂度仍为O(n 2 n^2n

2

)

相关文章
|
机器学习/深度学习 算法
DeepLearning.ai学习笔记(二)改善深层神经网络:超参数调试、正则化以及优化--Week2优化算法
1. Mini-batch梯度下降法 介绍 假设我们的数据量非常多,达到了500万以上,那么此时如果按照传统的梯度下降算法,那么训练模型所花费的时间将非常巨大,所以我们对数据做如下处理: 如图所示,我们以1000为单位,将数据进行划分,令\(x^{\{1\}}=\{x^{(1)},x^{(2)}……x^{(5000)}\}\), 一般地用\(x^{\{t\}},y^{\{t\}}\)来表示划分后的mini-batch。
955 0
|
1月前
|
算法 安全 数据安全/隐私保护
基于game-based算法的动态频谱访问matlab仿真
本算法展示了在认知无线电网络中,通过游戏理论优化动态频谱访问,提高频谱利用率和物理层安全性。程序运行效果包括负载因子、传输功率、信噪比对用户效用和保密率的影响分析。软件版本:Matlab 2022a。完整代码包含详细中文注释和操作视频。
|
9天前
|
算法 数据安全/隐私保护 索引
OFDM系统PAPR算法的MATLAB仿真,对比SLM,PTS以及CAF,对比不同傅里叶变换长度
本项目展示了在MATLAB 2022a环境下,通过选择映射(SLM)与相位截断星座图(PTS)技术有效降低OFDM系统中PAPR的算法实现。包括无水印的算法运行效果预览、核心程序及详尽的中文注释,附带操作步骤视频,适合研究与教学使用。
|
17天前
|
算法 数据挖掘 数据安全/隐私保护
基于FCM模糊聚类算法的图像分割matlab仿真
本项目展示了基于模糊C均值(FCM)算法的图像分割技术。算法运行效果良好,无水印。使用MATLAB 2022a开发,提供完整代码及中文注释,附带操作步骤视频。FCM算法通过隶属度矩阵和聚类中心矩阵实现图像分割,适用于灰度和彩色图像,广泛应用于医学影像、遥感图像等领域。
|
18天前
|
算法 调度
基于遗传模拟退火混合优化算法的车间作业最优调度matlab仿真,输出甘特图
车间作业调度问题(JSSP)通过遗传算法(GA)和模拟退火算法(SA)优化多个作业在并行工作中心上的加工顺序和时间,以最小化总完成时间和机器闲置时间。MATLAB2022a版本运行测试,展示了有效性和可行性。核心程序采用作业列表表示法,结合遗传操作和模拟退火过程,提高算法性能。
|
19天前
|
存储 算法 决策智能
基于免疫算法的TSP问题求解matlab仿真
旅行商问题(TSP)是一个经典的组合优化问题,目标是寻找经过每个城市恰好一次并返回起点的最短回路。本文介绍了一种基于免疫算法(IA)的解决方案,该算法模拟生物免疫系统的运作机制,通过克隆选择、变异和免疫记忆等步骤,有效解决了TSP问题。程序使用MATLAB 2022a版本运行,展示了良好的优化效果。
|
18天前
|
机器学习/深度学习 算法 芯片
基于GSP工具箱的NILM算法matlab仿真
基于GSP工具箱的NILM算法Matlab仿真,利用图信号处理技术解析家庭或建筑内各电器的独立功耗。GSPBox通过图的节点、边和权重矩阵表示电气系统,实现对未知数据的有效分类。系统使用MATLAB2022a版本,通过滤波或分解技术从全局能耗信号中提取子设备的功耗信息。
|
18天前
|
机器学习/深度学习 算法 5G
基于MIMO系统的SDR-AltMin混合预编码算法matlab性能仿真
基于MIMO系统的SDR-AltMin混合预编码算法通过结合半定松弛和交替最小化技术,优化大规模MIMO系统的预编码矩阵,提高信号质量。Matlab 2022a仿真结果显示,该算法能有效提升系统性能并降低计算复杂度。核心程序包括预编码和接收矩阵的设计,以及不同信噪比下的性能评估。
36 3
|
29天前
|
人工智能 算法 数据安全/隐私保护
基于遗传优化的SVD水印嵌入提取算法matlab仿真
该算法基于遗传优化的SVD水印嵌入与提取技术,通过遗传算法优化水印嵌入参数,提高水印的鲁棒性和隐蔽性。在MATLAB2022a环境下测试,展示了优化前后的性能对比及不同干扰下的水印提取效果。核心程序实现了SVD分解、遗传算法流程及其参数优化,有效提升了水印技术的应用价值。
|
30天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化CNN-LSTM网络的数据分类识别算法matlab仿真
本项目展示了基于贝叶斯优化(BO)的CNN-LSTM网络在数据分类中的应用。通过MATLAB 2022a实现,优化前后效果对比明显。核心代码附带中文注释和操作视频,涵盖BO、CNN、LSTM理论,特别是BO优化CNN-LSTM网络的batchsize和学习率,显著提升模型性能。
下一篇
无影云桌面