【算法基础】计数排序解析

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 计数排序就是一种牺牲内存空间来换取低时间复杂度的排序算法,通过额外申请内存空间,根据统计符合条件的元素个数来确定排序位置。
作者:[柒号华仔]
个人信条:星光不问赶路人,岁月不负有心人。
个人方向:专注于5G领域,同时兼顾其他网络协议,编解码协议,C/C++,linux等,感兴趣的小伙伴可以关注我,一起交流。

1. 计数排序介绍

1.1 定义

计数排序就是一种牺牲内存空间来换取低时间复杂度的排序算法,通过额外申请内存空间,根据统计符合条件的元素个数来确定排序位置。

1.2 基本原理

1.对于一个待排序数组,获取数组的最大值max和最小值min;

2.创建一个长度为max-min+1的计数数组count array,统计每个数值在待排数组中出现的次数,将次数填写到数组count array中,对应下标=数值-min;

3.创建一个输出数组out array,长度与待排序数组长度一致,根据每个元素出现的次数按顺序填写元素到out array,元素数值 = 计数数组下标+min。

例如:对于数组array[20] = {2,3,8,7,1,2,2,2,7,3,9,8,2,1,4,2,4,6,9,2};进行排序
首先,找出待排数组最大值max = 9,最小值min = 1;
然后建立计数数组countArray[9],统计每个数值出现次数填入countArray

image.png

建立输出数组outArray[20],根据元素出现次数按顺序填写:

第一个元素数值为1,出现2次,因此outArray[0]=1,outArray[1]=1;

第二个元素数值为2,出现7次,因此outArray[2]~outArray[8]均等于2;

第三个元素数值为3,出现2次,因此outArray[9]=3,outArray[10]=3;

第四个元素数值为4,出现2次,因此outArray[11]=4,outArray[11]=4;

第五个元素数值为5,出现0次;

第六个元素数值为6,出现2次,因此outArray[12]=6,outArray[13]=6;

第七个元素数值为7,出现2次,因此outArray[14]=7,outArray[15]=7;

第八个元素数值为8,出现2次,因此outArray[16]=8,outArray[17]=8;

第九个元素数值为9,出现2次,因此outArray[18]=9,outArray[19]=9;

image.png

1.3 时间复杂度和空间复杂度

计数排序是非比较排序,时间复杂度是O(n+k),空间复杂度是O(k)。

1.4 优缺点

优点:在对一定范围内的整数排序时,它的复杂度为O(n+k),快于任何比较排序算法。

缺点:如果最大值和最小值相差非常大,元素数值分布间隔比较大,所申请额外内存空间很大,会造成空间浪费。

2. 代码实现

#include <stdio.h>
#include <string.h>

void printArray(int array[], int size)
{
    int i;
    for (i = 0; i < size; i++) {
        printf("%d ", array[i]);
    }
    printf("\n");
}

int countSort(int array[],int arrayLen)
{
    int max,min,countLen;
    int i,j;
    max = array[0];
    min = array[0];
    for(int i = 1; i < arrayLen; i++) {
        if (array[i] > max) {
            max = array[i];
        }
        if(array[i] < min) {
            min = array[i];
        }
    }

    countLen = max - min + 1;
    int countArray[countLen];
    memset(countArray,0,sizeof(countArray));
    for(i = 0;i<countLen;i++){
        for(j = 0;j<arrayLen;j++){
            if(array[j] == i+min)
                countArray[i]++;
        }
    }

    j = 0;
    for (i=0; i<countLen; i++)
    {
        while (countArray[i] > 0)
        {
            array[j] = i + min;
            j++;
            countArray[i]--;
        }
    }
}

int main(int argc, char **argv) {
    int array[] = {2,3,8,7,1,2,2,2,7,3,9,8,2,1,4,2,4,6,9,2};

    countSort(array,sizeof(array)/sizeof(int));
    printArray(array, sizeof(array)/sizeof(int));
    return 0;
}

运行结果:

1 1 2 2 2 2 2 2 2 3 3 4 4 6 7 7 8 8 9 9
相关文章
|
23天前
|
算法 前端开发 数据处理
小白学python-深入解析一位字符判定算法
小白学python-深入解析一位字符判定算法
44 0
|
17天前
|
存储 算法 Java
解析HashSet的工作原理,揭示Set如何利用哈希算法和equals()方法确保元素唯一性,并通过示例代码展示了其“无重复”特性的具体应用
在Java中,Set接口以其独特的“无重复”特性脱颖而出。本文通过解析HashSet的工作原理,揭示Set如何利用哈希算法和equals()方法确保元素唯一性,并通过示例代码展示了其“无重复”特性的具体应用。
35 3
|
18天前
|
搜索推荐 算法
插入排序算法的平均时间复杂度解析
【10月更文挑战第12天】 插入排序是一种简单直观的排序算法,通过不断将未排序元素插入到已排序部分的合适位置来完成排序。其平均时间复杂度为$O(n^2)$,适用于小规模或部分有序的数据。尽管效率不高,但在特定场景下仍具优势。
|
1天前
|
算法 Linux 定位技术
Linux内核中的进程调度算法解析####
【10月更文挑战第29天】 本文深入剖析了Linux操作系统的心脏——内核中至关重要的组成部分之一,即进程调度机制。不同于传统的摘要概述,我们将通过一段引人入胜的故事线来揭开进程调度算法的神秘面纱,展现其背后的精妙设计与复杂逻辑,让读者仿佛跟随一位虚拟的“进程侦探”,一步步探索Linux如何高效、公平地管理众多进程,确保系统资源的最优分配与利用。 ####
15 4
|
2天前
|
缓存 负载均衡 算法
Linux内核中的进程调度算法解析####
本文深入探讨了Linux操作系统核心组件之一——进程调度器,着重分析了其采用的CFS(完全公平调度器)算法。不同于传统摘要对研究背景、方法、结果和结论的概述,本文摘要将直接揭示CFS算法的核心优势及其在现代多核处理器环境下如何实现高效、公平的资源分配,同时简要提及该算法如何优化系统响应时间和吞吐量,为读者快速构建对Linux进程调度机制的认知框架。 ####
|
18天前
|
前端开发 算法 JavaScript
无界SaaS模式深度解析:算力算法、链接力、数据确权制度
私域电商的无界SaaS模式涉及后端开发、前端开发、数据库设计、API接口、区块链技术、支付和身份验证系统等多个技术领域。本文通过简化框架和示例代码,指导如何将核心功能转化为技术实现,涵盖用户管理、企业店铺管理、数据流量管理等关键环节。
|
24天前
|
机器学习/深度学习 算法 PyTorch
Pytorch-SGD算法解析
SGD(随机梯度下降)是机器学习中常用的优化算法,特别适用于大数据集和在线学习。与批量梯度下降不同,SGD每次仅使用一个样本来更新模型参数,提高了训练效率。本文介绍了SGD的基本步骤、Python实现及PyTorch中的应用示例。
29 0
|
12天前
|
算法 安全 数据安全/隐私保护
基于game-based算法的动态频谱访问matlab仿真
本算法展示了在认知无线电网络中,通过游戏理论优化动态频谱访问,提高频谱利用率和物理层安全性。程序运行效果包括负载因子、传输功率、信噪比对用户效用和保密率的影响分析。软件版本:Matlab 2022a。完整代码包含详细中文注释和操作视频。
|
9天前
|
人工智能 算法 数据安全/隐私保护
基于遗传优化的SVD水印嵌入提取算法matlab仿真
该算法基于遗传优化的SVD水印嵌入与提取技术,通过遗传算法优化水印嵌入参数,提高水印的鲁棒性和隐蔽性。在MATLAB2022a环境下测试,展示了优化前后的性能对比及不同干扰下的水印提取效果。核心程序实现了SVD分解、遗传算法流程及其参数优化,有效提升了水印技术的应用价值。
|
10天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化CNN-LSTM网络的数据分类识别算法matlab仿真
本项目展示了基于贝叶斯优化(BO)的CNN-LSTM网络在数据分类中的应用。通过MATLAB 2022a实现,优化前后效果对比明显。核心代码附带中文注释和操作视频,涵盖BO、CNN、LSTM理论,特别是BO优化CNN-LSTM网络的batchsize和学习率,显著提升模型性能。

推荐镜像

更多