Go 实现选择排序算法及优化

简介: 本文简单介绍了什么是选择排序,然后通过图片的方式演示选择排序的过程,接下来是实现 O(N²) 时间复杂度的算法,最后优化算法,从结果来看,优化后的算法效率快了一倍,但是时间复杂度仍为 O(N²)。

耐心和持久胜过激烈和狂热。

哈喽大家好,我是陈明勇,本文分享的内容是使用 Go 实现选择排序算法。如果本文对你有帮助,不妨点个赞,如果你是 Go 语言初学者,不妨点个关注,一起成长一起进步,如果本文有错误的地方,欢迎指出!

选择排序

选择排序是一种简单的比较排序算法,它的算法思路是首先从数组中寻找最小(大)的元素,然后放到数组中的第一位,接下来继续从未排序的元素中寻找最小(大)元素,然后放到已排序元素的末尾,依次类推,直到所有元素被排序。

图片演示

未命名文件.png

普通算法

import "fmt"
func main() {
    nums := [8]int{8, 2, 3, 1, 6, 5, 7, 4}
    fmt.Println("原数组:", nums)
    fmt.Println("--------------------------------")
    SelectionSort(nums)
}
func SelectionSort(nums [8]int) {
    for i := 0; i < len(nums)-1; i++ {
        minPos := i
        for j := i + 1; j < len(nums); j++ {
            if nums[minPos] > nums[j] {
                    minPos = j
            }
        }
        nums[i], nums[minPos] = nums[minPos], nums[i]
        fmt.Printf("第 %d 轮后:%v\n", i+1, nums)
    }
    fmt.Println("--------------------------------")
    fmt.Println("排序后的数组:", nums)
}
复制代码

执行结果:

原数组: [8 2 3 1 6 5 7 4]
--------------------------------
第 1 轮后:[1 2 3 8 6 5 7 4]
第 2 轮后:[1 2 3 8 6 5 7 4]
第 3 轮后:[1 2 3 8 6 5 7 4]
第 4 轮后:[1 2 3 4 6 5 7 8]
第 5 轮后:[1 2 3 4 5 6 7 8]
第 6 轮后:[1 2 3 4 5 6 7 8]
第 7 轮后:[1 2 3 4 5 6 7 8]
--------------------------------
排序后的数组: [1 2 3 4 5 6 7 8]
复制代码
  • 升序排序。
  • 使用 i 变量表示最小元素的待放位置。
  • minPos 变量记录最小元素的的下标值,默认为 i
  • 通过变量 j 去寻找最小元素,ji + 1 的位置开始寻找。
  • 找到比 nums[minPos] 还小的元素,则将 j 的下标值赋给 minPos
  • 一轮下来,将最小元素的位置 minPosi 的位置互换,然后继续下一轮寻找,直到所有元素都被排序。
  • 该算法的时间复杂度为 O(N²)。

优化算法

普通算法是寻找最小值或最大值,然后放到指定位置。优化算法的改进点是同时寻找最小值和最大值。

import (
    "fmt"
)
func main() {
    nums := [4]int{3, 1, 4, 2}
    fmt.Println("原数组:", nums)
    fmt.Println("--------------------------------")
    SelectionSort(nums)
}
func SelectionSort(nums [4]int) {
    for left, right := 0, len(nums)-1; left <= right; {
        minPos := left
        maxPos := left
        for i := left + 1; i <= right; i++ {
            if nums[minPos] > nums[i] {
                minPos = i
            }
            if nums[maxPos] < nums[i] {
                maxPos = i
            }
        }
        nums[left], nums[minPos] = nums[minPos], nums[left]
        // 如果最大值刚好是在 left,待放最小值的位置,那么最大值就会被换走,所以需要判断一下
        if maxPos == left {
            maxPos = minPos
        }
        nums[right], nums[maxPos] = nums[maxPos], nums[right]
        fmt.Printf("第 %d 轮后:%v\n", left+1, nums)
        left++
        right--
    }
    fmt.Println("--------------------------------")
    fmt.Println("排序后的数组:", nums)
}
复制代码

执行结果:

原数组: [8 2 3 1 6 5 7 4]
--------------------------------
第 1 轮后:[1 2 3 4 6 5 7 8]
第 2 轮后:[1 2 3 4 6 5 7 8]
第 3 轮后:[1 2 3 4 5 6 7 8]
第 4 轮后:[1 2 3 4 5 6 7 8]
--------------------------------
排序后的数组: [1 2 3 4 5 6 7 8]
复制代码
  • left 变量表示待放最小值的位置,right 变量表示待放最大值的位置。minPos 记录最小值的下标值,maxPos 记录最大值的下标值,通过变量 i 去寻找最小值和最大值,寻找完毕后将它们进行交换。
  • 有一个注意的地方是,如果最大值刚好是在 left ,待放最小值的位置,那么最大值就会被换到 minPos 的位置,所以需要判断一下,纠正下标值。
  • 从执行结果来看,优化后的算法效率快了一倍,但是时间复杂度仍为 O(N²)。

小结

本文简单介绍了什么是选择排序,然后通过图片的方式演示选择排序的过程,接下来是实现 O(N²) 时间复杂度的算法,最后优化算法,从结果来看,优化后的算法效率快了一倍,但是时间复杂度仍为 O(N²)。

目录
相关文章
|
4天前
|
存储 监控 NoSQL
Redis处理大量数据主要依赖于其内存存储结构、高效的数据结构和算法,以及一系列的优化策略
【5月更文挑战第15天】Redis处理大量数据依赖内存存储、高效数据结构和优化策略。选择合适的数据结构、利用批量操作减少网络开销、控制批量大小、使用Redis Cluster进行分布式存储、优化内存使用及监控调优是关键。通过这些方法,Redis能有效处理大量数据并保持高性能。
22 0
|
4天前
|
机器学习/深度学习 算法 调度
深度学习|改进两阶段鲁棒优化算法i-ccg
深度学习|改进两阶段鲁棒优化算法i-ccg
|
2天前
|
算法
MATLAB|【免费】融合正余弦和柯西变异的麻雀优化算法SCSSA-CNN-BiLSTM双向长短期记忆网络预测模型
这段内容介绍了一个使用改进的麻雀搜索算法优化CNN-BiLSTM模型进行多输入单输出预测的程序。程序通过融合正余弦和柯西变异提升算法性能,主要优化学习率、正则化参数及BiLSTM的隐层神经元数量。它利用一段简单的风速数据进行演示,对比了改进算法与粒子群、灰狼算法的优化效果。代码包括数据导入、预处理和模型构建部分,并展示了优化前后的效果。建议使用高版本MATLAB运行。
|
4天前
|
算法 Go 分布式数据库
构建高可用的分布式数据库集群:使用Go语言与Raft共识算法
随着数据量的爆炸式增长,单一数据库服务器已难以满足高可用性和可扩展性的需求。在本文中,我们将探讨如何使用Go语言结合Raft共识算法来构建一个高可用的分布式数据库集群。我们不仅会介绍Raft算法的基本原理,还会详细阐述如何利用Go语言的并发特性和网络编程能力来实现这一目标。此外,我们还将分析构建过程中可能遇到的挑战和解决方案,为读者提供一个完整的实践指南。
|
4天前
|
资源调度 算法 块存储
m基于遗传优化的LDPC码OMS译码算法最优偏移参数计算和误码率matlab仿真
MATLAB2022a仿真实现了遗传优化的LDPC码OSD译码算法,通过自动搜索最佳偏移参数ΔΔ以提升纠错性能。该算法结合了低密度奇偶校验码和有序统计译码理论,利用遗传算法进行全局优化,避免手动调整,提高译码效率。核心程序包括编码、调制、AWGN信道模拟及软输入软输出译码等步骤,通过仿真曲线展示了不同SNR下的误码率性能。
9 1
|
4天前
|
算法 Serverless
m基于遗传优化的LDPC码NMS译码算法最优归一化参数计算和误码率matlab仿真
MATLAB 2022a仿真实现了遗传优化的归一化最小和(NMS)译码算法,应用于低密度奇偶校验(LDPC)码。结果显示了遗传优化的迭代过程和误码率对比。遗传算法通过选择、交叉和变异操作寻找最佳归一化因子,以提升NMS译码性能。核心程序包括迭代优化、目标函数计算及性能绘图。最终,展示了SNR与误码率的关系,并保存了关键数据。
16 1
|
4天前
|
算法 调度
考虑需求响应的微网优化调度模型【粒子群算法】【matlab】
考虑需求响应的微网优化调度模型【粒子群算法】【matlab】
|
4天前
|
算法 调度
基于多目标粒子群算法冷热电联供综合能源系统运行优化(matlab代码)
基于多目标粒子群算法冷热电联供综合能源系统运行优化(matlab代码)
|
4天前
|
算法
【免费】面向多微网网络结构设计的大规模二进制矩阵优化算法
【免费】面向多微网网络结构设计的大规模二进制矩阵优化算法
|
4天前
|
算法 调度
【问题探讨】基于非支配排序的蜣螂优化算法NSDBO求解微电网多目标优化调度研究
【问题探讨】基于非支配排序的蜣螂优化算法NSDBO求解微电网多目标优化调度研究