scala 选择排序

简介: object selectSortApp { def main(args: Array[String]): Unit = { val list: ListBuffer[Int] = ListBuffer(...
object selectSortApp {

  def main(args: Array[String]): Unit = {



    val list: ListBuffer[Int] = ListBuffer(1, 2, 3, 10, 100, 19999, -1998, 9, 234, 234, 9, 43)



    val res: ListBuffer[Int] = Sec_Sort[Int](_<_)(list)
    println(res.mkString(","))

  }

  /**
    * 选择排序,每次选择一个最小的值
    * @param list
    * @return
    */
  def SelectSort(list: ListBuffer[Int]): ListBuffer[Int] = {
    var minIndex = 0
    var temp = 0

    for(i<- 0 until(list.size)){
      minIndex = i
      for(j <- i+1 until(list.size)){
        if(list(j)< list(minIndex)){
          minIndex  = j
        }
      }
      temp = list(i)
      list(i) = list(minIndex)
      list(minIndex) = temp
    }
    list
  }


  /**
    *假定第一数据为有序区域,其余为无序区域。每一趟从无需区域找到对应的最大/最小, 然后和有序区域交换,直到最后序列变成一个有序区域。
    * 属于不稳定排序
    * 
    * @param comparator
    * @param lists
    * @tparam T
    * @return
    */
  def Sec_Sort[T](comparator:(T,T)=>Boolean)(lists:ListBuffer[T]):ListBuffer[T]={

    for(i<-0 until lists.length){
      var min=lists(i)               //定义最小的
      var index=i;                    // 最小的索引
      for(j<-i+1 until lists.length){
        if(comparator(lists(j), min)){
          min=lists(j)               //每一趟找到最小的值和对应的索引
          index=j
        }
      }
      //替换最小值
      if(index!=i){
        var temp =lists(i)
        lists(i) = lists(index)
        lists(index) = temp
      }

    }
    lists                           //最后一行返回排好的序列
  }
}
相关文章
|
30天前
|
分布式计算 大数据 Java
大数据-87 Spark 集群 案例学习 Spark Scala 案例 手写计算圆周率、计算共同好友
大数据-87 Spark 集群 案例学习 Spark Scala 案例 手写计算圆周率、计算共同好友
45 5
|
30天前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
46 3
|
30天前
|
消息中间件 分布式计算 NoSQL
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
35 0
|
30天前
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
73 0
|
30天前
|
分布式计算 大数据 Java
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
17 1
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
|
30天前
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
30 0
|
30天前
|
缓存 分布式计算 大数据
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(一)
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(一)
38 0
|
30天前
|
分布式计算 算法 大数据
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(二)
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(二)
43 0
|
5月前
|
分布式计算 资源调度 Java
Scala+Spark+Hadoop+IDEA实现WordCount单词计数,上传并执行任务(简单实例-下)
Scala+Spark+Hadoop+IDEA实现WordCount单词计数,上传并执行任务(简单实例-下)
55 0
|
5月前
|
分布式计算 Hadoop Scala
Scala +Spark+Hadoop+Zookeeper+IDEA实现WordCount单词计数(简单实例-上)
Scala +Spark+Hadoop+Zookeeper+IDEA实现WordCount单词计数(简单实例-上)
45 0