一天学完spark的Scala基础语法教程八、集合(idea版本)

简介: 一天学完spark的Scala基础语法教程八、集合(idea版本)

创建测试类【day1/demo8.scalc】,类型为【object】

image.png

image.png

Scala Collection

Scala提供了一套很好的集合实现,提供了一些集合类型的抽象。

Scala 集合分为可变的和不可变的集合。

可变集合可以在适当的地方被更新或扩展。这意味着你可以修改,添加,移除一个集合的元素。


而不可变集合类,相比之下,永远不会改变。不过,你仍然可以模拟添加,移除或更新操作。但是这些操作将在每一种情况下都返回一个新的集合,同时使原来的集合不发生改变。


接下来我们将为大家介绍几种常用集合类型的应用:


image.png

综合练习

package day1
import scala.collection.mutable.Set
object demo8 {
  def main(args: Array[String]): Unit = {
    // 定义整型 List
    val list_init = List(11, 22, 33, 44)//创建列表
    var list =list_init:+666;//向列表的尾部
    var list0=66::list//向列表头部添加数据
    var list1=list0.updated(2,777)//修改下标为2的值
    for (i <- 0 until list1.length) {//使用列表长度遍历
      print(list1.apply(i)+",")//逐一元素遍历输出
    }
    println()
    println(list1)//列表集合输出
    println(list1.max)//最大值
    println(list1.min)//最小值
    println(list1.sum)//计算总和
    println(list1.contains(66))//判断是否有某值
    println("----set----")
    // 定义 Set
    val set = Set(1, 2, 3, 4, 5, 6, 6, 6,7)
    set.add(8);
    println("set.size:"+set.size);
    println("setInfo:"+set)
    // 定义 Map,key&value
    val map_info = Map("one" -> 1, "two" -> 2, "three" -> 3)
    var map=map_info + ("four"->4)
    println("-----map-----")
    println(map)
    println(map.get("two"))//根据key获取值
    println(map.contains("four"))//判断是否有four这个key
    // 创建两个不同类型元素的元组
    println("----元组----")
    val x = (10, "utest")
    println(x)
  }
}

image.png

相关文章
|
1月前
|
消息中间件 分布式计算 NoSQL
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
40 0
|
1月前
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
83 0
|
1月前
|
Java Maven Spring
springboot学习一:idea社区版本创建springboot项目的三种方式(第三种为主)
这篇文章介绍了在IntelliJ IDEA社区版中创建Spring Boot项目的三种方法,特别强调了第三种方法的详细步骤。
308 0
springboot学习一:idea社区版本创建springboot项目的三种方式(第三种为主)
|
1月前
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
35 0
|
1月前
|
缓存 分布式计算 大数据
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(一)
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(一)
45 0
|
1月前
|
分布式计算 算法 大数据
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(二)
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(二)
50 0
|
1月前
|
分布式计算 大数据 Java
大数据-87 Spark 集群 案例学习 Spark Scala 案例 手写计算圆周率、计算共同好友
大数据-87 Spark 集群 案例学习 Spark Scala 案例 手写计算圆周率、计算共同好友
49 5
|
1月前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
49 3
|
1月前
|
分布式计算 大数据 Java
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
24 1
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
|
5月前
|
分布式计算 资源调度 Java
Scala+Spark+Hadoop+IDEA实现WordCount单词计数,上传并执行任务(简单实例-下)
Scala+Spark+Hadoop+IDEA实现WordCount单词计数,上传并执行任务(简单实例-下)
58 0