每天学一点Scala之 take、takeRight、takeWhile 与 filter

简介:

比较简单,直接上例子

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
object  takeWhileTest {
    def  main(args :  Array[String]) :  Unit  =  {
       val  names  =  List( "spark" "hadoop" , "kafka" , "hive" "mesos" "zero" "xyz" , "marathon" )
       //需求:将names容器中,获取/过滤出元素长度为4的元素,
       //takeWhile, 从第一个元素开始判断,满足条件,就留下,直到遇到第一个不满足的条件的元素,就结束循环
       //可见,takeWhile 有可能并不是对所有的元素进行操作的
       names.takeWhile( _ .length >  4  ).foreach{x  = > print(x +  " " )}
 
       println( "\n------------------" )
       //从左边开始获取2个元素,
       names.take( 2 ).foreach{x  = > print(x +  " " )}
 
       println( "\n------------------" )
 
       //从右边开始获取4个元素,
       names.takeRight( 4 ).foreach{x  = > print(x +  " " )}
 
       println( "\n------------------" )
       //filter, 同样,满足条件,就留下。是对所有的元素,进行操作的
       names.filter( _ .length >  4 ).foreach{x  = > print(x +  " " )} //将"xyz"元素,过滤掉了
    }
}

结果:

1
2
3
4
5
6
7
spark hadoop kafka 
------------------
spark hadoop 
------------------
mesos zero xyz marathon 
------------------
spark hadoop kafka mesos marathon


同样,marathon源码中,也有体现,如下:


wKioL1mx-dSjxajmAAGOQvYOIcw494.png


总结:

    take(3)---> 表示,取出前3个元素

    takeRight(3)----> 表示,从后面/右边开始获取,取出3个元素

    takeWhile()---> 表示,从左边开始,将满足条件的元素取出来,直到遇到第一个不满足条件的元素

    filter --> 表示,取出所有满足条件的元素














本文转自故新51CTO博客,原文链接:http://blog.51cto.com/xingej/1963582 ,如需转载请自行联系原作者




相关文章
|
2月前
|
分布式计算 大数据 Java
大数据-87 Spark 集群 案例学习 Spark Scala 案例 手写计算圆周率、计算共同好友
大数据-87 Spark 集群 案例学习 Spark Scala 案例 手写计算圆周率、计算共同好友
59 5
|
2月前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
52 3
|
2月前
|
消息中间件 分布式计算 NoSQL
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
44 0
|
2月前
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
100 0
|
2月前
|
分布式计算 大数据 Java
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
32 1
大数据-86 Spark 集群 WordCount 用 Scala & Java 调用Spark 编译并打包上传运行 梦开始的地方
|
2月前
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
51 0
|
2月前
|
缓存 分布式计算 大数据
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(一)
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(一)
56 0
|
2月前
|
分布式计算 算法 大数据
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(二)
大数据-90 Spark 集群 RDD 编程-高阶 RDD容错机制、RDD的分区、自定义分区器(Scala编写)、RDD创建方式(二)
56 0
|
6月前
|
分布式计算 资源调度 Java
Scala+Spark+Hadoop+IDEA实现WordCount单词计数,上传并执行任务(简单实例-下)
Scala+Spark+Hadoop+IDEA实现WordCount单词计数,上传并执行任务(简单实例-下)
67 0
|
6月前
|
分布式计算 Hadoop Scala
Scala +Spark+Hadoop+Zookeeper+IDEA实现WordCount单词计数(简单实例-上)
Scala +Spark+Hadoop+Zookeeper+IDEA实现WordCount单词计数(简单实例-上)
55 0