Scala 文件 I/O

简介: Scala 文件 I/O

Scala 进行文件写操作,直接用的都是 java中 的 I/O 类 (java.io.File):

实例
import java.io._

object Test {
def main(args: Array[String]) {
val writer = new PrintWriter(new File("test.txt" ))

  writer.write("菜鸟教程")
  writer.close()

}
}
执行以上代码,会在你的当前目录下生产一个 test.txt 文件,文件内容为"菜鸟教程":

$ scalac Test.scala
$ scala Test
$ cat test.txt
菜鸟教程
从屏幕上读取用户输入
有时候我们需要接收用户在屏幕输入的指令来处理程序。实例如下:

实例
import scala.io._
object Test {
def main(args: Array[String]) {
print("请输入菜鸟教程官网 : " )
val line = StdIn.readLine()

  println("谢谢,你输入的是: " + line)

}
}
Scala2.11 后的版本 Console.readLine 已废弃,使用 scala.io.StdIn.readLine() 方法代替。

执行以上代码,屏幕上会显示如下信息:

$ scalac Test.scala
$ scala Test
请输入菜鸟教程官网 : www.runoob.com
谢谢,你输入的是: www.runoob.com
从文件上读取内容
从文件读取内容非常简单。我们可以使用 Scala 的 Source 类及伴生对象来读取文件。以下实例演示了从 "test.txt"(之前已创建过) 文件中读取内容:

实例
import scala.io.Source

object Test {
def main(args: Array[String]) {
println("文件内容为:" )

  Source.fromFile("test.txt" ).foreach{
     print
  }

}
}
执行以上代码,输出结果为:

$ scalac Test.scala
$ scala Test
文件内容为:
菜鸟教程

目录
相关文章
|
存储 SQL 分布式计算
Flink - 读取 Parquet 文件 By Scala / Java
parquet 文件常见与 Flink、Spark、Hive、Streamin、MapReduce 等大数据场景,通过列式存储和元数据存储的方式实现了高效的数据存储与检索,下面介绍 Flink 场景下如何读取 Parquet。
1631 0
Flink - 读取 Parquet 文件 By Scala / Java
|
7月前
|
Scala
scala 读取文件(中文)异常 thread "main" java.nio.charset.MalformedInputException: Input length = 1
scala 读取文件(中文)异常 thread "main" java.nio.charset.MalformedInputException: Input length = 1
63 0
|
分布式计算 Java Scala
一天学完spark的Scala基础语法教程十三、文件IO操作(idea版本)
一天学完spark的Scala基础语法教程十三、文件IO操作(idea版本)
122 0
一天学完spark的Scala基础语法教程十三、文件IO操作(idea版本)
|
Scala
scala小工具:自动生成跑批文件
由于数仓项目中经常需要手工跑批补历史数据,通过excel手工拉取每次都要写函数不太方便,通过小工具生成,省时省力。
269 0
|
大数据 Scala 分布式计算
大数据Scala系列之文件以及正则表达式
大数据Scala系列之文件以及正则表达式1 读取行导入scala.io.Source后,即可引用Source中的方法读取文件信息。 import scala.io.Sourceobject FileDemo extends App{ val source = Source.
1393 0
|
Scala Java
[Scala]Scala学习笔记六 文件
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/SunnyYoona/article/details/76574187 1.
880 0