Scala:读写文件

Posted yuanxiaochou

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Scala:读写文件相关的知识,希望对你有一定的参考价值。

写入文本文件:

Scala需要使用java.io.PrintWriter实现把数据写入到文本文件。

采用相对路径时,当使用用户名hadoop登录Linux系统,打开Scala解释器进入命令提示符状态后,输入以下代码:

  1. scala> import java.io.PrintWriter
  2. import java.io.PrintWriter
  3. scala> val out = new PrintWriter("output.txt")
  4. out: java.io.PrintWriter = java.io.PrintWriter@25641d39
  5. scala> for (i <- 1 to 5) out.println(i)
  6. scala> out.close()

如果我们想把文件保存到一个指定的目录下,就需要给出文件路径,代码如下:

  1. scala> import java.io.PrintWriter
  2. import java.io.PrintWriter
  3. scala> val out = new PrintWriter("/usr/local/scala/mycode/output.txt")
  4. out: java.io.PrintWriter = java.io.PrintWriter@25641d39
  5. scala> for (i <- 1 to 5) out.println(i)
  6. scala> out.close()

读取文本文件中的行:

使用Scala.io.Source的getLines方法实现对文件中所有行的读取:

  1. scala> import scala.io.Source
  2. import scala.io.Source
  3. scala> val inputFile = Source.fromFile("output.txt")
  4. inputFile: scala.io.BufferedSource = non-empty iterator
  5. scala> val lines = inputFile.getLines
  6. lines: Iterator[String] = non-empty iterator 
  7. scala> for (line <- lines) println(line)

以上是关于Scala:读写文件的主要内容,如果未能解决你的问题,请参考以下文章

Scala的文件读写操作与正则表达式

Spark编程--文件数据读写

Spark2.0 读写ES数据(scala)——elasticsearch6.5.4

kafka如何做到磁盘读写比内存读写还快?

如何使用scala+spark读写hbase?

大数据(5e)Spark之Scala读写HBase之Phoenix表