API brief(spark for scala )

Posted satyrs

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了API brief(spark for scala )相关的知识,希望对你有一定的参考价值。

  • org.apache.hadoop.mapred.SequenceFileInputFormat<K,V>
  1. 获得FileStatus{block size+group+lenth+accesstime+modificationtime+owner+path+permission+symlink+Acl+一些判断是否目录等+序列化到out+set函数}
  2. 通过input获得RecordReader。将byte转为record-oriented,为下一步的MR准备。processing record boundaries and presenting the tasks with keys and values.。可{关闭InputSplit+创建key+创建value+返回目前input位置+从input中读取下一个k-v对}
  • org.apache.hadoop.io.SequenceFile
  1. flat files 由01k-v对组成。Writer Reader和Sorter 三部分。
  2. 基于CompressionType有三种writers,并shared a common header。compress的block size, 使用的algorithm都configurable。
  3. 推荐使用static createWriter
  4. format: Header Record sync-marker.    Header:version+calss of k,v +compression+blockcompression+compression codec+metadata+sync
  •  

以上是关于API brief(spark for scala )的主要内容,如果未能解决你的问题,请参考以下文章

Spark基于scala api

Spark-Scala:使用异常处理将固定宽度线解析为 Dataframe Api

Spark RDD API(scala)

Spark垃圾邮件分类(scala+java)

Spark - 线程“主”java.lang.NoSuchMethodError 中的异常:scala.reflect.api.JavaUniverse.runtimeMirror

将 DATASet Api 与 Spark Scala 结合使用