RDD 序列化

Posted 气质&末雨

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了RDD 序列化相关的知识,希望对你有一定的参考价值。

文章目录

RDD 序列化

1、闭包检查

从计算的角度,算子以外的代码都是在Driver端执行,算子里面的代码都是在Executor端执行。那么在scala的函数式编程中,就会导致算子内经常会用到算子外的数据,这样就形成了闭包的效果,如果使用的算子外的数据无法序列化,就意味着无法传值给Executor端执行,就会发生错误,所以需要在执行任务计算前,检测闭包内的对象是否可以进行序列化,这个操作我们称之为闭包检测Scala2.12版本后闭包编译方式发生了改变

2、序列化方法和属性

从计算的角度,算子以外的代码都是在Driver端执行,算子里面的代码都是在Executor端执行,看如下代码:
说明:类的构造器本身就是类的属性,用了类的属性传递到其他的函数,相当于是在调用这个类,所以需要进行序列化,或者用一个变量来进行接收这个类的属性,那么就不需要混入了,因为这个变量是字符串是在Driver端的,本身就可以序列化的。

package com.atguigu.bigdata.spark.core.wc.serial

import org.apache.spark.rdd.RDD
import org.apache.spark.SparkConf, SparkContext

//这个包里是序列化的一些测试代码
class Spark01_RDD_Serial 


object Spark01_RDD_Serial
  def main(args: Array[String]): Unit = 

    val conf = new SparkConf().setMaster("local[*]").setAppName("RDD行动算子")
    val context = new SparkContext(conf)
    val rdd: RDD[String] = context.makeRDD(Array("hello world", "hello spark", "hive", "aex"))

    val search = new Search("h") //如果数据源中的数据包含了这个小写的h,这个数据留下来,不包含的数据就不要了
    search.getMatch1(rdd).collect().foreach(println)
    search.getMatch2(rdd).collect().foreach(println)

    context.stop()
  
  //查询对象
  //类的构造参数其实是类的属性,构造参数需要进行闭包检测,其实就等同于类进行我们的闭包检测
  //混入序列化就没事了
  class Search(query:String)  extends Serializable 
    def isMatch(s:String):Boolean = 
      s.contains(query)
    

    //函数序列化实例
    def getMatch1(rdd:RDD[String]):RDD[String] = 
      rdd.filter(isMatch) //第一种直接调用上面的函数,
    

    //函数序列化实例
    def getMatch2(rdd:RDD[String]):RDD[String] = 
      val s = query
      rdd.filter(x => x.contains(s)) //第二种是直接使用匿名函数
    

  

3、Kryo序列化框架

Java的序列化能够序列化任何的类。但是比较重(字节多),序列化后,对象的提交也比较大。Spark 出于性能的考虑,Spark2.0 开始支持另外一种Kryo序列化机制。Kryo速度是Serializable的10倍。当RDD在Shuffle数据的时候,简单数据类型,数组和字符串类型,已经在Spark内部使用Kryo来序列化。
注意:即使使用Kryo序列化,也要继承Serializable接口。

以上是关于RDD 序列化的主要内容,如果未能解决你的问题,请参考以下文章

Spark中RDD转换成DataFrame的两种方式(分别用Java和Scala实现)

大数据技术之_27_电商平台数据分析项目_02_预备知识 + Scala + Spark Core + Spark SQL + Spark Streaming + Java 对象池

如何成为云计算大数据Spark高手

Spark快速大数据分析之RDD基础

Spark-序列化依赖关系持久化

第2天Python实战Spark大数据分析及调度-RDD编程