Spark版本定制第8天:RDD生成生命周期彻底

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark版本定制第8天:RDD生成生命周期彻底相关的知识,希望对你有一定的参考价值。

本期内容:

1 RDD生成生命周期

2 深度思考

  一切不能进行实时流处理的数据都是无效的数据。在流处理时代,SparkStreaming有着强大吸引力,而且发展前景广阔,加之Spark的生态系统,Streaming可以方便调用其他的诸如SQL,MLlib等强大框架,它必将一统天下。

  Spark Streaming运行时与其说是Spark Core上的一个流式处理框架,不如说是Spark Core上的一个最复杂的应用程序。如果可以掌握Spark streaming这个复杂的应用程序,那么其他的再复杂的应用程序都不在话下了。这里选择Spark Streaming作为版本定制的切入点也是大势所趋。

 

  在sparkStreaming中DStream是RDD的模板,每隔一个batchInterval会根据DStream模板生成一个对应的RDD。生成的RDD会存放到generatedRDD中。生成了一系列的RDD后,会通过foreachRDD对RDD进行操作。

  

private def foreachRDD( 
    foreachFunc: (RDD[T], Time) => Unit, 
    displayInnerRDDOps: Boolean): Unit = { 
  new ForEachDStream(this, 
    context.sparkContext.clean(foreachFunc, false), displayInnerRDDOps).register() 
} 

  在foreachRDD中new出了一个ForEachDStream对象。并将这个注册给DStreamGraph 。

  当每一个batchInterval的时间内,会调用DStreamGraph中的generateJobs方法

  

def generateJobs(time: Time): Seq[Job] = { 
  logDebug("Generating jobs for time " + time) 
  val jobs = this.synchronized { 
    outputStreams.flatMap { outputStream => 
      val jobOption = outputStream.generateJob(time) 
      jobOption.foreach(_.setCallSite(outputStream.creationSite)) 
      jobOption 
    } 
  } 
  logDebug("Generated " + jobs.length + " jobs for time " + time) 
  jobs 
} 

  在这里面会根据时间调用generateJob方法

override def generateJob(time: Time): Option[Job] = { 
  parent.getOrCompute(time) match { 
    case Some(rdd) => 
      val jobFunc = () => createRDDWithLocalProperties(time, displayInnerRDDOps) { 
        foreachFunc(rdd, time) 
      } 
      Some(new Job(time, jobFunc)) 
    case None => None 
  } 
} 

  然后沿着graph回溯,再下一个batchInterval后生成新的RDD,不断循环,将所有生成的rdd都放入集合generatrdRDD中。

 

备注:

资料来源于:DT_大数据梦工厂(Spark发行版本定制)

更多私密内容,请关注微信公众号:DT_Spark

如果您对大数据Spark感兴趣,可以免费听由王家林老师每天晚上20:00开设的Spark永久免费公开课,地址YY房间号:68917580

以上是关于Spark版本定制第8天:RDD生成生命周期彻底的主要内容,如果未能解决你的问题,请参考以下文章

Spark 定制版:008~Spark Streaming源码解读之RDD生成全生命周期彻底研究和思考

Spark版本定制第10天:流数据生命周期和思考

Spark版本定制第9天:Receiver在Driver的精妙实现全生命周期彻底研究和思考

Spark 定制版:009~Spark Streaming源码解读之Receiver在Driver的精妙实现全生命周期彻底研究和思考

Spark发行笔记8:解读Spark Streaming RDD的全生命周期

(版本定制)第10课:Spark Streaming源码解读之流数据不断接收全生命周期彻底研究和思考