SparkStreaming源码解读

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了SparkStreaming源码解读相关的知识,希望对你有一定的参考价值。

一、SparkStreaming的核心原理

     将连续的流数据通过时间间隔的形式划分为离散的流数据,即为某段时间的数据。

二、SparkStreaming框架的核心思想

    1、流的输入:InputStreams  --> 源数据

    2、流的输出:outputDStreams --> 要计算的结果数据

三、整体架构:

    技术分享

 

四、具体的解决方案(源码版本为1.6.3)

1、使用DStreamingGraph来做基本的划分

     技术分享

 

2、输入流:通过StreamingContext设置输入流

     技术分享

     ReceiverInputDStream 的getReceiver 方法是如何获取流数据,compute方法是计算时通过这个方法获取数据

     技术分享

 

3、输出流

    Job的生成

   技术分享

   放入DStreamGraph 的outputStream 中

   技术分享

 

 开始调度

  技术分享

 

  技术分享

 

  技术分享

  

  技术分享

  技术分享

  技术分享

 Jobs的生成和提交

  技术分享

  技术分享

  技术分享

 

 

 需要注意的是高级的数据源的接收可以有多种方案,详情可查看官网。(http://spark.apache.org/docs/1.6.3/streaming-kafka-integration.html

 

 

    

以上是关于SparkStreaming源码解读的主要内容,如果未能解决你的问题,请参考以下文章

第12课:Spark Streaming源码解读之Executor容错安全性

Spark Streaming源码解读之Executor容错安全性

Spark Streaming源码解读之数据清理内幕彻底解密

Spark Streaming源码解读之数据清理内幕彻底解密

Spark Streaming源码解读之数据清理内幕彻底解密

SparkStreaming运行原理