浅谈Spark算子

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了浅谈Spark算子相关的知识,希望对你有一定的参考价值。

RDD的操作类型分为两类

Transformation,根据原有的RDD创建一个新的RDD

actions,对RDD操作后把结果返回给driver

  Transfrmation操作是延迟的,也就是说从一个RDD转换到另一个RDD的转换不是马上执行的,需要等到有Action操作的时候才会真正触发运算。

  Action会触发Spark提交作业,并将数据输出spark系统。

从小方向来说,Spark 算子大致可以分为以下三类:

  (1)Value数据类型的Transformation算子,这种变换并不触发提交作业,针对处理的数据项是Value型的数据。
  (2)Key-Value数据类型的Transfromation算子,这种变换并不触发提交作业,针对处理的数据项是Key-Value型的数据对。

  (3)Action算子,这类算子会触发SparkContext提交Job作业。

技术分享图片      例如map是一个转换,他把RDD中的数据经过一系列的转换后转换成一个新的RDD,而reduce则是一个action,它收集RDD所有的数据经过一系列的处理,最后把结果传递给driver

  RDD的所有转换操作都是lazy模式的,即Spark不会立马计算出结果,而是记住所有对数据集的转换操作,这些转换只有遇到action的时候才会开始计算。这样的设计使得spark更加高效。例如,对一个数据做一次map操作后进行reduce操作,只有reduce的结果返回给driver,而不是把数据量更大的map操作后传递给driver。

1.1 Transformation

  transformation返回一个新的RDD方式有很多,如从数据源生成一个新的RDD,从RDD生成一个新的RDD。所有的transformation都是采用的懒策略,就是只将transformation提交是不会执行的。

   详情参考:http://spark.apache.org/docs/latest/rdd-programming-guide.html

技术分享图片

1.2   Action

     Action是得到一个值,或者一个结果。计算只有在action被提交的时候才被触发。




欢迎关注个人微信公众号:大数据and机器学习(CLbigdata) 

技术分享图片


以上是关于浅谈Spark算子的主要内容,如果未能解决你的问题,请参考以下文章

spark浅谈:

spark浅谈:SPARK核心编程

浅谈Spark内部运行机制

spark浅谈:RDD

浅谈Spark RDD

技术浅谈Spark和Hadoop的优势对比