Spark 编程模型(上)

Posted zimo-jing

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark 编程模型(上)相关的知识,希望对你有一定的参考价值。

初识RDD

什么是RDD?

定义:Resilient distributed datasets (RDD), an efficient, general-purpose and fault-tolerant abstraction for sharing data in cluster applications.

  RDD 是只读的。  

   RDD 是分区记录的集合。

   RDD 是容错的。--- lineage RDD 是高效的。

   RDD 不需要物化。---物化:进行实际的变换并最终写入稳定的存储器上

  RDD 可以缓存的。---可指定缓存级别

RDD是spark的核心,也是整个spark的架构基础,RDD是弹性分布式集合(Resilient Distributed Datasets)的简称,是分布式只读且已分区集合对象。这些集合是弹性的,如果数据集一部分丢失,则可以对它们进行重建。

RDD接口

技术分享图片

RDD的本质特征

技术分享图片

RDD--partitions

Spark中将1~100的数组转换为rdd。

技术分享图片

通过第15行的size获得rdd的partition的个数,此处创建rdd显式指定定分区个数2,默认数值是这个程序所分配到的资源的cpu核的个数。

RDD-preferredLocations

返回此RDD的一个partition的数据块信息,如果一个数据块(block)有多个备份在返回所有备份的location地址信息:主机ip或域名。

作用:spark在进行任务调度室尽可能根据block的地址做到本地计算。

RDD-dependencies

RDD之间的依赖关系分为两类:

● 窄依赖

每个父RDD的分区都至多被一个子RDD的分区使用,即为OneToOneDependecies。

 ● 宽依赖

多个子RDD的分区依赖一个父RDD的分区,即为ShuffleDependency 。例如,map操作是一种窄依赖,而join操作是一种宽依赖(除非父RDD已经基于Hash策略被划分过了,co-partitioned)。

技术分享图片

窄依赖相比宽依赖更高效资源消耗更少

  • 允许在单个集群节点上流水线式执行,这个节点可以计算所有父级分区。例如,可以逐个元素地依次执行filter操作和map操作。
  • 相反,宽依赖需要所有的父RDD数据可用并且数据已经通过类MapReduce的操作shuffle完成。

 在窄依赖中,节点失败后的恢复更加高效。

  • 因为只有丢失的父级分区需要重新计算,并且这些丢失的父级分区可以并行地在不同节点上重新计算。
  • 与此相反,在宽依赖的继承关系中,单个失败的节点可能导致一个RDD的所有先祖RDD中的一些分区丢失,导致计算的重新执行。

RDD-compute

分区计算:Spark对RDD的计算是以partition为最小单位的,并且都是对迭代器进行复合,不需要保存每次的计算结果。

RDD- partitioner

分区函数:目前spark中提供两种分区函数:

  • HashPatitioner(哈希分区)
  • RangePatitioner(区域分区)

且partitioner只存在于(K,V)类型的RDD中,rdd本身决定了分区的数量。

RDD- lineage

val lines = sc.textFile("hdfs://...")
// transformed RDDs
val errors = lines.filter(_.startsWith("ERROR"))
val messages = errors.map(_.split("	")).map(r => r(1))
messages.cache()
// action 1
messages.filter(_.contains("mysql")).count()
// action 2
messages.filter(_.contains("php")).count()

 

技术分享图片

技术分享图片

RDD经过trans或action后产生一个新的RDD,RDD之间的通过lineage来表达依赖关系,lineage是rdd容错的重要机制,rdd转换后的分区可能在转换前分区的节点内存中。

技术分享图片

典型RDD的特征

技术分享图片

不同角度看RDD

技术分享图片

Scheduler Optimizations

技术分享图片

 

 

以上就是博主为大家介绍的这一板块的主要内容,这都是博主自己的学习过程,希望能给大家带来一定的指导作用,有用的还望大家点个支持,如果对你没用也望包涵,有错误烦请指出。如有期待可关注博主以第一时间获取更新哦,谢谢!

以上是关于Spark 编程模型(上)的主要内容,如果未能解决你的问题,请参考以下文章

在这个 spark 代码片段中 ordering.by 是啥意思?

Spark入门实战系列--3.Spark编程模型(下)--IDEA搭建及实战

DataFrame编程模型初谈与Spark SQL

Spark编程实战-词频统计

Spark编程实战-词频统计

谷歌DataFlow编程模型以及Spark/Flink/StreamCQL的相关实现