spark系列之基本概念
Posted wind-man
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark系列之基本概念相关的知识,希望对你有一定的参考价值。
Spark的架构图
1、RDD(弹性分布式数据集)
RDD是对象的分布式集合。
RDD以并行方式应用和记录数据转换
RDD也提供数据沿袭——以图形形式给出每个中间步骤的祖先树,当RDD的一个分区丢失,可以根据祖先树重建该分区。
RDD有两组操作,转换(transformation)和行动(action),RDD转换是有惰性的,宽窄依赖。
2、SparkSession
本质上是对SparkConf、SparkContext、SQLContext、SQLContext、HiveContext和StreamingContext等的组合。
SparkSession是读取数据、处理元数据、配置会话和管理集群资源的入口。
3、Dataset和DataFrame
DataSet是分布式的数据集合,Dataset提供了强类型支持,也是在RDD的每行数据加了类型约束。DataSet是在Spark1.6中添加的新的接口。
它集中了RDD的优点(强类型和可以用强大lambda函数)以及使用了Spark SQL优化的执行引擎。DataSet可以通过JVM的对象进行构建,可以用函数式的转换(map/flatmap/filter)进行多种操作。
DataFrame开始被定义为指定到列的数据集(Dataset),DF可以生成临时表,使用SQL语言。
Dataset和DataFrame的之间可以相互转换。
4、Spark SQL
Spark SQL使用的是Catalyst优化器,基本支持大多数SQL语法。
5、Spark Streaming
Spark Streaming是一个准实时的流式处理工具,按照时间切分,批处理一个个切分后的文件。底层依然是Spark离线处理的逻辑。
以上是关于spark系列之基本概念的主要内容,如果未能解决你的问题,请参考以下文章