Spark
Posted dbnixi
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark相关的知识,希望对你有一定的参考价值。
1、什么是Spark
Spark是一种统一、快速、通用、可扩展的分布式大数据分析引擎。分布式体现在Spark一般情况是以集群模式存在,架构为Master/Slaver(主从结构)。大数据分析引擎体现在Spark能够分析数据,但是没有存储。一般线上的spark数据来源 (HDFS, Hive、Kafka、Flume、日志文件、关系型数据库、NoSQL数据库)。Spark数据出口(HDFS、Hive、Kafka、Redise、关系型数据库、NoSQL数据库)。
Spark是基于内存计算的大数据并行计算框架,Spark基于内存计算,提高了在大数据环境下数据处理的实时性,同时保证了高容错性和高可伸缩性,允许用户将Spark部署在大量廉价硬件之上,形成集群。
目前,Spark生态系统已经发展成为一个包含多个子项目的集合,其中包含SparkSQL、Spark Streaming、GraphX、MLlib等子项目。
2、Spark的特点
1、统一:Spark能够适应多种计算场景(离线计算、实时计算、机器学习、图计算、AI应用)。一般公司在进行技术选型过程,首选Spark。
2、快速:Spark在使用过程中,会读取HDFS上数据,并且会将HDFS中数据驻留在内存当中,将数据进行缓存、在后续数据迭代操作过程能够重用内存中的数。在逻辑回归(算法)处理中,Spark的速度要比Hadoop 理论上快100倍。与Hadoop的MapReduce相比,Spark基于内存的运算要快100倍以上,基于硬盘的运算也要快10倍以上。Spark实现了高效的DAG执行引擎,可以通过基于内存来高效处理数据流。
此外,Spark还具有一站式解决方案:
五大模块:
1、SparkCore (处理离线数据)
2、SparkSQL (主要用来做多维数据分析、以及交互式查询)
3、SparkStreaming (实时数据处理程序)
4、Spark MLlib (机器学习 包含非常多算法,相当于Spark提供的一个算法库)
5、Spark Graphx (图计算处理模块)
Spark提供了统一的解决方案。Spark可以用于批处理、交互式查询(Spark SQL)、实时流处理(Spark Streaming)、机器学习(Spark MLlib)和图计算(GraphX)。这些不同类型的处理都可以在同一个应用中无缝使用。
3、通用:Spark支持多种语言(Java、Scala、Python、R、SQL)。Spark支持Java、Python和Scala的API,还支持超过80种高级算法,使用户可以快速构建不同的应用,而且Spark支持交互式的Python和Scala的shell,可以非常方便地在这些shell中使用Spark集群来验证解决问题的方法。
4、可扩展:Spark能够兼容 (hadoop、hive、hbase、yarn、kafka、flume、redise、关系型数据等),Spark可以非常方便地与其他的开源产品进行融合。比如,Spark可以使用Hadoop的YARN和Apache Mesos作为它的资源管理和调度器,并且可以处理所有Hadoop支持的数据,包括HDFS、HBase和Cassandra等。这对于已经部署Hadoop集群的用户特别重要,因为不需要做任何数据迁移就可以使用Spark的强大处理能力。Spark也可以不依赖于第三方的资源管理和调度器,它实现了Standalone作为其内置的资源管理和调度框架,这样进一步降低了Spark的使用门槛,使得所有人都可以非常容易地部署和使用Spark。此外,Spark还提供了在EC2上部署Standalone的Spark集群的工具。
3、为什么要学习Spark
Spark是一个开源的类似于Hadoop MapReduce的通用的并行计算框架。Spark基于map、reduce算法实现的分布式计算,拥有Hadoop MapReduce所具有的优点,但不同于MapReduce的是Spark中的job中间输出和结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的map、reduce的算法。
Spark是MapReduce的替代方案,而且兼容HDFS、Hive,可融入Hadoop的生态系统以弥补MapReduce的不足。
4、Spark的应用场景
-
-
金融风险管控系统 (对实时性要求比较,起码毫秒级)
-
精细化运行系统 (CMS系统 、BI系统)
-
精准广告推荐系统(Spark机器学习,一般在广告或者电商公司应用)
5、
-
Spark context Web UI:Spark Job任务的管理界面
-
Spark context:初始化SparkContext对象名称sc(SparkContext对象是Spark应用程序的入口对象)
-
master = local[*]:默认情况下Spark-shell 向本地机器获取资源
-
app id = local-1557469470546,每个Spark应用程序都会产生一个appid
-
-
Spark session:一次会话对象,可以使用Sparksession调用SparkSQL
- 基于Spark-shell的wordcount操作
- Spark-shell以standalone模式启动
只是一些基本的流程步骤,具体的细节还是需要用很多的时间进行学习的,要加倍努力哦!
7、
-
Application:基于Spark的应用程序,包含了driver程序和集群上的executor。
-
Cluster Manager:指的是在集群上获取资源的外部服务。目前有三种主流类型:
- 1、Standalone:Spark原生的资源管理,由Master负责资源的分配Standalone: spark原生的资源管理,由Master负责资源的分配。
- 2、Apache Mesos:与hadoop MR兼容性良好的一种资源调度框架。
- 3、Hadoop Yarn:主要是指Yarn中的ResourceManager。
-
Worker Node: 集群中任何可以运行Application代码的节点,在Standalone模式中指的是通过slaves文件配置的Worker节点,在Spark on Yarn模式下就是NodeManager节点。
-
Executor:是在一个worker node上为某应用启动的?个进程,该进程负责运行任务,并且负责将数据存在内存或者磁盘上。每个应用都有各自独立的executor。
-
Task:被送到某个executor上的工作单元。
8、
-
-
可靠性的弹性:RDD的数据在丢失数据的时候能够自动恢复。RDD在计算过程中会出现失败的情况,失败以后会进行一定次数的重试(4次)。
-
并行度的弹性:RDD的数据分区可以改变,进而增加并行计算的粒度。
2、分布式:
RDD的数据是分布存储的,也就是Spark集群中每个节点上只存储了RDD的部分数据,计算时同样也是分布式并行计算的。
3、数据集:
RDD是一个数据容器,用来组织管理数据的,跟Array和List类似,并且都能够进行map、flatMap、filter等。
-
窄依赖:父RDD中一个partition最多被子RDD中的一个partition所依赖,这种依赖关系就是窄依赖
-
窄依赖算子:map 、filter 、union 、flatMap等
-
宽依赖:父RDD中一个partition被子RDD中的多个partition所依赖,这种依赖关系就是宽依赖
-
宽依赖算子:groupByKey、reduceByKey。凡是By基本上都是宽依赖
另一种理解方式可以为:
一对一或者多对一:窄依赖
一对多或者多对多:宽依赖
RDD与RDD之间存在依赖关系,依赖关系都是通过转换算子构建的。Spark应用程序会通过Action算子触发Job操作,Job在运行过程中 是从后往前回溯的,回溯的时候就是根据RDD的依赖关系。这样就构建了RDD的血统机制。有了依赖链条的存在,当RDD中数据丢失的时候,会根据血统机制进行自动恢复数据。
窄依赖:
父RDD中一个partition最多被子RDD中一个partition所依赖,所以当子RDD中一个parition数据丢失时会重算其相应的父RDD中的数据,不需要对整个RDD进行数据恢复。
宽依赖:
父RDD中一个partition被子RDD中多个partition所依赖的, 所以如果子RDD中的一个partition数据丢失,那么它会重算其所依赖的所有父RDD的partition。
以上是关于Spark的主要内容,如果未能解决你的问题,请参考以下文章
SparkSpark ShuffleSpark SQL 及 Spark MLlib