Apache Spark:主要使用理念

Posted 你是小KS

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Apache Spark:主要使用理念相关的知识,希望对你有一定的参考价值。

1. 声明

当前内容主要为记录学习Learning Spark书籍中部分的内容,并作出使用上面的总结

2. Spark的基本使用理念

1.由于使用懒计算的方式,所以只有action的操作才会执行,transform操作不会执行

2.使用数据的时候,如果当前的RDD未持久化或者缓存,那么每次action操作都会出现重头开始的计算,非常不高效

3.Spark默认采用Scala语言编写,所以SparkContext就是scala的,java中需要使用JavaSparkContext

4.基本所有的操作都是通过函数方式

3.Spark中的基本transform

遵循的基本原则:只要是返回一个RDD的基本上算是一个transform!

例如:

  1. textFile
  2. filter
  3. distinct
  4. union等数学集合操作

…等其他操作

该操作会等待直到遇到一个action时才会从头开始执行,最后计算

例如:只有textFile时,Spark不会真的读取所有文件,只是加入到执行计划中

4. Spark中的基本action

遵循的基本原则:不返回RDD的基本上算是一个action

例如:

  1. count 统计数量
  2. countByValue 按值进行map统计数量
  3. first 拿出第一个值
  4. forEach
  5. collect
  6. reduce

… 等其他的操作

如果RDD未缓存,那么action就从头开始计算

5. 缓存

可以让计算结果保存起来,再次遇到action的时候会重用(persist())

优点:提高某个RDD结果使用率,提高效率
缺点:缓存太大,容易出现缓存失败的问题,可以通过unpersist解除缓存,必须在下次action之前使用

以上是关于Apache Spark:主要使用理念的主要内容,如果未能解决你的问题,请参考以下文章

apache storm apache spark哪个更火

Apache Spark:SparkSQL的使用

快速大数据:Apache Flink与Apache Spark处理流式数据比较

Apache Spark:采用本地方式执行任务

Spark入门实战系列--1.Spark及其生态圈简介

Apache Spark:SparkStream创建Receiver来实现模拟无边界流操作