《深入理解Spark-核心思想与源码分析》第三章SparkContext的初始化

Posted sunrunzhi

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了《深入理解Spark-核心思想与源码分析》第三章SparkContext的初始化相关的知识,希望对你有一定的参考价值。

3.1 SparkContext概述

  SparkConf负责配置参数,主要通过ConcurrentHaspMap来维护各种Spark的配置属性。

class SparkConf(loadDefaults: Boolean) extends Cloneable with Logging with Serializable {

  import SparkConf._

  /** Create a SparkConf that loads defaults from system properties and the classpath */
  def this() = this(true)

  private val settings = new ConcurrentHashMap[String, String]()

  @transient private lazy val reader: ConfigReader = {
    val _reader = new ConfigReader(new SparkConfigProvider(settings))
    _reader.bindEnv(new ConfigProvider {
      override def get(key: String): Option[String] = Option(getenv(key))
    })
    _reader
  }
....

 

 

以上是关于《深入理解Spark-核心思想与源码分析》第三章SparkContext的初始化的主要内容,如果未能解决你的问题,请参考以下文章

《深入理解SPARK:核心思想与源码分析》——SparkContext的初始化(中)

Spark中经常使用工具类Utils的简明介绍

《深入理解Spark-核心思想与源码分析》第二章Spark设计理念和基本架构

TaskScheduler的启动

《深入理解Spark-核心思想与源码分析》第五章任务提交与执行

SparkContext的初始化(叔篇)——TaskScheduler的启动