《深入理解Spark-核心思想与源码分析》第三章SparkContext的初始化
Posted sunrunzhi
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了《深入理解Spark-核心思想与源码分析》第三章SparkContext的初始化相关的知识,希望对你有一定的参考价值。
3.1 SparkContext概述
SparkConf负责配置参数,主要通过ConcurrentHaspMap来维护各种Spark的配置属性。
class SparkConf(loadDefaults: Boolean) extends Cloneable with Logging with Serializable { import SparkConf._ /** Create a SparkConf that loads defaults from system properties and the classpath */ def this() = this(true) private val settings = new ConcurrentHashMap[String, String]() @transient private lazy val reader: ConfigReader = { val _reader = new ConfigReader(new SparkConfigProvider(settings)) _reader.bindEnv(new ConfigProvider { override def get(key: String): Option[String] = Option(getenv(key)) }) _reader } ....
以上是关于《深入理解Spark-核心思想与源码分析》第三章SparkContext的初始化的主要内容,如果未能解决你的问题,请参考以下文章
《深入理解SPARK:核心思想与源码分析》——SparkContext的初始化(中)
《深入理解Spark-核心思想与源码分析》第二章Spark设计理念和基本架构