SparkConf和SparkContext

Posted walxt

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了SparkConf和SparkContext相关的知识,希望对你有一定的参考价值。

任何Spark程序员都是从SparkContext开始的,SparkContext的初始化需要一个SparkConf对象,SparkConf对象中包含了Spark集群配置的各种参数。

SparkConf conf = new SparkConf().setMaster("local").setAppName("Eclat")

JavaSparkContext jsc = new JavaSparkContext(conf)

// 上面的local可以让Spark运行在单机单线程上面而无法连接到集群

// Eclat 当连接到一个集群时,这个值可以帮助我们在集群管理器的用户界面中找到应用

以上是关于SparkConf和SparkContext的主要内容,如果未能解决你的问题,请参考以下文章

Spark 运行时错误 - ClassDefNotFound: SparkConf

SparkConf

Spark源码研读-散篇记录:SparkConf

SparkConf加载与SparkContext创建(源码)

SparkConf加载与SparkContext创建(源码阅读三)

使用 spark-shell 时使用 sparkConf.set(..) 自定义 SparkContext