SparkConf和SparkContext
Posted walxt
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了SparkConf和SparkContext相关的知识,希望对你有一定的参考价值。
任何Spark程序员都是从SparkContext开始的,SparkContext的初始化需要一个SparkConf对象,SparkConf对象中包含了Spark集群配置的各种参数。
SparkConf conf = new SparkConf().setMaster("local").setAppName("Eclat")
JavaSparkContext jsc = new JavaSparkContext(conf)
// 上面的local可以让Spark运行在单机单线程上面而无法连接到集群
// Eclat 当连接到一个集群时,这个值可以帮助我们在集群管理器的用户界面中找到应用
以上是关于SparkConf和SparkContext的主要内容,如果未能解决你的问题,请参考以下文章
Spark 运行时错误 - ClassDefNotFound: SparkConf
SparkConf加载与SparkContext创建(源码)