Spark 使用intellijidea本地调试
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark 使用intellijidea本地调试相关的知识,希望对你有一定的参考价值。
1、添加spark-assembly-1.3.1-hadoop.jar
2、点击run-》edit configurations,点击左上角绿色加号,添加application,mainclass选择为即将调试的class,vm options填写:-Dspark.master=local,点击OK结束
3、注意1.3对应scala版本为:2.11.4,否则出现*****hashset等类似错误
以上是关于Spark 使用intellijidea本地调试的主要内容,如果未能解决你的问题,请参考以下文章