Spark 使用intellijidea本地调试

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Spark 使用intellijidea本地调试相关的知识,希望对你有一定的参考价值。

1、添加spark-assembly-1.3.1-hadoop.jar

2、点击run-》edit configurations,点击左上角绿色加号,添加application,mainclass选择为即将调试的class,vm options填写:-Dspark.master=local,点击OK结束

3、注意1.3对应scala版本为:2.11.4,否则出现*****hashset等类似错误

以上是关于Spark 使用intellijidea本地调试的主要内容,如果未能解决你的问题,请参考以下文章

搭建Spark源码研读和代码调试的开发环境

Spark应用远程调试

用idea调试Spark独立集群

从外部在 Hortonworks Sandbox 上执行 Spark 作业

java进行远程部署与调试及原理解析

在 Windows 10 上使用 Intellij IDEA 在 WSL 2 中运行和调试 Java