idea下关联spark源码环境(转)

Posted moonlight.ml

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了idea下关联spark源码环境(转)相关的知识,希望对你有一定的参考价值。

0.环境:

java 1.8

scala 2.11.8

maven 3.5.0

idea 2017

spark 2.2.0

1完成以下配置

java环境变量

scala环境变量

maven setting配置文件jar包存放路径

idea下载scala plugins语言插件

idea配置maven setting及jar包存放路径

spark git :https://github.com/apache/spark.git

2编译spark源码

进入目录$spark_home

配置maven内存大小,或者在maven配置文件中配置($maven_home/bin/mvn)

exportMAVEN_OPTS="-Xmx2g -XX:ReservedCodeCacheSize=512m"

打包spark源码

./build/mvn-Pyarn -Phadoop-2.4 -Dhadoop.version=2.4.0 -DskipTests clean package

3 debug调试配置

1)加载所有jars

idea =>file => project structure=> libraries => add java =>$spark_home/assembly/target/scala-2.11/jars =>all project

 

技术分享图片
 

2)debug配置

idea=>run =>run config =>

 

技术分享图片
 

随着git代码更新到本地,打包代码与debug代码 不一致,把下面的 build 删除即可。

 

技术分享图片
 
技术分享图片
 

3)打断点

4)debug调试

 

技术分享图片
 
技术分享图片



作者:HxLiang
链接:https://www.jianshu.com/p/491d019eb9b6
來源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。






以上是关于idea下关联spark源码环境(转)的主要内容,如果未能解决你的问题,请参考以下文章

spark源码走读环境搭建

Idea1.5使用Maven搭建Apache Spark1.6源码阅读环境

如何使用idea开发hadoop程序

Spark编程环境搭建(基于Intellij IDEA的Ultimate版本)

Spark源码剖析:如何将spark源码导入到IDEA中

ubuntu下关于profile和bashrc中环境变量的理解(转)