Spark的开发环境,可以基于IDEA+Scala插件,最终将打包得到的jar文件放入Linux服务器上的Spark上运行
如果是Python的小伙伴,可以在Windows上部署spark+hadoop+pycharm开发环境进行本地开发和调测,最后将py文件放入Linux服务器上的Spark运行
#### 先挖坑,后填坑 ####
Posted shayzhang
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了04_Windows平台Spark开发环境构建相关的知识,希望对你有一定的参考价值。
Spark的开发环境,可以基于IDEA+Scala插件,最终将打包得到的jar文件放入Linux服务器上的Spark上运行
如果是Python的小伙伴,可以在Windows上部署spark+hadoop+pycharm开发环境进行本地开发和调测,最后将py文件放入Linux服务器上的Spark运行
#### 先挖坑,后填坑 ####
以上是关于04_Windows平台Spark开发环境构建的主要内容,如果未能解决你的问题,请参考以下文章
Windows/Mac平台下Visual Studio Code C++开发环境搭建
[.net 面向对象程序设计深入].NET MVC 6.0 —— 构建跨平台.NET开发环境(Windows/Mac OS X/Linux)