Flink源码编译

Posted 大数据从业者

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Flink源码编译相关的知识,希望对你有一定的参考价值。


前言

PS:先发一篇博文发过的入门篇。当时手头没有linux系统,姑且在windows下玩玩。

Fucking the code之前,源码编译先行。

编译环境

win7 java maven 具体版本信息见下图

编译步骤

官网搞起,任何玩意,对于刚接触的人都是小白,那就fuck官网

https://ci.apache.org/projects/flink/flink-docs-release-1.6/start/building.html

获取源码

方法2:直接从github(全球最大的同性交友网站)上下载。作为一个装逼的程序猿,当然选择此方法。直接 git clone https://github.com/apache/flink

注意切换到你想玩的分支

git checkout release-1.6.0

编译搞起

进入flink工程跟目录

直接执行编译命令:mvn clea install -DskipTests -Dfast

PS:该命令可以直接跳过那些有的没的tests、QA插件(如检查代码风格的插件)、JavaDocs等。网络环境不好时,下载依赖很慢,甚至会报错,重试即可。我当时跑了一个多小时,见编译结果

默认编译参数是支持hadoop2,也可以自行指定具体的版本号

只需在编译命令之后加上

-Dhadoop.version=2.6.1

当然还可以指定hadoop发行商,主流的cdh、hdp、MapR,不过前段时间cdh跟hdp已经合并了

-Pvendor-repos -Dhadoop.version=2.6.1-cdh5.0.0

编译结果


源码编译搞定,就可以开始愉快的蹂躏flink了

以上是关于Flink源码编译的主要内容,如果未能解决你的问题,请参考以下文章

text flink源码编译#flink

flink源码编译(windows环境)

Flink1.9.2源码编译和使用

Flink1.9.2源码编译和使用

Apache Flink源码阅读环境搭建

调试flink源码