使用InflubDB和Grafana监控Flink

Posted 博而不客

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了使用InflubDB和Grafana监控Flink相关的知识,希望对你有一定的参考价值。

Influxdb和Grafana安装不在这里赘述,直接介绍flink的配置。

一、创建InfluxDB数据库

因为我们需要将采集的metrics数据保存到influxdb中,所以我们首先需要创建一个数据库,create databases flinkonyarn

默认情况下,influxdb在刚安装好之后,禁用身份验证,静默忽略所有凭据,并且所有用户都具有所有权限,这样是极不安全的。在开启身份验证之后,创建相应的用户和对应的密码

二、配置flink文件

修改配置文件 conf/flink-conf.yaml 在最后面增加以下

metrics.reporter.influxdb.class: org.apache.flink.metrics.influxdb.InfluxdbReporter
metrics.reporter.influxdb.host: xx.xx.xx.xx
metrics.reporter.influxdb.port: 8086
metrics.reporter.influxdb.db: flinkonyarn
metrics.reporter.influxdb.username: admin
metrics.reporter.influxdb.password: admin

class:这个是固定的 
host:这个是安装 InfluxDB 的 host 地址 
port:这个是 InfluxDB 的端⼝口,默认是 8086 
db:表示你要将 metrics 数据存⼊入到 InfluxDB 的哪个数据库 
username:InfluxDB 的⽤用户名 
password:InfluxDB 的密码

配置完以上两步,新提交的flink任务产生的metrics数据就会写入到influxdb中,我们可以看有没有对应的表产生

use flinkonyarn

show measurements

查看表数据 select * from jobmanager_Status_JVM_CPU_Load limit 10;

三、增加Grafana数据源

所有这些弄好后,就可以配置图表了。

 

 

 

 

 

以上是关于使用InflubDB和Grafana监控Flink的主要内容,如果未能解决你的问题,请参考以下文章

Windows_安装整合Prometheus + Grafana监控主机和Flink作业

Flink 监控系列Flink 自定义 kafka metrics reporter 上报 metrics 到 kafka

Flink 监控系列Flink 自定义 kafka metrics reporter 上报 metrics 到 kafka

Flink on yarn 实时日志收集最佳实践

使用 Prometheus 和 Grafana 监控 Scylla db

如何使用 Grafana 监控 JDBC 调用和统计信息