Flink 1.11 日志文件该如何配置?

Posted zhisheng_blog

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Flink 1.11 日志文件该如何配置?相关的知识,希望对你有一定的参考价值。

点击上方 "zhisheng"关注, 星标或置顶一起成长

Flink 从入门到精通 系列文章

Flink 1.11 之前

在 Flink 1.11 之前,Flink 使用的日志是 Log4j,配置文件 log4j.properties 中的内容如下:

# This affects logging for both user code and Flink
log4j.rootLogger=INFO, file

# Uncomment this if you want to _only_ change Flink\'s logging
#log4j.logger.org.apache.flink=INFO

# The following lines keep the log level of common libraries/connectors on
# log level INFO. The root logger does not override this. You have to manually
# change the log levels here.
log4j.logger.akka=INFO
log4j.logger.org.apache.kafka=INFO
log4j.logger.org.apache.hadoop&

以上是关于Flink 1.11 日志文件该如何配置?的主要内容,如果未能解决你的问题,请参考以下文章

Flink 1.11+ 版本如何生成 Watermark

Flink 1.11+ 版本如何生成 Watermark

Flink SQL 1.11新功能详解:Hive 数仓实时化 & Flink SQL + CDC 实践

Apache-Flink 1.11 无法在 Java Flink Streamming Job 中通过 SQL Function DDL 使用 Python UDF

Flink CDC 读取MySQL的数据

Flink-1.11开始提供了JDBC Sink