Flink 1.11 日志文件该如何配置?
Posted zhisheng_blog
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Flink 1.11 日志文件该如何配置?相关的知识,希望对你有一定的参考价值。
点击上方 "zhisheng"关注, 星标或置顶一起成长
Flink 从入门到精通 系列文章
Flink 1.11 之前
在 Flink 1.11 之前,Flink 使用的日志是 Log4j,配置文件 log4j.properties
中的内容如下:
# This affects logging for both user code and Flink
log4j.rootLogger=INFO, file
# Uncomment this if you want to _only_ change Flink\'s logging
#log4j.logger.org.apache.flink=INFO
# The following lines keep the log level of common libraries/connectors on
# log level INFO. The root logger does not override this. You have to manually
# change the log levels here.
log4j.logger.akka=INFO
log4j.logger.org.apache.kafka=INFO
log4j.logger.org.apache.hadoop&
以上是关于Flink 1.11 日志文件该如何配置?的主要内容,如果未能解决你的问题,请参考以下文章
Flink SQL 1.11新功能详解:Hive 数仓实时化 & Flink SQL + CDC 实践
Apache-Flink 1.11 无法在 Java Flink Streamming Job 中通过 SQL Function DDL 使用 Python UDF