Hive产生大量Info日志的问题(由Flink On Yarn配置引起的)

Posted 曼莎70

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hive产生大量Info日志的问题(由Flink On Yarn配置引起的)相关的知识,希望对你有一定的参考价值。

1、背景

当时,hive安装部署好,并没有这个问题,后面部署了 Flink On Yarn,就没有使用过hive了。

2、问题

(1)使用 bin/hive 的时候,会打印大量的INFO日志,不停的刷日志,sql语句这些能够正常执行(MR引擎或者Tez引擎都可以),但是其实无法正常使用。

(2)info日志如下所示:

(3)而后想通过启动 hiveserver2服务,使用DataGrip去连接操作Hive,这样至少不用看见那烦人的INFO日志了。。。事实是,sql语句无法正常跑下去。。。

3、解决办法

出现这个问题的原因:环境变量配置了HADOOP_CLASSPATH导致的。

vim /etc/profile.d/my_env.sh
把最下面的注释掉或者删掉,重启服务器,重启集群,重新连接hive。
注意,除了source加载一次,一定要重启服务器哈(reboot)!!!!!!我就是栽在了这里,坑了半天。。。

##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

下面这两个环境变量是在部署FLink On Yarn的时候用到的,为以后使用方便,我选择注释即可!!!
#export HADOOP_CONF_DIR=/opt/module/hadoop-3.1.3/etc/hadoop
#export HADOOP_CLASSPATH=`hadoop classpath`

4、测试Hive是否正常


后面sql语句都正常使用。

以上是关于Hive产生大量Info日志的问题(由Flink On Yarn配置引起的)的主要内容,如果未能解决你的问题,请参考以下文章

hive在CLI下日志输出过多,导致很混乱

hive日志配置

基于Flink的实时计算平台的构建

关于hive shell 中夹杂大量日志信息的问题

flink滚动日志的配置

Flink的waterMark概念解释