hadoop/hive-生产错误记录

Posted 假如我有一口缸

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop/hive-生产错误记录相关的知识,希望对你有一定的参考价值。

hadoop/hive-生产错误记录

reduce端出现 java.lang.OutOfMemoryError: Direct buffer memory

描述

MR数据量级大,reduce端Direct buffer memory:

这种情况最好找到configration对应参数,并提高。

解决

在MR任务的yarn UI->Configuration中,搜索 direct 相关的参数:

发现使用mapreduce.reduce.java.opts参数来控制reduce端的Direct Memory

所以在MR main方法中修改mapreduce.reduce.java.opts,把 -XX:MaxDirectMemorySize的值增大到640m

        conf.set("mapreduce.reduce.java.opts", 
                "-Xmx4096m -Xms4096m -Xmn256m -XX:MaxDirectMemorySize=640m -XX:SurvivorRatio=6 -XX:MaxPermSize=128m -XX:ParallelGCThreads=10");

任务运行成功。

以上是关于hadoop/hive-生产错误记录的主要内容,如果未能解决你的问题,请参考以下文章

hive连接远程hadoop使用查询语句时,发生错误

SparkSQL 错误:org.apache.hadoop.hive.ql.metadata.HiveException:无法实例化 org.apache.hadoop.hive.ql.metadat

Hadoop - 删除 Hive 表时超时

执行错误,从 org.apache.hadoop.hive.ql.exec.DDLTask 返回代码 1。无法验证 serde:org.apache.hadoop.hive.serde2.avro.A

Spark+Hadoop+Hive集群上数据操作记录

hive启动一些错误记录