hadoop/hive-生产错误记录
Posted 假如我有一口缸
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop/hive-生产错误记录相关的知识,希望对你有一定的参考价值。
hadoop/hive-生产错误记录
reduce端出现 java.lang.OutOfMemoryError: Direct buffer memory
描述
MR数据量级大,reduce端Direct buffer memory:
这种情况最好找到configration对应参数,并提高。
解决
在MR任务的yarn UI->Configuration中,搜索 direct 相关的参数:
发现使用mapreduce.reduce.java.opts参数来控制reduce端的Direct Memory。
所以在MR main方法中修改mapreduce.reduce.java.opts,把 -XX:MaxDirectMemorySize的值增大到640m:
conf.set("mapreduce.reduce.java.opts",
"-Xmx4096m -Xms4096m -Xmn256m -XX:MaxDirectMemorySize=640m -XX:SurvivorRatio=6 -XX:MaxPermSize=128m -XX:ParallelGCThreads=10");
任务运行成功。
以上是关于hadoop/hive-生产错误记录的主要内容,如果未能解决你的问题,请参考以下文章
SparkSQL 错误:org.apache.hadoop.hive.ql.metadata.HiveException:无法实例化 org.apache.hadoop.hive.ql.metadat
执行错误,从 org.apache.hadoop.hive.ql.exec.DDLTask 返回代码 1。无法验证 serde:org.apache.hadoop.hive.serde2.avro.A