插入蜂巢表不起作用

Posted

技术标签:

【中文标题】插入蜂巢表不起作用【英文标题】:Insert to hive table not working 【发布时间】:2018-12-21 13:23:36 【问题描述】:

我有直接的蜂巢表

当我插入此表时,我收到以下错误。

正在执行kill命令,mapper和reducer个数为0。

更新

我已经使用 insert into table dept values('1','HR'); 即使这样我也得到了类似的错误如下

我已经检查了如下的工作日志

我在 hive 的配置中遗漏了什么吗?需要帮忙... 谢谢

【问题讨论】:

将下面添加到我的类路径后,错误得到解决 【参考方案1】:

这不是写命令

INSERT INTO TABLE dept
VALUES ('1', 'HR'), ('2', 'IT');

在表名之前使用表,它会起作用

随着问题的更新而更新:

设置

YARN_HOME=$HADOOP_HOME 而不是 HADOOP_YARN_HOME=$HADOOP_HOME

在 env 设置文件中,这将是类似的。

导出 HADOOP_HOME=/opt/hadoop/hadoop 导出 HADOOP_COMMON_HOME=$HADOOP_HOME 导出 HADOOP_HDFS_HOME=$HADOOP_HOME 导出 HADOOP_MAPRED_HOME=$HADOOP_HOME 导出 HADOOP_YARN_HOME=$HADOOP_HOME 导出 HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native" 导出 HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

【讨论】:

谢谢,如上所述,我在日志中发现此错误“错误:无法找到或加载主类 org.apache.hadoop.mapreduce.v2.app.MRAppMaster” 在 env 设置文件中设置 YARN_HOME=$HADOOP_HOME 而不是 HADOOP_YARN_HOME=$HADOOP_HOME 这将是类似的。 export HADOOP_HOME=/opt/hadoop/hadoop export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_YARN_HOME=$HADOOP_HOME export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native" export HADOOP_COMMON_LIB_NATIVE_DIR= $HADOOP_HOME/lib/native 尝试将这些添加到 yarn-env.sh 中,但仍然无效

以上是关于插入蜂巢表不起作用的主要内容,如果未能解决你的问题,请参考以下文章

迭代lua表不起作用

精灵表不起作用

bigrquery:使用 geoJSON 文件创建 BigQuery 表不起作用

通过立即执行创建表不起作用

Google Cloud Dataproc 删除 BigQuery 表不起作用

pgadmin 4 导入/导出表不起作用