无法在 cloudera VM 中将 hive 升级到 2.3.2
Posted
技术标签:
【中文标题】无法在 cloudera VM 中将 hive 升级到 2.3.2【英文标题】:Unable to upgrade hive to 2.3.2 in cloudera VM 【发布时间】:2018-02-05 17:54:49 【问题描述】:我将cloudera vm
中的hive
版本升级为2.3.2'. It is installed successfully and I copied
hive-site.xmlfile from older
/hive/conffolder to the newer
conffolder and there is no problem with the metastore. However when I am executing query like
'drop table table_name'` 然后它会抛出以下异常:
FAILED: SemanticException Unable to fetch table table_name. Invalid method name: 'get_table_req'
下面是我的hive-site.xml
文件:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- Hive Configuration can either be stored in this file or in the hadoop configuration files -->
<!-- that are implied by Hadoop setup variables. -->
<!-- Aside from Hadoop setup variables - this file is provided as a convenience so that Hive -->
<!-- users do not have to edit hadoop configuration files (that may be managed as a centralized -->
<!-- resource). -->
<!-- Hive Execution Parameters -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://127.0.0.1/metastore?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>cloudera</value>
</property>
<property>
<name>hive.hwi.war.file</name>
<value>/usr/lib/hive/lib/hive-hwi-0.8.1-cdh4.0.0.jar</value>
<description>This is the WAR file with the jsp content for Hive Web Interface</description>
</property>
<property>
<name>datanucleus.fixedDatastore</name>
<value>true</value>
</property>
<property>
<name>datanucleus.autoCreateSchema</name>
<value>false</value>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://127.0.0.1:9083</value>
<description>IP address (or fully-qualified domain name) and port of the metastore host</description>
</property>
</configuration>
以下是我的bashrc
变量:
#Setting hive variables
export HIVE_HOME="/usr/lib/apache-hive-2.3.2-bin"
export PATH="$HIVE_HOME/bin:$PATH"
注意:我可以创建表,但是当我执行任何选择查询时,它会失败并引发上述异常。我哪里错了?我还需要复制任何其他文件吗?提前致谢。
【问题讨论】:
有什么帮助吗? 【参考方案1】:检查您的 Metastore 版本并升级 Metastore 版本
【讨论】:
你能指导我怎么做吗?以上是关于无法在 cloudera VM 中将 hive 升级到 2.3.2的主要内容,如果未能解决你的问题,请参考以下文章
无法通过在 cloudera quickstart VM 中使用 hue 创建的命令行找到 hive 表
在 Spark SQL 中找不到 Hive 表 - Cloudera VM 中的 spark.sql.AnalysisException
无法在 Windows 10 机器上使用 .vmdk 运行 cloudera VM
hive-metastore 无法在 cloudera manager 安装过程中启动