Spark提交:使用jar找不到表或视图

Posted

技术标签:

【中文标题】Spark提交:使用jar找不到表或视图【英文标题】:Spark submit: Table or view not found using jar 【发布时间】:2017-07-26 05:14:27 【问题描述】:

当我从 intellij ide 运行 HiveRead.java 时,我可以成功运行并获得结果。然后我创建了 jar 文件(这是一个 maven 项目),然后我尝试从 IDE 运行,它给了我

ClassLoaderResolver for class "" gave error on creation : 1

然后我查看了 SO 答案,发现我必须添加 datanulcues 罐子,我做了这样的事情

java -jar /home/saurab/sparkProjects/spark_hive/target/myJar-jar-with-dependencies.jar --jars jars/datanucleus-api-jdo-3.2.6.jar,jars/datanucleus-core-3.2.10.jar,jars/datanucleus-rdbms-3.2.9.jar,/home/saurab/hadoopec/hive/lib/mysql-connector-java-5.1.38.jar

然后我得到了这个错误

org.datanucleus.exceptions.NucleusUserException: Persistence process has been specified to use a ClassLoaderResolver of name "datanucleus" yet this has not been found by the DataNucleus plugin mechanism. Please check your CLASSPATH and plugin specification.

我发现我应该在某个地方做spark-submit。所以我确实喜欢这个

./bin/spark-submit --class HiveRead --master yarn  --jars jars/datanucleus-api-jdo-3.2.6.jar,jars/datanucleus-core-3.2.10.jar,jars/datanucleus-rdbms-3.2.9.jar,/home/saurab/hadoopec/hive/lib/mysql-connector-java-5.1.38.jar --files /home/saurab/hadoopec/spark/conf/hive-site.xml /home/saurab/sparkProjects/spark_hive/target/myJar-jar-with-dependencies.jar

现在我得到了新类型的错误

Table or view not found: `bigmart`.`o_sales`; 

帮帮我!! :)

我已将我的hive-site.xml 复制到/spark/conf,启动了hive-metastore 服务(hiveserver2 --service metastore

如果有人感兴趣,这里是HiveRead.Java code。

【问题讨论】:

***.com/questions/31980584/… @undefined_variable 我已经完成了关于该问题所说的一切 我最后添加了--files /spark/conf/hive-site.xml 并且它运行了,但是现在我无法访问我的 bigmart 数据库中的表。 【参考方案1】:

Spark 会话无法读取配置单元目录。

使用 spark-submit 命令提供 hive-site.xml 文件路径,如下所示。

对于 hortonworks - 文件路径 /usr/hdp/current/spark2-client/conf/hive-site.xml

在 spark-submit 命令中将其作为 --files /usr/hdp/current/spark2-client/conf/hive-site.xml 传递。

【讨论】:

欢迎堆栈溢出。请考虑在上面的答案中为您的代码使用代码符号。

以上是关于Spark提交:使用jar找不到表或视图的主要内容,如果未能解决你的问题,请参考以下文章

Spark AnalysisException 未找到全局表或视图

创建类别并重定向到 category.index 后,在 laravel 中找不到基表或视图

sbt打包Scala写的Spark程序,打包正常,提交运行时提示找不到对应的类

Spark在本地运行但在YARN中运行时找不到文件

idea打包Spark 找不到主类

用Eclipse开发Spark应用程序导入spark-assembly-1.0.0-incubating-hadoop2.2.0.jar但是我找不到这个jar包