spark-local 模式 提示 /tmp/hive hdfs 权限不够的问题

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了spark-local 模式 提示 /tmp/hive hdfs 权限不够的问题相关的知识,希望对你有一定的参考价值。

   spark版本为2.0    

    在spark 在 local 模式下启动,有时会报/tmp/hive hdfs 权限不够的问题,但是我们并没有将hdfs-site.xml配置文件放到我们的项目中,spark的文件应该会存在本地电脑上,但是为什么会报这个错误呢?这个问题非常诡异,有的同事会报此错误,有的则不会。都是同样的配置。

    

        这是在2016/10/31 报的错误,之前在本地测试从来不会报这个错误,但是在这天早上2个同事反映起不来项目,我自己试了一下也起不来,同样的错误。

最终发现spark报的错误不准确,如果在windows环境下spark会去某一个盘下创建“tmp/hive/用户名” 的文件夹,在这个文件夹下存放一些临时文件,注意,这里并不是数据文件,数据文件的地址另有设置。我们发现报错的同事都是只创建了“tmp/hive”的文件夹,下面的用户名文件夹并没有创建成功,可以推断,spark在下次启动的时候,创建此文件夹出错了,所以我们把“tmp/hive”的文件夹删除,再次启动,spark就可以正常运行了,运行成功后会创建“tmp/hive/用户名” 的文件夹。

值得一提的是,本机测试之前没有出现此问题,之前都是创建在E盘下

    技术分享


而2016/10/31(周一)来时,spark却选择了C盘,期间,代码,配置,环境等都没有变化,这个原因到目前未能解开。

技术分享

这个xiaokan的文件夹也是一定要在第一次spark启动失败后(创建了tmp/hive),后将tmp/hive删除后才能创建起来,具体原理,至今未明确。


这里补充一句,在后续我们使用spark2.1版本后,再也没有出现此问题,可能是spark2.0的坑吧。

本文出自 “去买大白兔” 博客,转载请与作者联系!

以上是关于spark-local 模式 提示 /tmp/hive hdfs 权限不够的问题的主要内容,如果未能解决你的问题,请参考以下文章

Spark-Local模式环境搭建

spark-local-运行异常-Could not locate executable nullinwinutils.exe in the Hadoop binaries

spark安装测试

spark安装测试

为啥引导工具提示在引导模式中不起作用?

不同的 bash 提示符对应不同的 vi 编辑模式?