wind本地MySQL数据到hive的指定路径,Could not create file

Posted 绘画者

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了wind本地MySQL数据到hive的指定路径,Could not create file相关的知识,希望对你有一定的参考价值。

一:使用:kettle:wind本地mysql数据到hive的指定路径
二:问题:没有root写权限
网上说的什么少jar包,我这里不存在这种情况,因为我自己是导入jar包的:mysql-connector-java-5.1.22-bin.jar
我是从wind本地MySQL导数据到hive的指定路径,会出现2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x
其实大概意思是说我没有root写权限:
搜索了网上很多说法,但是没有用,我自己使用了这种,仅供参考,可以使用:
三:解决办法:
# 添加用户
hadoop fs -mkdir /user/admin
# 权限分配
hadoop fs -chown admin:hdfs /user/admin
# 修改权限
hadoop fs -chmod -R 777 /

报错部分关键字:
1.org.pentaho.di.core.exception.KettleFileException
2.org.apache.commons.vfs2.FileSystemException: Could not create file
3.2019/10/14 19:27:13 - Hadoop file output.0 - Caused by: org.pentaho.bigdata.api.hdfs.exceptions.AccessControlException: Permission denied: user=³ÂÐÂ, access=WRITE, inode="/hadoop/test":root:supergroup:drwxr-xr-x

以上是关于wind本地MySQL数据到hive的指定路径,Could not create file的主要内容,如果未能解决你的问题,请参考以下文章

hive使用教程(2)--数据导入导出、查询与排序

hive数据导入:文件导入

Hive(五)DML数据操作

hive的本地安装部署,元数据存储到mysql中

数据仓库----Hive进阶篇 一

Hive——DML数据操作(数据导入&数据导出)