利用sqoop从 hive中往mysql中导入表出现的问题
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了利用sqoop从 hive中往mysql中导入表出现的问题相关的知识,希望对你有一定的参考价值。
这个错误的原因是指定Hive中表字段之间使用的分隔符错误,供Sqoop读取解析不正确。如果是由hive执行mapreduce操作汇总的结果,默认的分隔符是 ‘\\001‘,否则如果是从HDFS文件导入的则分隔符则应该是‘\\t‘。此处我是hive执行mapreduce分析汇总的结果,所以默认的分隔是‘\\001‘。Sqoop命令修改如下,指定分隔符:
[[email protected] ~]$ sqoop-export --connect jdbc:mysql://secondmgt:3306/transport --username hive --password hive --table jtxx --export-dir /hive/warehouse/hive.db/temptrans --input-fields-terminated-by ‘\\001‘ ;
其他问题 见 :http://blog.csdn.net/niityzu/article/details/45190787
以上是关于利用sqoop从 hive中往mysql中导入表出现的问题的主要内容,如果未能解决你的问题,请参考以下文章
使用 --create-hive-table 直接在 hive 中导入 mysql 表 (sqoop)
用sqoop将数据从mysql导入hive报错:org.apache.hadoop.mapred.FileAlreadyExistsException: Output