HDFSHiveMySQLSqoop之间的数据导入导出(强烈建议去看)

Posted 大数据和人工智能躺过的坑

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了HDFSHiveMySQLSqoop之间的数据导入导出(强烈建议去看)相关的知识,希望对你有一定的参考价值。

Hive总结(七)Hive四种数据导入方式 (强烈建议去看)

Hive几种数据导出方式 https://www.iteblog.com/archives/955 (强烈建议去看)

 

 

 

 

把MySQL里的数据导入到HDFS

  1、使用mysql工具手工导入

  把MySQL的导出数据导入到HDFS的最简单方法就是,使用命令行工具和MySQL语句。

为了导出整个数据表或整个数据库的内容,MySQL提供了mysqldump工具。

 

  比如

  SELECT  col1,col2 FORM TABLE 

      INTO OUTFILE ‘/tmp/out.csv‘

  FIELDS TERMINATED BY ‘,‘ , LINES  TERMINATED  BY ‘\n‘;

  这个学格式就好,具体表看自己的。

  一旦我们把数据导出到文件中,就可以用hadoop fs -put把该文件,从本地linux移到HDFS上。

 

  2、使用Sqoop把MySQL里的数据导入到HDFS

  $ sqoop  import  --connect  jdbc:mysql://192.168.80.128/hive  --username   hive   \ >  --password  hive   --table  employees

  注意,这里根据自己的来,元数据库名,用户名和密码

 

 

 

 

把MySQL里的数据导入到Hive

  $ sqoop  import  --connect jdbc:mysql://192.168.80.128/hive   --username  hive   -password  hive  --table employees   --hive-import    --hive-table  employees

  更为详细,见

用Sqoop将mysql中的表和数据导入到Hive中

 

 

 

 

 

把HDFS里的数据导出到MySQL

  $ sqoop  export --connect  jdbc:mysql://192.168.80.128/hive  --username  hive   -password  hive  --table employees   --export-dir  edata  --input-fields-terminated-by  ‘\t‘

  更为详细,见

Sqoop1.4.5+hadoop2.2.0进行Mysql到HDFS的数据转换

 

 

 

 

 

把HDFS里的数据导出到Hive

 $  sqoop  export  --connect jdbc://mysql://192.168.80.128/hive  -username  hive   -password  hive  --table employees  --export-dir  /user/hive/warehouse/employees   --input-fields-terminated-by  ‘\001‘     --input-lines-terminated-by  ‘\n‘ 

以上是关于HDFSHiveMySQLSqoop之间的数据导入导出(强烈建议去看)的主要内容,如果未能解决你的问题,请参考以下文章

mysql数据库和oracle数据库之间互相导入备份

在 Google Workbooks 之间导入命名范围数据

PG数据库之间的导入导出

mysql数据与Hadoop之间导入导出之Sqoop实例

如何在视图或计划查询之间进行选择,以对通过 Stitch 导入的 BigQuery 表进行重复数据删除?

RavenDB 使用 Raven.Smuggler 在 RavenDB 服务器之间导出/导入数据