sqoop
Posted 北京尚学堂旗下-云数学院
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了sqoop相关的知识,希望对你有一定的参考价值。
版权声明:本文为yunshuxueyuan原创文章。
如需转载请标明出处: http://www.cnblogs.com/sxt-zkys/
QQ技术交流群:299142667
sqoop
Apache Sqoop是用来实现结构型数据(如关系数据库)和Hadoop之间进行数据迁移的工具。它充分利用了MapReduce的并行特点以批处理的方式加快数据的传输,同时也借助MapReduce实现了容错。
sqoop支持的数据库:
Database |
version |
--direct support? |
connect string matches |
HSQLDB |
1.8.0+ |
No |
|
5.0+ |
Yes |
jdbc:mysql:// |
|
Oracle |
10.2.0+ |
No |
|
PostgreSQL |
8.3+ |
Yes (import only) |
jdbc:postgresql:/ |
通过sqoop help命令查看sqoop帮助
import(将关系数据库迁移到HDFS上)
[例1] 将mysql中的sds表导入HDFS中
[例2] 将mysql中的sds,指定的列表导入HDFS中
[例3] 将整个数据库中的表全部导入到hdfs上
import-all-tables命令
sqoop import-all-tables --connect jdbc:mysql://node01/test --username root -password 123
[例4] 指定导出文件为SequenceFiles,文件命名为com.ctrip.sds
[例5] 导入文本时可以指定分隔符
[例6] 可以指定过滤条件
--m设置并行数据,即map的数据,决定文件的个数。
--target-dir设置hdfs上的目标目录。
export(将hdfs上的数据导入到关系数据库中)
[例一] 将HDFS中数据导入到mysql中的sds表
sqoop export --connect jdbc:mysql://node01/test --username root -password 123 --table psn --export-dir /user/root/psn
[例二] 将关系数据库表导入到hive表中
create-hive-table
默认sds_bak是在default数据库的。
这一步需要依赖HCatalog,需要先安装HCatalog,否则报错。
list-databases列出一台server上可用的数据库
list-tables列出一个数据库中的表
codegen:
将关系数据库表映射为一个java文件、java class类相关的jar包
eval用户可以很快的使用sql语句对数据库进行操作。
job用来生成sqoop任务。
metastore 配置sqoop job的共享元数据信息,这样多个用户定义和执行sqoop job在这一metastore中。
启动:sqoop metastore 关闭:sqoop metastore –shutdown 存储位置: conf/sqoop-site.xml/sqoop.metastore.server.location
|
[补充]
由于sqoop是通过map完成数据的导入,各个map过程是独立的,没有事物的概念,可能会有部分map数据导入失败的情况。为了解决这一问题,sqoop中有一个折中的办法,即是指定中间staging表,成功后再由中间表导入到结果表。
--staging-table <staging-table-name>staging表结构也是需要提前创建出来
[注]在使用 –direct,--update-key或者--call存储过程的选项时,staging中间表是不可用的。
验证结果:
(1)数据会首先写到sds_tmp表,导入操作成功后,再由sds_tmp表导入到sds结果表中,同时会清除sds_tmp表。
(2)如果有map失败,则成功的map会将数据写入tmp表,export任务失败,同时tmp表的数据会被保留。
(3)如果tmp中已有数据,则此export操作会直接失败,
--clear-staging-table 指定在执行前清除中间表。
版权声明:本文为yunshuxueyuan原创文章。
如需转载请标明出处: http://www.cnblogs.com/sxt-zkys/
QQ技术交流群:299142667
以上是关于sqoop的主要内容,如果未能解决你的问题,请参考以下文章