干货 | 快速实现数据导入及简单DCS的实现
Posted jdclouddeveloper
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了干货 | 快速实现数据导入及简单DCS的实现相关的知识,希望对你有一定的参考价值。
干货 | 快速实现数据导入及简单DCS的实现
原创:?赵琦?京东云开发者社区??4月18日
对于多数用户而言,在利用云计算的大数据服务时首先要面临的一个问题就是如何将已有存量数据快捷的导入到大数据仓库中。本文将演示如何基于京东云数据计算服务平台,简单、快速地将数据导入数据计算服务。
我们通常说的大数据平台主要包括三部分:数据相关的产品和技术、数据资产、数据管理。京东云数据计算服务(Data Computing Service,简称:DCS)是一个全托管、低使用成本的云上数据仓库服务。通过数据工厂,可轻松实现云上各数据源(包括对象存储、云数据库、数据仓库等)间、本地数据源与云数据源间的多种不同数据源的数据同步,实现多源数据分析与管理。
在数据工厂服务中可以创建同步任务来搬运数据,并按照指定的调度策略(每天、每周、每月)运行。该模块提供任务监控和告警功能,用户可以通过任务执行的明细日志和告警历史,轻松查明问题所在;同时,提供全面托管的工作流服务,支持图形化设计数据分析。以工作流任务的方式实现对数据的处理和相互依赖,帮助用户快速构建数据处理分析作业并周期性地执行。
下面会以mysql数据库为例说明如何利用京东云数据工厂进行数据采集和DTS数据库之间的数据同步。数据工厂支持常见RDS数据库,如MySQL、SQLServer、Oracle、DB2和NoSQL数据库,也支持从OSS、FTP站点及Elastic Search等。
下图是数据工厂支持的数据源种类:
下面会演示以MySQL数据库为例,如何利用数据工厂进行数据采集,以及如何利用数据工厂作为DTS在两个数据源之间进行数据迁移。
为了方便测试,首先我们要创建数据库表单并灌入测试数据。为了测试方便,提前创建了一台CentOS 7.4云主机作为模拟客户端对数据库进行访问。
一、核心概念
数据集
在数据工厂服务中的数据集,是指由同步任务时需指定的数据源端或数据目标端的不同数据存储实例。因此,在创建同步任务之前,你必须先连接数据集。同一个数据集,可以是多个同步任务的数据源端或者数据目标端。
数据集的连通性
在用户创建数据集连接时,为检验数据集成服务能否连接成功,需要用户更具根据不同的数据集类型,填入相应的值用于连通性校验。数据集连接成功,是数据同步任务成功的前提。
同步任务
同步任务,是用户使用数据集成服务的最小单元。每一个同步任务需要用户配置数据源端、数据目标端以及相应的同步策略(如脏数据的处理等)。
工作流
工作流以图形化设计任务的方式实现对数据的处理和相互依赖。
开始实战
一、准备测试数据源
首先创建模拟数据环境。本例采用京东云的RDS MySQL 8.0数据库服务作为数据源,创建时可指定数据库名字为Testdb。数据库创建完成后要开启外网访问,数据工厂可以通过公网IP或域名对数据库进行访问,详细域名可以在数据库的详情页中找到。
创建MySQL数据库可以通过图形界面按提示填写必要信息开通,这里不赘述。需要提醒的是数据库开通后默认不允许外网访问,要点击开启外网访问,并记住默认端口3306。
对MySQL访问可以通过图形界面访问或通过客户端访问。当然也可以通过其他支持MySQL的图形化客户端进行访问。
本例使用CentOS 系统作为客户端访问,如未安装客户端可以使用Yum命令安装 MySQL。顺利安装可以看到如下提示。
1[[email protected]?~]#?yum?install?mysql 2Loaded?plugins:?fastestmirror,?langpacks 3Loading?mirror?speeds?from?cached?hostfile 4base????????????????????????????????|?3.6?kB?????00:00????? 5epel????????????????????????????????|?4.7?kB?????00:00????? 6extras??????????????????????????????|?3.4?kB?????00:00????? 7updates?????????????????????????????|?3.4?kB?????00:00????? 8(1/2):?epel/x86_64/updateinfo?????????|?986?kB???00:00????? 9(2/2):?epel/x86_64/primary_db?????????|?6.7?MB???00:00????? 10Resolving?Dependencies 11-->?Running?transaction?check 12--->?Package?mariadb.x86_64?1:5.5.60-1.el7_5?will?be?installed 13-->?Processing?Dependency:?mariadb-libs(x86-64)?=?1:5.5.60-1.el7_5?for?package:?1:mariadb-5.5.60-1.el7_5.x86_64 14-->?Running?transaction?check 15--->?Package?mariadb-libs.x86_64?1:5.5.56-2.el7?will?be?updated 16--->?Package?mariadb-libs.x86_64?1:5.5.60-1.el7_5?will?be?an?update 17-->?Finished?Dependency?Resolution 18 19Dependencies?Resolved 20 21=========================================================== 22?Package????????Arch?????Version??????????????Repository 23??????????????????????????????????????????????????????Size 24=========================================================== 25Installing: 26?mariadb????????x86_64???1:5.5.60-1.el7_5?????base???8.9?M 27Updating?for?dependencies: 28?mariadb-libs???x86_64???1:5.5.60-1.el7_5?????base???758?k 29 30Transaction?Summary 31=========================================================== 32Install??1?Package 33Upgrade?????????????(?1?Dependent?package) 34 35Total?download?size:?9.6?M 36Is?this?ok?[y/d/N]:?y 37Downloading?packages: 38Delta?RPMs?disabled?because?/usr/bin/applydeltarpm?not?installed. 39(1/2):?mariadb-libs-5.5.60-1.el7_5.x8?|?758?kB???00:00????? 40(2/2):?mariadb-5.5.60-1.el7_5.x86_64.?|?8.9?MB???00:00????? 41----------------------------------------------------------- 42Total??????????????????????????11?MB/s?|?9.6?MB??00:00????? 43Running?transaction?check 44Running?transaction?test 45Transaction?test?succeeded 46Running?transaction 47??Updating???:?1:mariadb-libs-5.5.60-1.el7_5.x86_64????1/3? 48??Installing?:?1:mariadb-5.5.60-1.el7_5.x86_64?????????2/3? 49??Cleanup????:?1:mariadb-libs-5.5.56-2.el7.x86_64??????3/3? 50??Verifying??:?1:mariadb-libs-5.5.60-1.el7_5.x86_64????1/3? 51??Verifying??:?1:mariadb-5.5.60-1.el7_5.x86_64?????????2/3? 52??Verifying??:?1:mariadb-libs-5.5.56-2.el7.x86_64??????3/3? 53 54Installed: 55??mariadb.x86_64?1:5.5.60-1.el7_5?????????????????????????? 56 57Dependency?Updated: 58??mariadb-libs.x86_64?1:5.5.60-1.el7_5????????????????????? 59 60Complete!
安装后执行MySQL命令,测试一下是否可以链接数据库,客户端访问命令格式是MySQL?-h主机地址 -u用户名 -p用户密码
主机地址使用MySQL数据库的外部域名。从连接数据库到创建表单的详细执行过程如下:
1、验证是否可以正常连接数据库
1[[email protected]?~]#?mysql?-h?mysql-cn-north-1-aed0e558da5e4877.public.jcloud.com?-P3306?-umysqlxxx?–pPasswordxxx
如可以正常连接,可以新开一个窗口创建SQL脚本用于数据库的创建和测试数据插入操作,也可以提前制作好并上传到客户端。
创建数据表格,创建一个测试数据库和测试表便于测试。选择合适目录创建SQL脚本文件,可以用vi ctable.sql
?创建,也可以用其他文本编辑工具制作,脚本内容如下:
1[[email protected]?~]#?cat?ctable.sql? 2USE?testdb; 3DROP?TABLE?IF?EXISTS?`sqltest`; 4CREATE?TABLE?`sqltest`?( 5????`id`?int(10)?unsigned?NOT?NULL?AUTO_INCREMENT, 6????`user_id`?varchar(20)?NOT?NULL?DEFAULT?‘‘, 7????`vote_num`?int(10)?unsigned?NOT?NULL?DEFAULT?‘0‘, 8????`group_id`?int(10)?unsigned?NOT?NULL?DEFAULT?‘0‘, 9????`status`?tinyint(2)?unsigned?NOT?NULL?DEFAULT?‘1‘, 10????`create_time`?datetime?NOT?NULL?DEFAULT?‘0000-00-00?00:00:00‘, 11????PRIMARY?KEY?(`id`), 12????KEY?`index_user_id`?(`user_id`)?USING?HASH 13)?ENGINE=InnoDB?AUTO_INCREMENT=1?DEFAULT?CHARSET=utf8;
2、创建临时数据产生脚本文件,vi adddb.sql
1[[email protected]?~]#?cat?adddb.sql 2DELIMITER?// -- 修改MySQL delimiter:‘//‘ 3DROP?FUNCTION?IF?EXISTS?`rand_string`?// 4SET?NAMES?utf8?// 5CREATE?FUNCTION?`rand_string`?(n?INT)?RETURNS?VARCHAR(255)?CHARSET?‘utf8‘ 6BEGIN? 7????DECLARE?char_str?varchar(100)?DEFAULT?‘abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ0123456789‘; 8????DECLARE?return_str?varchar(255)?DEFAULT?‘‘; 9????DECLARE?i?INT?DEFAULT?0; 10????WHILE?i?-- 创建插入数据的存储过程
1DROP?PROCEDURE?IF?EXISTS?`adddb`?// 2CREATE?PROCEDURE?`adddb`(IN?n?INT) 3BEGIN 4????DECLARE?i?INT?DEFAULT?1; 5????DECLARE?vote_num?INT?DEFAULT?0; 6????DECLARE?group_id?INT?DEFAULT?0; 7????DECLARE?status?TINYINT?DEFAULT?1; 8????WHILE?i?-- 改回默认的?
MySQL delimiter:‘;‘
3、登陆数据库执行ctable.sql和adddb.sql脚本
执行命令:
1MySQL?[testdb]>?source?/root/ctable.sql; 2MySQL?[testdb]>?source?/root/adddb.sql;增加100条数据
1MySQL?[testdb]>?call?adddb(100);通过调整adddb(要增加数字)参数的数字,也可以增加1000条如adddb(1000)。
至此我们有了数据源的测试环境,接下来可以开始利用数据工厂进行数据同步。
二、利用数据工厂进行源数据采集
选择大数据与分析的数据工厂菜单。在连接管理中添加连接,如下:
建立连接时建议点击连接测试按钮先进行测试数据库连接,不能连接时请检查域名、端口、用户名密码是否正确,数据库是否允许外网访问。
建立好数据库连接后,就可以进行数据同步工作了。数据同步工作可以在数据同步中单独建立任务设置,也可以在工作流中通过数据集成选项进行设置。数据集成设置后会自动生成数据同步任务。
调度策略可以选择手工执行、周期调度和单次运行三种模式,也可以直接选择单次运行。
执行完毕后在数据计算服务中就同步产生了数据。
上述操作可以用工作流的形式实现,衔接更为复杂的Spark计算脚本。
成功执行后可以在运维中心查看执行情况,在实例列表中的画图试布中看到执行节点变为绿色。
通过以上建立数据同步任务和工作流两种形式都能实现数据源的数据获取,数据获取后就可以直接使用大数据服务进行数据处理了。在大数据与分析菜单下选择数据计算服务管理。默认用自己用户名/PIN(本例用户名是jdc-14)为实例名,建立了Default HIVE INSTANCE。
数据的库表管理下可以看到刚刚新建的库MySQLdb和表SQLTest,点击进入SQLTest表名可以看到更详细的表信息如图。
可以基于获取的大数据信息在数据计算服务中进行任务开发,任务开发可以使用SQL或开发脚本对数据进行计算。
三、DCS大数据导出
可以利用这个能力把数据工厂当作简单DTS工具,把数据传给目的数据库。本例在京东云建立一个MySQL目的数据库,把SQLTest同步给目的数据库,实现两个数据库的数据同步。
准备好或新建立目的MySQL数据库?
destmysqldb
,将数据计算服务的MySQLdb同步给目的数据库destmysqldb
。在数据工厂菜单下,选择连接管理,新建到
destmysqldb
的连接。新建同步任务,将数据计算服务的数据同步给
destmysqldb
数据库,任务名称synctodest。选择数据源端要选择大数据的数据计算服务,数据库名为mysqldb数据表名为sqltest,表的数据可以预览,避免出错。在传输数据前要在数据库中事先建立空表结构,执行文章开头的
ctable.sql
建立表SQLTest,数据插入时要选择目的表名。执行完毕后可以在destmysqldb中确认结果,通过select count(*) from sqltest 可以确认数据已经成功导入。
可以确认利用数据工厂作为简单DTS工具进行源数据库数据同步到目的数据库,实战成功!
以上是关于干货 | 快速实现数据导入及简单DCS的实现的主要内容,如果未能解决你的问题,请参考以下文章