如何将自建库迁移到阿里云RDS
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何将自建库迁移到阿里云RDS相关的知识,希望对你有一定的参考价值。
参考技术A前提条件
已完成 RDS 实例数据库的准备,可参见申请外网地址和 mysql 5.7高可用版/5.5/5.6创建数据库和账号。
操作步骤
本例以有公网 IP 的本地数据库迁移到 RDS 上为例。
准备本地数据
在正式迁移之前,需要先在本地数据库和 RDS 实例中创建迁移账号,并在 RDS 实例中创建要迁移的数据库,并将要迁移的数据库的读写权限授权给迁移账号。不同的迁移类型需要不同的权限,如下表所示。
迁移类型
结构迁移
全量迁移
增量迁移
本地数据库 select select select replication slave replication client
RDS 实例 读写权限 读写权限 读写权限
在本地数据库中创建迁移账号。
CREATE USER 'username'@'host' IDENTIFIED BY 'password';参数说明:
例:要创建账号为 William,密码为 Changme123 的账号从任意主机登录本地数据库,命令如下:
CREATE USER 'William'@'%' IDENTIFIED BY 'Changme123';username:要创建的账号
host:指定该账号登录数据库的主机。如果是本地用户可以使用 localhost,如果想让该用户从任意主机登录,可以使用通配符 %
password:该账号的登录密码
在本地数据库中给迁移账号授权,本地数据库中迁移账号的权限要求请参见上表。
GRANT privileges ON databasename.tablename TO 'username'@'host' WITH GRANT OPTION;参数说明:
例:授权账号 William 对所有数据库和表的所有权限,并可以从任意主机登录本地数据库,命令如下:
GRANT ALL ON *.* TO 'William'@'%';说明
如果需要进行增量迁移,那么需要确认本地数据库的 binlog 是否开启并正确设置,执行以下步骤。
privileges:该账号的操作权限,如 SELECT、INSERT、UPDATE 等。如果要授权该账号所有权限,则使用 ALL
databasename:数据库名。如果要授权该账号所有的数据库权限,则使用通配符 *
tablename:表名。如果要授权该账号所有的表权限,则使用通配符 *
username:要授权的账号名
host:授权登录数据库的主机名。如果是本地用户可以使用 localhost,如果想让该用户从任意主机登录,可以使用通配符 %
WITH GRANT OPTION:授权该账号能使用GRANT命令,该参数为可选
开启本地数据库的 binlog。
使用如下命令查询是否开启了binlog。
show global variables like "log_bin";如果查询结果为 log_bin=OFF,那么本地数据库没有开启 binlog。为了使迁移过程中产生的增量数据能同步迁移,需要修改配置文件 my.cnf 中的如下参数。
log_bin=mysql_binbinlog_format=rowserver_id=大于 1 的整数binlog_row_image=full //当本地 MySQL 版本大于 5.6 时,则需设置该项修改完成后,重启 MySQL 进程。
$mysql_dir/bin/mysqladmin -u root -p shutdown$mysql_dir/bin/safe_mysqld &其中,“mysql_dir”为MySQL安装目录。
正式迁移操作数据准备完毕后,即可进入正式的迁移操作。
在 RDS 管理控制台 上单击迁移数据库,进入 DTS,如下图所示。
单击 创建在线迁移任务,进入 创建迁移任务 页面,如下图所示。
输入任务名称、本地数据库信息和目标数据库信息,单击 授权白名单并进入下一步,如下图所示。
实例类型:默认为 RDS 实例
RDS 实例 ID:目标 RDS 实例的 ID。点击下拉菜单将自动联想当前登录 RDS 管理控制台 的账号的 RDS 实例,点击选择所需要的实例
账号:目标 RDS 数据库的迁移账号
密码:目标 RDS 数据库迁移账号对应的密码
实例类型:本地数据库的实例类型,可以选择有公网IP的自建数据库、ECS上的自建数据库、RDS实例、云数据库MongoDB
数据库类型:本地数据库的类型,可以选择 Oracle、MySQL、SQLServer、PostgreSQL、MongoDB
主机名或 IP 地址:本地数据库的公网地址
端口:本地数据库的公网端口
账号:本地数据库的迁移账号
密码:本地数据库迁移账号对应的密码
任务名称:自定义任务名称,可以保持默认值
源库信息
目标库信息
择迁移类型,并在 迁移对象 中选择要迁移的对象,单击 > 将要迁移的对象放入已选择中,单击 预检查并启动,如下图所示。
说明
数据迁移只会将本地数据库的数据(结构)复制一份到目标数据库,并不会对本地数据库数据(结构)造成影响。
如果要修改迁移对象在目标数据库上的名字,可以在 已选择 列表右侧单击 编辑,修改已选择的对象名称,如上图4所示。
说明
以下以预检查不通过为例进行描述,如果预检查通过,请直接参见步骤 8。
系统显示预检查结果,如下图所示。
单击检测结果 为失败的检测项后的 !,查看失败详细信息,根据失败详细信息完成错误排查。
错误排查完毕后,在 迁移任务列表页面,选择当前迁移任务,单击 启动,如下图所示。
系统预检查通过后,单击确定,自动进行迁移任务,如下图所示。
后续操作
因迁移账号拥有读写权限,为了保证本地数据库安全,请在数据迁移完成后,删除本地数据库和 RDS 实例中的迁移账号
阿里云RDS与ECS自建库搭建主从复制
前言
最近尝试在阿里云RDS与ECS自建库之间搭建主从复制,主要是想用于备份数据,所以对于同步一致性要求不是很高.模拟了几次,遇到的一些坑记录在这里,使用的是基于GTID的主从服务,关于GTID:
MySQL GTID是在传统的mysql主从复制的基础之上演化而来的产物,即通过UUID加上事务ID的方式来确保每一个事物的唯一性。这样的操作方式使得我们不再需要关心所谓的log_file和log_Pos,只是简单的告诉从库,从哪个服务器上去找主库就OK了。简化了主从的搭建以及failover的过程,同时比传统的复制更加安全可靠。由于GTID是连续没有空洞的,因此主从库出现数据冲突时,可以通过注入空事物的方式进行跳过
具体过程如下:
1 准备工作,申请阿里云RDS
a 登录 RDS 控制台,选择目标实例。
b 配置从实例读取数据使用的只读账号和授权数据库。
c 将从实例的 IP 地址加入主实例的 IP 白名单中 [同一地域 则可以内网IP]
d 登录主实例 [如果外部无法登录 白名单添加0.0.0.0/0][或者提工单]
e 查询主实例的 server-id [show variables like ‘%server_id%‘;] # 记下这个id,不能与slave的相同
2 配置从实例 (slave)
需要先安装mysql5.6以上
https://segmentfault.com/n/1330000014166676#articleHeader8
--$ systemctl stop mysqld
--$ vim /etc/my.cnf
[mysqld]
server-id=1629281463 # 从实例的id,不能与master的id相同
port=3306
log-bin-trust-function-creators=1 # 设置为1,MySQL不会对创建存储函数实施限制
slave-skip-errors = 1032,1062,1007,1050 #
datadir=/var/lib/mysql
socket=/var/lib/mysql/mysql.sock
log-bin=/var/lib/mysql/mysql-bin
expire_logs_days=10 # 控制binlog日志文件保留时间
max_binlog_size=100M
replicate-ignore-db=mysql # 不需要同步的库
replicate-ignore-db=information_schema
replicate-ignore-db=performance_schema
#GTID
gtid_mode=on
enforce_gtid_consistency=on
binlog_format=row # 设置日志格式为row
log-slave-updates=1
# Disabling symbolic-links is recommended to prevent assorted security risks
symbolic-links=0
# Recommended in standard MySQL setup
sql_mode=NO_ENGINE_SUBSTITUTION,STRICT_TRANS_TABLES
[mysqld_safe]
log-error=/var/log/mysqld.log
pid-file=/var/run/mysqld/mysqld.pid
--$ systemctl start mysqld
3 查看是否开启了binlog,及使用的日志格式
>>> show variables like ‘%binlog_format%‘;
1. Row
日志中会记录成每一行数据被修改的形式,然后在 slave 端再对相同的数据进行修改。
2. Statement
每一条会修改数据的 SQL 都会记录到 master 的 bin-log 中。slave 在复制的时候 SQL 进程会解析成和原来 master 端执行过的相同的 SQL 再次执行
4 将主实例数据全量同步到从实例 (最好下载RDS控制台的备份数据,不要mysqldump),详见恢复云数据库MySQL的备份文件到自建数据库
# GRANT ALL PRIVILEGES ON *.* TO ‘test‘@‘%‘IDENTIFIED BY ‘passwd‘ WITH GRANT OPTION;
# CREATE DATABASE sakila DEFAULT CHARACTER SET utf8 COLLATE utf8_general_ci;
# mysqldump -uname -hmasterhost.mysql.rds.aliyuncs.com -p --databases exampledb > exampledb.sql
# mysqldump -uname -p < exampledb.sql
5 登录从实例(slave),设置同步选项
>>> stop slave
# 注意!!! 当使用 MASTER_AUTO_POSITION 参数的时候,MASTER_LOG_FILE,MASTER_LOG_POS参数不能使用
>>> stop slave;
>>> change master to master_host=‘yourhost‘, master_port=3306, master_user=‘xxx‘, master_password=‘yyy‘,master_auto_position = 1;
>>> start slave
6 检查同步结果
>>> show slave statusG;
查看系统返回信息中 Slave_IO_Running 和 Slave_SQL_Running 的状态是否为 Yes
7 测试主从同步
在主库上执行UPDATE INSERT等操作,然后在从库上查看是否同步了过来.我测试了几次,同步没出现什么问题,可能是由于数据量比较小.
遇到的问题
ERROR 1776 (HY000): Parameters MASTER_LOG_FILE, MASTER_LOG_POS, RELAY_LOG_FILE and RELAY_LOG_POS cannot be set when MASTER_AUTO_POSITION is active.
当使用 MASTER_AUTO_POSITION 参数的时候,MASTER_LOG_FILE,MASTER_LOG_POS参数不能使用
Last_SQL_Errno: 1007
Last_SQL_Error: Error ‘Can‘t create database ‘abu‘; database exists‘ on query. Default database:
解决方法:在从库的/etc/my.cnf里添加如下代码
[mysqld]
slave-skip-errors = 1032,1062,1007,1050
使用change master to master_host = ‘xxx‘, master_port = xxx, master_user = ‘xxx‘, master_password=‘xxx‘, master_auto_position = 12866271;
时报错:
Last_IO_Errno: 1236
Last_IO_Error: Got fatal error 1236 from master when reading data from binary log: ‘The slave is connecting using CHANGE MASTER TO MASTER_AUTO_POSITION = 1, but the master has purged binary logs containing GTIDs that the slave requires.‘
解决:
这个应该是由于你在主库上执行过purge binary logs,然后当从库change master的时候,却要执行那些事务。
你可以在主库上先查找哪些gtid被purge了。
show global variables like ‘gtid_purged‘;
然后拿着这个value,去从库上依次
stop slave;
reset mater;
set global gtid_purged = ‘xxx‘; # xxx是你主库上查到的value。
start slave;
这样能跳过执行被主库已经purge的事务了。
同步检测脚本
为了知道主从的同步情况,自己写了个脚本,查询主从数据库某些表的行数,以及数据大小,最近产生的数据比对。
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Author : Lyon Walker
# @Time : 18/08/11 9:54
import pymysql
import contextlib
import time
from functools import wraps
sql = ‘SELECT COUNT(1) tbl_chargingorder from t1;‘
sql2 = ‘SELECT COUNT(1) tbl_chargingrecord from t1;‘
sql3 = ‘SELECT COUNT(1) tbl_purchasehistory from t3;‘
sql4 = "select concat(round((sum(DATA_LENGTH)+SUM(INDEX_LENGTH))/1024/1024/1024,2),‘G‘) size from information_schema.tables where table_schema=‘dbname‘;"
# 这里用于计算执行sql的时间
def fn_timer(function):
@wraps(function)
def function_timer(*args, **kwargs):
t0 = time.time()
result = function(*args, **kwargs)
t1 = time.time()
t = float(‘%.2f‘ % (t1-t0))
return t, result
return function_timer
class MysqlClient:
def __init__(self, host, port, user, passwd, db):
self.host = host
self.port = port
self.user = user
self.passwd = passwd
self.db = db
@contextlib.contextmanager
def mysql(self):
conn = pymysql.connect(host=self.host,
port=self.port,
user=self.user,
passwd=self.passwd,
db=self.db)
cursor = conn.cursor(cursor=pymysql.cursors.DictCursor)
try:
yield cursor
finally:
conn.commit()
cursor.close()
conn.close()
@fn_timer
def exec_sql(self, sql):
with self.mysql() as cursor:
cursor.execute(sql)
res = cursor.fetchall()
return res
my_m = MysqlClient(‘10.9.2.100‘, 3306, ‘root‘, ‘xxx‘, ‘dbname‘)
row_m1 = my_m.exec_sql(sql)
row2_m2 = my_m.exec_sql(sql2)
row3_m3 = my_m.exec_sql(sql3)
row4_m4 = my_m.exec_sql(sql4)
my_s = MysqlClient(‘10.9.2.101‘, 3306, ‘root‘, ‘xxx‘, ‘dbname‘)
row_s1 = my_s.exec_sql(sql)
row2_s2 = my_s.exec_sql(sql2)
row3_s3 = my_s.exec_sql(sql3)
row4_s4 = my_s.exec_sql(sql4)
print(row_m1 + row_m2 + row_m3 + row_m4)
print(row_s1 + row_s2 + row_s3 + row_s4)
测试了一下,结果令人失望,行数不一致,数据大小也不一致,只是最近产生的数据是同步一致的,查看slave状态也很正常,到这里经提醒看看是不是备份数据的时候出了岔子,去RDS控制台看了下,阿里云是有备份的(采用的是物理备份),根据阿里云提供的备份恢复文档恢复云数据库MySQL的备份文件到自建数据库
- 下载阿里云控制台备份的数据
-
安装Percona-XtraBackup
cd /usr/local/src/ wget https://www.percona.com/downloads/XtraBackup/Percona-XtraBackup-2.4.12/source/tarball/percona-xtrabackup-2.4.12.tar.gz yum install cmake gcc gcc-c++ libaio libaio-devel automake autoconf bison libtool ncurses-devel libgcrypt-devel libev-devel libcurl-devel cmake -DBUILD_CONFIG=xtrabackup_release -DWITH_MAN_PAGES=OFF && make -j4
-
cmake报错
CMake Error at cmake/boost.cmake:81 (MESSAGE): You can download it with -DDOWNLOAD_BOOST
-
下载boost 重新cmake
mkdir -p /usr/local/boost cd /usr/local/boost wget http://www.sourceforge.net/projects/boost/files/boost/1.59.0/boost_1_59_0.tar.gz tar zxvf boost_1_59_0.tar.gz cd /usr/local/src/ cmake -DBUILD_CONFIG=xtrabackup_release -DWITH_MAN_PAGES=OFF -DDOWNLOAD_BOOST=1 -DWITH_BOOST=/usr/local/boost && make -j4 make install ln -s /usr/local/xtrabackup/bin/innobackupex /usr/bin/innobackupex
- 删除之前的库以及一些其他的信息(/var/lib/mysql下),删除之前的主从信息。
use mysql;
drop table if exists innodb_index_stats;drop table if exists innodb_table_stats;drop table if exists slave_master_info;drop table if exists slave_relay_log_info;drop table if exists slave_worker_info;
-
执行脚本导入
./rds_backup_extract.sh -f hins2950629_data_20180813031740.tar -C /var/lib/mysql innobackupex --defaults-file=/var/lib/mysql/backup-my.cnf --apply-log /var/lib/mysql vi /home/mysql/data/backup-my.cnf 注释掉 保存 #innodb_fast_checksum #innodb_page_size #innodb_log_block_size chown -R mysql:mysql /home/mysql/data systemctl restart mysql mysql -uroot # 登录 delete from mysql.db where user<>’root’ and char_length(user)>0;delete from mysql.tables_priv where user<>’root’ and char_length(user)>0;flush privileges; # 新建用户前,执行这条命令 # 设置root密码 use mysql; UPDATE user SET Password = PASSWORD(‘newpass‘) WHERE user = ‘root‘; GRANT ALL PRIVILEGES ON *.* TO ‘root‘@‘%‘IDENTIFIED BY ‘newpass‘ WITH GRANT OPTION; FLUSH PRIVILEGES;
- 重新设置主从
- 过程中还有很多其他小错误,这里就不一一赘述了
参考文章
http://www.cnblogs.com/kevingrace/p/6256603.html
以上是关于如何将自建库迁移到阿里云RDS的主要内容,如果未能解决你的问题,请参考以下文章