第十课——cluster故障转移操作,codis部署

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了第十课——cluster故障转移操作,codis部署相关的知识,希望对你有一定的参考价值。

作业描述】
1.cluster的故障转移操作,截图展示
2.部署codis,并写代码访问codis
==================================================
 
一、系统环境
技术分享

二、cluster集群的故障转移
##集群的故障转移前提是集群复制,复制原理和单节点的主从复制一样。
##从节点也要运行在集群模式下,通过cluster meet命令将从节点添加到集群环境;
##在即将成为从节点的节点命令行执行cluster replicate <node-id>命令,即将此节点设置为<node-id>对应的从节点
 
1、需求描述:当前redis集群有redis6379、redis7379、redis8379三个主节点,现要对redis6379添加一个从节点redis9379
操作如下:
(1)redis9379节点以集群模式启动;
技术分享
(2)将redis9379添加到集群:
技术分享
(3)将redis9379节点设置为redis6379的从节点:
##进入redis9379节点命令行,执行cluster replicate <node-id>,<node-id>为redis6379节点的节点ID
通过redis-trib.rb check命令查看集群状态:
技术分享
将redis9379节点设置为redis6379的从节点:
技术分享
或者通过redis-trib.rb chek命令查看:
技术分享
(3)模拟故障,观察故障转移是否成功:
将redis6379进程杀掉,观看集群状态信息:
技术分享
redi-trib.rb check命令,连接集群里任意个节点,集群状态信息如下:
第一次查看:
技术分享
第二次查看:
技术分享
###至此,集群故障转移模拟完成!
===========================================================================
 
 
三、codis安装部署(单机版本)
 
Codis 是一个分布式 Redis 解决方案, 对于上层的应用来说, 连接到 Codis Proxy 和连接原生的 Redis Server 没有明显的区别 (不支持的命令列表), 上层应用可以像使用单机的 Redis 一样使用, Codis 底层会处理请求的转发, 不停机的数据迁移等工作, 所有后边的一切事情, 对于前面的客户端来说是透明的, 可以简单的认为后边连接的是一个内存无限大的 Redis 服务
【Codis 由四部分组成】
Codis Proxy (codis-proxy)
Codis Manager (codis-config)
Codis Redis (codis-server)
ZooKeeper
(1)codis-proxy 是客户端连接的 Redis 代理服务, codis-proxy 本身实现了 Redis 协议, 表现得和一个原生的 Redis 没什么区别 (就像 Twemproxy), 对于一个业务来说, 可以部署多个 codis-proxy, codis-proxy 本身是无状态的
(2)codis-config 是 Codis 的管理工具, 支持包括, 添加/删除 Redis 节点, 添加/删除 Proxy 节点, 发起数据迁移等操作. codis-config 本身还自带了一个 http server, 会启动一个 dashboard,用户可以直接在浏览器上观察 Codis 集群的运行状态。
(3)codis-server 是 Codis 项目维护的一个 Redis 分支, 基于 2.8.13 开发(因此redis3.0以后的新特性,codis没有), 加入了 slot 的支持和原子的数据迁移指令。Codis 上层的 codis-proxy 和 codis-config 只能和这个版本的 Redis 交互才能正常运行。
(4)Codis 依赖 ZooKeeper 来存放数据路由表和 codis-proxy 节点的元信息, codis-config 发起的命令都会通过 ZooKeeper 同步到各个存活的 codis-proxy。
##Codis 支持按照 Namespace 区分不同的产品, 拥有不同的 product name 的产品, 各项配置都不会冲突。
技术分享
技术分享

------------------------------------------------------------------------------------------------------------------------------------------
 

 

以下是codis的安装部署过程(单机版本go+)
【说明】

codis下载地址:https://github.com/CodisLabs/codis

go下载地址: https://storage.googleapis.com/golang/go1.4.linux-amd64.tar.gz

-----------------------------------------------------------------------------------------------------

【安装go环境】

1、下载地址:https://storage.googleapis.com/golang/go1.4.linux-amd64.tar.gz

wget  https://storage.googleapis.com/golang/go1.4.linux-amd64.tar.gz

tar xvf go1.4.1.linux-amd64.tar.gz

2、配置环境变量

export GOROOT=/httx/run/go

export GOPATH=/httx/run/codis

export PATH=$PATH:$GOROOT/bin:$GOPATH/bin

技术分享

GOROOT参数定义的值是go解压的目录,go解压配置环境变量就行,不应安装;

GOPATH参数定义的值是go环境的扩展包目录,所有go环境公用,这里指的是codis;

注意!命令行export,是会话级别的,为了永久有效,可以在/etc/profile文件添加以上环境变量!

技术分享

技术分享

技术分享

 

【安装依赖环境】

 

yum groupinstall "Development Tools"

 

【安装zookeeper

  1. 下载地址:http://www.apache.org/dyn/closer.cgi/zookeeper/

tar xvf zookeeper-3.3.6.tar.gz

  1. 配置zookeeper的环境变量

技术分享

##Zookeeperjava语言开发的,所以系统里也必须有java环境,JDK的安装这里忽略

  1. 启动zookeeper服务

cd /httx/run/zookeeper-3.3.6/bin

./zkServer.sh start

 

【安装codis

1、执行go get –u –d github.com/CodisLabs/codis命令下载codis代码:

有如下报错:

技术分享

解决:在线安装git命令,yum install git

2、切换到/httx/run/codis/src/github.com/CodisLabs/codis目录下,执行make命令编译代码:

技术分享

3、执行make gotest来跑测试:

技术分享

4、编译完成后,在bin目录下生成codis-configcodis-proxycodis-server三个可执行文件:

技术分享

##到此编译结束!

5、codis的配置
(1)默认配置文件是config.ini文件,在/httx/run/codis/src/github.com/CodisLabs/codis安装目录下,可以通过参数-c指定配置文件;

技术分享

zk=10.7.12.98:2181

product=codis

dashboard_addr=10.7.12.98:18087

##也可以将config.ini配置文件放到/etc/下,便于统一管理

(2)启动管理控制台:启动dashboard,在后面追加&表示后台启动

cd /httx/run/codis/src/github.com/CodisLabs/codis/bin/

./codis-config -c ../config.ini dashboard &

技术分享

技术分享

以上表示启动codis的管理端口启动成功!

可以通过IP:端口方式访问管理端口!

###期间有报错:Failed to connect to 10.7.12.98:2181: dial tcp 10.7.12.98:2181: connection refused,是因为zookeeper服务器没启动成功,重启zookeeper服务即可!

###期间有报错[error]: dashboard already exists: {"addr": "10.7.12.98:18087", "pid": 5828}需要到zookeeper里面清理这个节点:

 

技术分享

 

 

无论是proxy还是dashboard,都会在zk上注册自己的节点,同时在程序正常退出的时候会删掉对应的节点,但如果异常退出或试用kill -9 {pid}就会导致zk的节点无法删除,在下一次启动的时候会报“zk: node already exists”的错误。

因此关闭服务的时候直接用kill {pid}不要-9,同时如果无法启动并且确认没有其他运行中的进程占用zk上的节点,可以在zk上手动删除未啊删除干净的codis节点:/zk/codis/db_codis/dashoard,这个目录可以在codis的管理控制台dashboard启动成功时输出信息看到!

创建zk节点的目的: zk节点的目的是防止起两个dashboard

 

 

【解决如下:】

 

进入zk客户端,手动删除

cd /httx/run/zookeeper-3.3.6/bin/

./zkCli.sh     ##进入zk客户端

delete /zk/codis/db_codis/dashboard

 

技术分享

 

 

可以从浏览器打开http://192.168.16.239:18087/admin/

 

技术分享

 

 

(3)初始化slots

./codis-config  -c ../config.ini  slot init

技术分享

(4)启动codis-server服务

##redis-2.8.21是codis依赖的第三方软件版,在前面go环境的搭建部署时已经指定/usr/local/codis/目录,redis-2.8.21包就下载到此目录下,可以其配置文件配置到/etc目录下统一管理,如下:

mkdir /etc/codis

cd /usr/local/codis/codis-master/extern/redis-2.8.21

cp redis.conf /etc/codis/6379.conf

cp redis.conf /etc/codis/7379.conf

cp redis.conf /etc/codis/8379.conf

cp redis.conf /etc/codis/9379.conf

并修改各个配置文件的端口分别为6379、7379、8379、9379端口

 

技术分享
接下来启动codis-server

 

cd /httx/run/codis/src/github.com/CodisLabs/codis/bin

./codis-server /etc/codis/6379.conf

./codis-server /etc/codis/7379.conf

./codis-server /etc/codis/8379.conf

./codis-server /etc/codis/9379.conf

##codis-server的启动方式和单机redis启动方式一样

 

技术分享

 

 

(5)添加server group(命令行添加或者通过dashboard界面2种方式添加组)

可以通过命令codis-config server添加或者通过dashboard添加;

每个server group作为一个redis服务器存在,只允许有一个master,可以有多个slavegroup id仅支持大于等于1个整数;

技术分享

 需求:新增2组构成codis集群环境,其中group_1的成员redis实例是redis6379、redis7379;group_2的成员redis实例是redis8379、redis9379;小组内的2个成员一主一从;

——4.1 进入http://192.168.16.239:18087/admin/,通过管理界面配置group_1和group_2,如下:

技术分享

 

——4.2 添加codis组内成员

 

技术分享
 配置好如下:
技术分享
 

 

##需要注意,选择其他成员为新master,老的master就会offline
 
(6)slots槽位分配(命令行添加或者通过dashboard界面2种方式添加组)
需求:对codis集群做槽位分片,也就是将1024个槽位分配给group_1组和group_2组,1024个槽必须全部分配完。做槽位分配,如下:
##注意,redis集群的槽位默认是16384个虚拟节点;codis的槽位是默认1024个,只对组为单位做槽位分配
技术分享
技术分享
解决如下:
技术分享
或者./codis-config -c ../config.ini slot init -f,带上-f参数表示强制重新初始化!
 
###Migrate Status部分是逻辑迁移,也就是缓存迁移,做槽位重分配
###逻辑方式重新配置槽位,有报错:[WARN] rollback premigrate failedSome proxies may not stop cleanly: 10.7.12.98:11000,这个是因为在槽位迁移过程中,codis-proxy没有关闭,将dashboard上Proxy Status改为offline即可,停止proxy也即是停止外部读redis的访问,才能正确做槽位重新分配;
 
6、启动codis-proxy代理
技术分享
./codis-proxy -c ../config.ini -L /httx/logs/codis-proxy.log  --cpu=4 --addr=10.7.12.98:11000 &
有如下报错:
技术分享
解决:
是因为前一步骤没有将1024个槽位指定完,将剩余的尚未指定的槽位再次指定给group_1组
技术分享
 
7、登录客户端测试,连接codis-proxy的IP和端口,如下:
技术分享
技术分享
技术分享

8、测试codis-server的高可用
——8.1 当前group_2组的主节点是redis8379:
技术分享
 
——8.2 将redis8379进程杀死,观察变化:
技术分享
技术分享
技术分享
9、实现codi-server的高可用——
 
 
 
 





以上是关于第十课——cluster故障转移操作,codis部署的主要内容,如果未能解决你的问题,请参考以下文章

Python学习第十课——文件的基本操作

Django 第十课 4.ORM查询操作

Redis哨兵和cluster集群

MySQL Cluster SQL 节点故障转移

第十课 实模式到保护模式 上

第十课初探Qt的消息处理