RHCS
Posted lyshark
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了RHCS相关的知识,希望对你有一定的参考价值。
**************************************************************************************************
◆案例◆ RHCS搭建高可用分布式文件系统 【注意:RHCS只在RHEL 6 中存在 RHEL 7已经阉割了】
**************************************************************************************************
=====================================================================================
红帽集群套件
CMAN 集群管理工具
RGMANAGER 资源管理工具(启动,停止,集群应用,及实现故障转移)
GFS2 全局文件系统,第二版,提供对文件系统的支持
CLVM 集群逻辑卷,扩展逻辑卷,支持集群
ISCSI 网络存储
实验环境
一台target(加一个硬盘) 192.168.22.191
一台node(节点可扩充) 192.168.22.192
=====================================================================================
****************************************************************************
◆服务端(target)配置◆
****************************************************************************
1.两台主机(target/node)全部在/etc/hosts写入解析记录
192.168.22.191 target.com target
192.168.22.192 node.com node
2.target主机与所有node主机建立互信关系(ssh)
3.node主机也要分别和target建立互信关系
4.hostname target.com
5.安装服务器scsi-target-utils
yum install -y scsi-target-utils
6.写入要共享的分区和认证密码
vim /etc/tgt/targets.conf
<target iqn.2018-00.com.lyshark:master> #配置target名称
<backing-store /dev/sdb> #配置共享磁盘
vendor_id lyshark #配置发行商
lun 8 #配置Lun号
</backing-store>
incominguser lyshark 1233 #认证账号密码
initiator-address 192.168.22.0/24 #允许访问的网段
</target>
#服务器端把磁盘/dev/sdb共享出去,如果客户端要想使用,需要提供用户名和密码,并且网段要在这个区域内
7.启动服务
service tgtd start
chkconfig tgtd on
8.查看共享资源
tgtadm -L iscsi -o show -m target
****************************************************************************
◆客户端(node节点)配置◆
****************************************************************************
hostname=node1.com
1.安装iscsi-initiator-utils
yum install -y iscsi-initiator-utils
2.修改客户端配置文件/etc/iscsi/initiatorname.iscsi,更改客户端的名称
vim /etc/iscsi/initiatorname.iscsi
InitiatorName=iqn.2018-00.com.lyshark:node
3.修改配置文件/etc/iscsi/iscsid.conf,填写认证信息
vim /etc/iscsi/iscsid.conf
node.session.auth.authmethod = CHAP
node.session.auth.username = lyshark
node.session.auth.password = 1233
4.查看本节点上存储服务器的共享存储,并挂载到本机
iscsiadm -m discovery -t sendtargets -p target #解析节点
iscsiadm -m node -T iqn.2018-00.com.lyshark:master --login #挂载节点
iscsiadm -m node -T iqn.2018-00.com.lyshark:master --logout #卸载节点
fdisk -l or ll /dev/sdb #查看节点挂载情况
5.在各节点上安装cman与rgmanager
yum install -y cman rgmanager
6.在各节点上构建集群
ccs_tool create testcluster #创建集群
ccs_tool addfence meatware fence_manual #当节点坏掉选出一个为主
ccs_tool lsfence #查看集群
ccs_tool addnode -n 1 -f meatware node.com #添加管理节点node.com节点
ccs_tool lsfence #再次查看集群
7.启动cman服务
service cman start
如果报错:echo "CMAN_QUORUM_TIMEOUT=0">> /etc/sysconfig/cman 重新启动
8.在各节点上安装clvm服务,并启用集群
[[email protected] ~]# yum install -y lvm2-cluster
启用集群lvm
[[email protected] ~]# lvmconf --enable-cluster
启用clvm服务
[[email protected] ~]# service clvmd start
9.安装gfs2在各节点上,并格式化,挂载使用
[[email protected] ~]# yum install -y gfs2-utils
格式化为集群文件系统
[[email protected]~]# mkfs.gfs2 -j 3 -p lock_dlm -t testcluster:sharestorage /dev/sdb
挂载使用
[[email protected] ~]# mount -t gfs2 /dev/sdb /media/
注意:不论你有多少个节点,全部都要照客户端步骤做下来
以上是关于RHCS的主要内容,如果未能解决你的问题,请参考以下文章