1、修改yum源:
1、安装yum源:
sudo yum install -y https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm
2、新建/etc/yum.repos.d/ceph.repo文件:
[ceph-noarch] name=Ceph noarch packages baseurl=https://download.ceph.com/rpm/el7/noarch enabled=1 gpgcheck=1 type=rpm-md gpgkey=https://download.ceph.com/keys/release.asc
3、更新及下载:
sudo yum -y update sudo yum -y install ceph-deploy
4、修改hosts文件:
192.168.78.101 node1
192.168.78.102 node2
192.168.78.103 node3
5、关闭防火墙及selinux:
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
2、安装ceph:
1、创建ceph的用户:
sudo useradd -d /home/cephfs -m cephfs sudo passwd cephfs
echo "cephfs ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/cephfs
sudo chmod 0440 /etc/sudoers.d/cephfs
2、无秘钥认证:
ssh-keygen
ssh-copy-id cephfs@node1
ssh-copy-id cephfs@node2
ssh-copy-id cephfs@node3
3、创建~/.ssh/config 文件:
Host node1 Hostname node1 User cephfs
Host node2
Hostname node2
User cephfs
Host node3
Hostname node3
User cephfs
4、安装:
1、创建集群(ceph-deploy需要在my-cluster目录运行)
mkdir my-cluster cd my-cluster
ceph-deploy new node1
2、安装软件包:
ceph-deploy install node1 node2 node3
2、部署初始监控并收集秘钥:
ceph-deploy mon create-initial
3、使用ceph-deploy
将配置文件和管理密钥复制到您的管理节点和您的Ceph节:
ceph-deploy admin node1 node2 node3
4、添加三个OSD,为了达到这些说明的目的,我们假定在每个节点中都有一个未使用的磁盘/dev/vdb:
ceph-deploy osd create node1:vdb node2:vdb node3:vdb
5、检查节点是否正常
ssh node1 sudo ceph health
ssh node1 sudo ceph -s
3、ceph的使用:
1、创建存储池: ceph osd pool create image 64 2、创建一个镜像,-p参数指定池的名称,-size单位为M rbd create test --size 1024 -p image 3、其他命令: rados lspools 查看池子 ceph -s 或 ceph status 查看集群状态 ceph -w 观察集群健康状态 ceph quorum_status --format json-pretty 检查ceph monitor仲裁状态 ceph df 检查集群使用情况 ceph mon stat 检查monitor状态 ceph osd stat 检查osd状态 ceph pg stat 检查pg配置组状态 ceph pg dump 列出PG ceph osd lspools 列出存储池 ceph osd tree 检查osd的crush map ceph auth list 列出集群的认证密钥 ceph 获取每个osd上pg的数量