如何手动重启ceph各个节点的服务

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何手动重启ceph各个节点的服务相关的知识,希望对你有一定的参考价值。

用的是centOS几啊,如果是7的话,现在指令改成了systemctl stop ceph-osd.target.
服务文件放在/usr/lib/systemd/system/这个目录下。
参考技术A 试试这款互盾数据恢复软件,它可以用来恢复那些被误删除的文件,只要没有被写入数据覆盖,无论格式化还是删除均可恢复,软件操作简单,双核引擎扫描,速度快且恢复率高;支持多种文件格式的实时预览,所见即所得;能创建一个镜像来保存数据,实现远程数据恢复。支持各类硬盘、闪盘、存储卡(如 SD 卡,MMC 卡等等),支持FAT16,FAT32,NTFS,HFS+ 等文件系统 参考技术B 新手刚学习ceph两个月~目前已经在CentOS服务器上搭好了测试用ceph环境,但是现在无法手动重启各个节点的服务!试了网上介绍的几种方法:

1.sudo /etc/init.d/ceph -a stop无效,因为/etc/init.d/下面根本没有ceph文件,而且这个也是让我很奇怪的地方;

2.sudo stop/start ceph-all无效,提示"start:command not found"

3.service ceph -a stop/start无效,提示“the service command supports only basic LSB action....”

ceph学习笔记之八 CRUSH

CRUSH(Controlled Replication Under Scalable Hashing)

它是一种基于伪随机控制数据分布、复制的算法。

数据分布式算法的要求:

数据分布和负载均衡

首先要让数据分布均匀,使数据能均匀的分布在各个节点和磁盘上。其次是负载均衡,使数据访问(主要是读写操作)的负载在各个节点和磁盘上的负载均衡。

灵活应对集群伸缩

系统可以方便的增加或者删除存储设备(包括节点和设备失效的处理)。当增加、删除存储设备后,能自动的实现数据均衡,并且迁移的数据尽可能的少

支持大规模集群

为了支持大规模的存储集群,要求数据分布算法维护的元数据相对较小,并且计算量不能太大。随着集群规模增加,数据分布算法的开销比较小。

基本原理

   CRUSH算法根据种每个设备的权重尽可能概率平均地分配数据。分布算法是由集群可用存储资源以及其逻辑单元的map控制的。这个map的描述类似于一个大型服务器的描述:服务器由一系列的机柜组成,机柜装满服务器,服务器装满磁盘。数据分配的策略是由定位规则来定义的,定位规则指定了集群中将保存多少个副本,以及数据副本的放置有什么限制。例如:可以指定数据有三个副本,这三个副本必须放置在不同的机柜中,使得三个数据副本不公用一个物理电路。

   给定一个输入x,CRUSH 算法将输出一个确定的有序的储存目标向量。当输入x,CRUSH利用强大的多重整数hash函数根据集群map、定位规则、以及x计算出独立的完全确定可靠的映射关系。CRUSH分配算法是伪随机算法,并且输入的内容和输出的储存位置之间是没有显式相关的。可以说CRUSH 算法在集群设备中生成了“伪集群”的数据副本,集群的设备对一个数据项目共享数据副本,对其他数据项目又是独立的。

本文出自 “無詺IT小站” 博客,谢绝转载!

以上是关于如何手动重启ceph各个节点的服务的主要内容,如果未能解决你的问题,请参考以下文章

ceph 重启宿主机

ceph运维操作及解决问题

如何以自动方式滚动重启mysql ndb集群

centos重启后网络默认关闭,需要手动开启,如何解决?

如何自动重启节点服务器?

重启osd服务失败:Start request repeated too quickly