Openstack 之 正常关闭一个物理宿主机

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Openstack 之 正常关闭一个物理宿主机相关的知识,希望对你有一定的参考价值。

    记录一下今天正常关闭一个物理宿主机的过程。环境是3node HA,控制存储计算融合节点,kolla部署环境,启用ceph存储,关闭其中一台融合节点controller03 。大概过程是先热迁移这个物理机上的虚拟机,然后设置ceph集群osd noout ,使关闭这个节点后ceph的osd数据不会重平衡,避免大的数据震荡,接着在web界面上关闭节点,最后ssh登陆节点关机:

    1.热迁移这个节点的虚拟机。登陆web管理界面,“管理员”->“实例”->选择这个节点中的虚拟机->“热迁移” ->选择其他节点 ,等待迁移成功,并验证;

    2.设置所有ceph节点osd noout ,登陆所有ceph节点,并运行: docker exec -it ceph_mon ceph osd set noout ;

    3.web界面上关闭节点。登陆web管理界面,“管理员”->“虚拟机管理器”->“计算主机”-> 选择对应的宿主机->“关闭服务” ;

    4.ssh登陆节点关机。执行命令:  shutdown -h now  ;


    关闭的时候执行命令ceph -w 实时查看ceph集群osd数据是否有重平衡动作:

[[email protected] mariadb]# docker exec -it ceph_mon ceph -w
        cluster 33932e16-1909-4d68-b085-3c01d0432adc
         health HEALTH_WARN
                noout flag(s) set
         monmap e2: 3 mons at {192.168.1.130=192.168.1.130:6789/0,192.168.1.131=192.168.1.131:6789/0,192.168.1.132=192.168.1.132:6789/0}
                election epoch 72, quorum 0,1,2 192.168.1.130,192.168.1.131,192.168.1.132
         osdmap e466: 9 osds: 9 up, 9 in
                flags noout,sortbitwise,require_jewel_osds
          pgmap v712835: 640 pgs, 13 pools, 14902 MB data, 7300 objects
                30288 MB used, 824 GB / 854 GB avail
                     640 active+clean


    用ceph -s查看状态:

 [[email protected] kolla]# docker exec -it ceph_mon ceph osd set noout
    set noout
    [[email protected] kolla]# docker exec -it ceph_mon ceph -s
        cluster 33932e16-1909-4d68-b085-3c01d0432adc
         health HEALTH_WARN
                412 pgs degraded
                404 pgs stuck unclean
                412 pgs undersized
                recovery 4759/14600 objects degraded (32.596%)
                3/9 in osds are down
                noout flag(s) set
                1 mons down, quorum 0,1 192.168.1.130,192.168.1.131
         monmap e2: 3 mons at {192.168.1.130=192.168.1.130:6789/0,192.168.1.131=192.168.1.131:6789/0,192.168.1.132=192.168.1.132:6789/0}
                election epoch 74, quorum 0,1 192.168.1.130,192.168.1.131
         osdmap e468: 9 osds: 6 up, 9 in; 412 remapped pgs
                flags noout,sortbitwise,require_jewel_osds
          pgmap v712931: 640 pgs, 13 pools, 14902 MB data, 7300 objects
                30285 MB used, 824 GB / 854 GB avail
                4759/14600 objects degraded (32.596%)
                     412 active+undersized+degraded
                     228 active+clean
    [[email protected] kolla]# 
    [[email protected] kolla]# 
    [[email protected] kolla]# docker exec -it ceph_mon ceph -s
        cluster 33932e16-1909-4d68-b085-3c01d0432adc
         health HEALTH_WARN
                412 pgs degraded
                405 pgs stuck unclean
                412 pgs undersized
                recovery 4759/14600 objects degraded (32.596%)
                3/9 in osds are down
                noout flag(s) set
                1 mons down, quorum 0,1 192.168.1.130,192.168.1.131
         monmap e2: 3 mons at {192.168.1.130=192.168.1.130:6789/0,192.168.1.131=192.168.1.131:6789/0,192.168.1.132=192.168.1.132:6789/0}
                election epoch 74, quorum 0,1 192.168.1.130,192.168.1.131
         osdmap e468: 9 osds: 6 up, 9 in; 412 remapped pgs
                flags noout,sortbitwise,require_jewel_osds
          pgmap v712981: 640 pgs, 13 pools, 14902 MB data, 7300 objects
                30285 MB used, 824 GB / 854 GB avail
                4759/14600 objects degraded (32.596%)
                     412 active+undersized+degraded
                     228 active+clean
      client io 7559 B/s rd, 20662 B/s wr, 11 op/s rd, 1 op/s wr

    

    发现3个 osd down,但是还是 in状态,同时 pgmap 始终都是  412 active+undersized+degraded ,228 active+clean ,说明数据没有重平衡。

    另外,检查所有的虚拟机,正常运行。


以上是关于Openstack 之 正常关闭一个物理宿主机的主要内容,如果未能解决你的问题,请参考以下文章

OpenStack删除物理主机后控制台报错处理

openstack 扩展开发最佳实践之云主机监控查询

初识openstack之3——opsenstack概念及实验环境介绍

openstack 之 使用ansible安装部署试验

OpenStack 之 虚拟化原理

openstack迁移云主机总汇其一(云主机热迁移)