基于本地存储的kvm虚拟机在线迁移

Posted 桦仔

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了基于本地存储的kvm虚拟机在线迁移相关的知识,希望对你有一定的参考价值。

基于本地存储的kvm虚拟机在线迁移

 

kvm虚拟机迁移分为4种
(1)热迁移基于共享存储
(2)热迁移基于本地存储
(3)冷迁移基于共享存储
(4)冷迁移基于本地存储

这里介绍的是基于本地存储的热迁移


动态块迁移版本要求
qemu版本要求  大于或等于0.12.1(centos6.7或以上都没问题)
rpm -qa|grep qemu
qemu-kvm-0.12.1.2-2.491.el6_8.1.x86_64
qemu-kvm-tools-0.12.1.2-2.491.el6_8.1.x86_64

目标宿主机:192.168.1.24  机器名:CQ-KVM01
源宿主机:192.168.1.26   机器名:CQ-KVM02
迁移使用tcp认证方式
kvm虚拟机名称,是一台跑nginx的虚拟机:CQ-NGINX01


1、配置libvirtd服务 源宿主机和目标宿主机都要执行
vi /etc/libvirt/libvirtd.conf
listen_tls = 0   
listen_tcp = 1
tcp_port = "16509"
listen_addr = "0.0.0.0"
auth_tcp = "none"
mdns_adv = 0

解释
listen_tls:关闭tls,默认是开启的
listen_tcp :开启tcp认证
tcp_port:tcp端口配置,默认端口是16509
auth_tcp:配置是否开启口令认证,默认不开启
mdns_adv:是否开启mdns组播,默认关闭

sed -i ‘s/^#listen_tls = 0/listen_tls = 0/‘ /etc/libvirt/libvirtd.conf
sed -i ‘s/^#listen_tcp = 1/listen_tcp = 1/‘ /etc/libvirt/libvirtd.conf
sed -i ‘s/^#tcp_port = \"16509\"/tcp_port = \"16509\"/‘ /etc/libvirt/libvirtd.conf
sed -i ‘s/^#listen_addr = \"192.168.0.1\"/listen_addr = \"0.0.0.0\"/‘ /etc/libvirt/libvirtd.conf
sed -i ‘s/^#auth_tcp = \"sasl\"/auth_tcp = \"none\"/‘ /etc/libvirt/libvirtd.conf
sed -i ‘s/^#mdns_adv = 1/mdns_adv = 0/‘ /etc/libvirt/libvirtd.conf

cat libvirtd.conf |grep -iE "listen_tls"
cat libvirtd.conf |grep -iE "listen_tcp"
cat libvirtd.conf |grep -iE "tcp_port"
cat libvirtd.conf |grep -iE "listen_addr"
cat libvirtd.conf |grep -iE "auth_tcp"
cat libvirtd.conf |grep -iE "mdns_adv"


2、配置libvirtd监听方式,无论是tcp,ssh,tls认证方式都需要配置 , 源宿主机和目标宿主机都要执行
vi /etc/sysconfig/libvirtd
LIBVIRTD_ARGS="--listen"

3、编辑/etc/libvirt/qemu.conf文件  源宿主机和目标宿主机都要执行
vi /etc/libvirt/qemu.conf
vnc_listen = "0.0.0.0"

解释
vnc_listen:使虚拟机带外VNC默认监听.0.0.0.0

4、重启libvirtd服务,使配置生效,  源宿主机和目标宿主机都要执行
/etc/init.d/libvirtd restart


5、检查端口和进程,libvirtd是否监听16509端口,  源宿主机和目标宿主机都要执行
netstat -lntp | grep libvirtd
tcp        0      0 0.0.0.0:16509               0.0.0.0:*                   LISTEN      48825/libvirtd    

修改iptables脚本,放行16509端口和49152端口
#ACCESS kvm
iptables -A INPUT -m state --state NEW -m tcp -p tcp --dport 5900:5909 -j ACCEPT
iptables -A INPUT -p tcp --dport 16509 -j ACCEPT
iptables -A INPUT -p tcp --dport 49152 -j ACCEPT



6、在源宿主机和目标宿主机加上IP和主机的解析
#24机器上
echo "192.168.1.26 CQ-KVM02"  >> /etc/hosts


#26机器上
echo "192.168.1.24 CQ-KVM01"  >> /etc/hosts



7、在源宿主机连接目标宿主机的libvirtd并查看虚拟机信息
virsh -c qemu+tcp://[email protected]:16509/system
virsh -c qemu+tcp://[email protected]:16509/system



8、在目标宿主机创建同样大小的镜像文件,路径、名称也要一样
要加上preallocation=metadata,否则使用virt-install命令安装完成后虚拟机磁盘镜像会变为raw格式
qemu-img create -f qcow2  -o preallocation=metadata  /data/kvmimg/CQ-NGINX01.qcow2 100G



9、迁移 ,192.168.1.26为目标宿主机的内网IP,tcp认证方式,迁移时间有点长需要开一个screen窗口,不需要cd 到镜像文件所在目录
screen -S migratekvm
virsh migrate --live --copy-storage-all --unsafe --persistent  CQ-NGINX01  qemu+tcp://[email protected]:16509/system


10、在目标宿主机执行,会显示paused状态 即是suspended状态
watch virsh list --all


11、在目标宿主机执行,显示迁移进度
tailf /var/log/libvirt/qemu/CQ-NGINX01.log


12、在目标宿主机执行,镜像文件目录为/data/kvmimg/,显示虚拟机镜像的大小,会看到虚拟机镜像会不断增大表示数据已经在迁移过来
注意创建镜像文件的时候要使用preallocation=metadata
cd /data/kvmimg/
watch du -h *


13、虚拟机迁移完成后,源宿主机为关机状态,目标宿主机变为running状态
virsh list --all #源宿主机
virsh list --all #目标宿主机


14、源宿主机删除xml配置文件
virsh destroy CQ-NGINX01
virsh undefine CQ-NGINX01



注意:
迁移过程中ping会有卡顿,有时会丢几个包,如果虚拟机中有部署数据库,应用程序最好有重连机制


回迁方法
建议不要删除源宿主机上的镜像文件,保留镜像文件
#在目标宿主机上执行 ,回迁到源宿主机
virsh dumpxml CQ-NGINX01  >~/CQ-NGINX01.xml
virsh migrate --live --copy-storage-all --unsafe --persistent CQ-NGINX01  qemu+tcp://[email protected]:16509/system



注意:
源宿主机和目标宿主机最好要保持硬件一致 ,这样迁移和回迁出问题的几率才能降到最低!
迁移速度和成功率和网络有很大关系,宿主机的网络尽量是万兆或千兆多网卡绑定,可以提高迁移速度和成功率

#限制迁移速度 为600M/s
virsh migrate-setspeed  CQ-NGINX01  600



在线迁移问题汇总
(如果ssh的端口不是默认22,可以写为 qemu+ssh://target:port/system)
Question 1:
error: internal error hostname on destination resolved to localhost, but migration requires an FQDN
解决办法很简单,因为默认情况下hostname 是 localhost,我们需要把目标的hostname修改一下,临时的也可以。
#hostname target

Question 2:
error: internal error Attempt to migrate guest to the same host 00020003-0004-0005-0006-000700080009
这个在mail list 中有大牛说是服务器提供商的问题,
你可以用#dmidecode -s system-uuid 查看一下这个ID,理论上是#virsh sysinfo | grep uuid 及# virsh capabilities | grep uuid
这三个ID是一样的。(之前看论坛里发的解决方法是需要下载一个dmidecode 命令的文件去替换系统的,达到修改的目的,不过我只是修改了libvirt的配置文件就可以了,可能是版本的问题)
我们修改一下libvirtd的配置文件
#sed -i "/#host_uuid/ahost_uuid = \"`uuidgen`\"" /etc/libvirt/libvirtd.conf
重启一下libvirtd 服务
# /etc/init.d/libvirtd restart
然后再查看一下
# virsh capabilities | grep uuid

Question 3:
error: unable to set user and group to ‘107:107‘ on ‘/image/vmtest/disk.img‘: No such file or directory
如果顺利进入到这步的话,就很简单了,没有directory 直接创建一个就可以,没有disk.img 直接create一个
注:创建的磁盘应该和源虚拟机的磁盘是一样的大小(更大应该是可以)和格式(raw还是qcow2)

qemu-img create /image/vmtest/disk.img +sizeG


Question 4:
error: Unable to resolve address ‘target‘ service ‘49155‘: Name or service not known
《《Name or service not known》》在/etc/hosts 添加解析的ip和target的域名即可


Question 5:
virsh migrate --live --copy-storage-all --unsafe --persistent CQ-NGINX01  qemu+tcp://[email protected]:16509/system
error: Unable to read from monitor: Connection reset by peer

可能目标宿主机和源宿主机内存不够
建议:目标宿主机和源宿主机上都关闭一些不必要的虚拟机把内存腾出来
也可以清空cache把内存腾出来
#清除cache 首先执行sync命令
sync
echo 3 > /proc/sys/vm/drop_caches




以上是关于基于本地存储的kvm虚拟机在线迁移的主要内容,如果未能解决你的问题,请参考以下文章

kvm_虚拟机迁移

kvm虚拟机静态迁移

kvm虚拟化学习笔记(十四)之kvm虚拟机静态迁移

KVM虚拟化笔记(十三)------kvm虚拟机静态迁移

在kvm环境下,实现基于共享存储(NFS)的虚拟机夸主机迁移

基于NFS共享存储kvm虚拟机动态迁移操作梳理