centos5.7创建逻辑卷问题
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了centos5.7创建逻辑卷问题相关的知识,希望对你有一定的参考价值。
我用lvcreate -n ****** -L 200G vg000创建逻辑卷时提示如下信息:
/dev/mapper/control: open failed: No such device
Failure to communicate with kernel device-mapper driver.
Check that device-mapper is available in the kernel.
striped: Required device-mapper target(s) not detected in your kernel
Run `lvcreate --help' for more information.
请问哪位大神知道是什么问题,怎么解决?
LVM的三个层次:
PV(物理卷)
可以是磁盘,也可以是分区(分区类型必须为8e),它是LVM的
基础存储设备
VG(卷组)
包含一个或多个物理卷(PV)的存储池
LV(逻辑卷)
建立在卷组的基础上,应该层就工作的逻辑卷上,
可以对逻辑卷进行格式化,挂载等操作,然后存储数据
几个概念:
物理块(PE)
LVM寻址的最小单位,物理卷都是以相同大小的物理块为存储基本单位,
大小可以是从 8k-16G,默认4M,一个VG中最多可以有65534个PE
逻辑块(LE)
管理工具:
lvm2-2.02.56-8.el5
rpm -qa | grep -i lvm 看有没有这个包,如果没有要安装
使用LV的一般过程:
1、为逻辑卷准备分区或磁盘(RAID也可以)
可以是分区(分区类型必须是8e),也可以是磁盘
2、创建物理卷
3、用物理卷创建卷组
4、激活卷组(一般可以省略)
5、在卷组上建逻辑卷
6、在逻辑卷上建文件系统(格式化、挂载)
创建实例:
1、建分区(分区类型必须是 8e)
# fdisk /dev/sda
Command (m for help): n
First cylinder (59668-60802, default 59668):
Using default value 59668
Last cylinder or +size or +sizeM or +sizeK (59668-60802,
default 60802): +1g
. . . . . .
Command (m for help): p
Command (m for help): t
Partition number (1-15): 13 (分区编号)
Hex code (type L to list codes): 8e
Command (m for help): p
Command (m for help): w
# partprobe
2、利用分区创建PV
# pvcreate /dev/sda12 /dev/sda13 /dev/sda14 /dev/sda15
# pvscan
# pvdisplay #可通过这两个命令来看PV是否真的有了
也可以直接拿RAID做PV
3、利用PV创建VG
# vgcreate vg1 /dev/sda12 /dev/sda13 /dev/sda14
# vgscan
# vgdisplay
4、卷组上创建逻辑卷(默认线性卷)
# lvcreate -n lv01 -L 500M vg1
# lvscan
# lvdisplay
5、使用
# mkfs -t ext3 /dev/vg1/lv01
# mkdir /lv01
# mount /dev/vg1/lv01 /lv01
# df -h
之后就可以在逻辑卷的挂载点上存储数据了
------------------------------
创建条带化的逻辑卷(要有多个PV)
# lvcreate -L 500M -n strp_lv -i2 vg1
# mkfs -t ext3 /dev/vg1/strp_lv
# mkdir /strp_lv
创建镜象逻辑卷(要有多个PV):
-m 指定镜象份数
-m 1 镜象1份,原始数据的同时,生成另一个副本
# vgdisplay
Free PE / Size 472 / 1.84 GB
# lvcreate -n mirr_lv -m 1 -L 500M vg1
# vgdisplay
Free PE / Size 221 / 884.00 MB
可看到,虽然创建的是500M的LV,但实际上用到1G的VG空间
这就是镜象要另外使用的空间
# mkfs -t ext3 /dev/vg1/mirr_lv
# mkdir /miir_lv
练习:用两个PV创建VG,再在该VG下创建一下镜象LV
------------------------------
VG维护
vgchange 停、启用vg
# vgchange -a n vg1 #停用卷组
# lvdisplay
LV Status NOT available
# vgchange -a y vg1 #启用
# lvdisplay
LV Status available
如果该卷组下有LV在挂载使用,该VG是不能停用的,要停用必须要先卸掉
LV
vg增加pv
# vgextend vg1 /dev/sda15
VG的扩容就是通过增加PV来实现的
vg移除pv
# vgreduce vg1 /dev/sda15
LV的管理与维护
在线扩容:
LV扩容,要求VG要有足够的空间,扩展时选扩lv (lvextent)
再扩文件系统(resize2fs)
实施过程:
1、lvextent
# lvextend -L +200M /dev/vg1/lv01
# df -h 可以看到容量并没有变化
# lvscan 可以看到容量增加了200M
2、resize2fs
# resize2fs /dev/vg1/lv01
# df -h 可以看到容量增加了
压缩LV大小:
基本过程:umount -> fsck -f -> resize2fs -> lvreduce
# umount /lv01
# fsck -f /dev/vg1/lv01
# resize2fs /dev/mapper/vg1-lv01 400M
# mount /dev/vg1/lv01 /lv01/
# df -h 可看到变400M了
# lvscan 看到还是700M
# lvreduce -L 400M /dev/vg1/lv01
物理卷间的数据转移:
转移条件:两个PV在同一个VG中,并且目标PV不能小于被转移的PV
实施方法:
1、将PV加到VG中来
# vgextend vg1 /dev/sda15
2、加载镜象模块
# modprobe dm-mirror
# lsmod | grep -i mirror
3、转移数据
# pvmove /dev/sda14 /dev/sda15
4、将老的PV从VG中移除
# vgreduce vg1 /dev/sda15
LVM的快照
LVM的快照是对历史上的数据做了一个保存,随着时间的推移我们可以
通过LVM快照来访问过去的历史数据
# lvcreate -L 100M -s -n lv428 /dev/vg1/lv01
之后不对/dev/vg1/lv01 进行增、删、改
文件内容已彻底发生变化了
这时,一般情况下,再看前面数据已经不可能了,如果有LVM快照
我们可以把快照调出来,看历史上那点数据是什么样子
# mkdir /lv_snap
# mount /dev/vg1/lv428 /lv_snap
又可看到历史数据了
LVM 的删除
删除时要遵循一定的顺序
先删 LV -> 再删 VG -> 再删PV
和创建时刚好相反
删除LV
umount /dev/vg1/lv01
lvremove /dev/vg1/lv01
删除VG
vgremove /dev/vg1
删除PV
pvremove /dev/sda12
pvremove /dev/sda13
在救援模式下使用LVM:
lvm命令,如 vgscan 实际是一些软链接,链接到 lvm.static 或 lvm
但在救援模式下,有些链接是没有建立的,在救援模式下要使用LVM的一些
命令,要在命令前加 lvm 前辍,如:
lvm vgscan
lvm vgchange 参考技术A yum是不是更新了Linux kernel,我在arch上遇到过这个问题,办法就是reboot
Centos8中创建LVM精简逻辑卷
精简卷是可以创建大于可用磁盘的逻辑卷。使用精简卷,你可以管理可用空间的存储池(称为精简池),可以在应用程序需要时将其分配给任意数量的设备。精简池可以在需要时进行动态扩展,以节省成本。 |
系统环境
Centos8
创建精简池
下面我们添加一块硬盘。创建物理卷,然后创建卷组:
[root@localhost ~]# pvcreate /dev/sda
Physical volume "/dev/sda" successfully created.
[root@localhost ~]# vgcreate vg_thin /dev/sda
Volume group "vg_thin" successfully created
[root@localhost ~]# vgs
VG #PV #LV #SN Attr VSize VFree
cl 1 2 0 wz--n- <19.00g <2.00g
vg_thin 1 0 0 wz--n- <20.00g <20.00g
上面已经创建好一个新的卷组了,名字为vg_thin
。然后在现有卷组的中创建一个精简池:
[root@localhost ~]# lvcreate -L 1G -T vg_thin/thin_pool
Thin pool volume with chunk size 64.00 KiB can address at most 15.81 TiB of data.
Logical volume "thin_pool" created.
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root cl -wi-ao---- 15.00g
swap cl -wi-ao---- 2.00g
thin_pool vg_thin twi-a-tz-- 1.00g 0.00 10.94
创建精简卷
创建精简池之后,我们就可以从精简池中创建精简卷。在本实验中创建四个精简卷,每个精简卷的大小为200 MB。
[root@localhost ~]# lvcreate -V 200M -T vg_thin/thin_pool -n tp_lv_user1
Logical volume "tp_lv_user1" created.
[root@localhost ~]# lvcreate -V 200M -T vg_thin/thin_pool -n tp_lv_user2
Logical volume "tp_lv_user2" created.
[root@localhost ~]# lvcreate -V 200M -T vg_thin/thin_pool -n tp_lv_user3
Logical volume "tp_lv_user3" created.
[root@localhost ~]# lvcreate -V 200M -T vg_thin/thin_pool -n tp_lv_user4
Logical volume "tp_lv_user4" created.
格式化并挂载精简卷
将上面创建的四个精简卷格式化为xfs格式:
[root@localhost ~]# mkfs.xfs /dev/vg_thin/tp_lv_user1
[root@localhost ~]# mkfs.xfs /dev/vg_thin/tp_lv_user2
[root@localhost ~]# mkfs.xfs /dev/vg_thin/tp_lv_user3
[root@localhost ~]# mkfs.xfs /dev/vg_thin/tp_lv_user4
创建挂载点,并挂载:
[root@localhost ~]# mkdir -p /mnt/user1..4
[root@localhost ~]# mount /dev/vg_thin/tp_lv_user1 /mnt/user1
[root@localhost ~]# mount /dev/vg_thin/tp_lv_user2 /mnt/user2
[root@localhost ~]# mount /dev/vg_thin/tp_lv_user3 /mnt/user3
[root@localhost ~]# mount /dev/vg_thin/tp_lv_user4 /mnt/user4
向这四个目录写入一些文件:
[root@localhost ~]# dd if=/dev/zero of=/mnt/user1/test.img bs=1M count=100
[root@localhost ~]# dd if=/dev/zero of=/mnt/user2/test.img bs=1M count=100
[root@localhost ~]# dd if=/dev/zero of=/mnt/user3/test.img bs=1M count=100
[root@localhost ~]# dd if=/dev/zero of=/mnt/user4/test.img bs=1M count=100
然后运行下面命令查看以下使用空间:
[root@localhost ~]# lvs
我们可以注意到精简池利用率为41.41%
开启防止精简池空间耗尽的保护
再创建两个200 MB的精简卷。可以发现创建这两个精简卷会超过所设置的精简池的大小,虽然可以创建成功,但这样做会有更大的风险,并提示一些超额的警告。
[root@localhost ~]# lvcreate -V 200M -T vg_thin/thin_pool -n tp_lv_user5
Logical volume "tp_lv_user5" created.
[root@localhost ~]# lvcreate -V 200M -T vg_thin/thin_pool -n tp_lv_user6
WARNING: Sum of all thin volume sizes (1.17 GiB) exceeds the size of thin pool vg_thin/thin_pool (1.00 GiB).
WARNING: You have not turned on protection against thin pools running out of space.
WARNING: Set activation/thin_pool_autoextend_threshold below 100 to trigger automatic extension of thin pools before they get full.
Logical volume "tp_lv_user6" created.
下面我们删掉刚才创建的tp_lv_user5和tp_lv_user6,在lvm.conf配置文件中开启超额保护,并重新创建这两个精简卷:
[root@localhost ~]# lvremove -f /dev/vg_thin/tp_lv_user5
Logical volume "tp_lv_user5" successfully removed
[root@localhost ~]# lvremove -f /dev/vg_thin/tp_lv_user6
Logical volume "tp_lv_user6" successfully removed
编辑/etc/lvm/lvm.conf
配置文件,将下两个参数的值修改一下:
# 当精简池的使用率超过此百分比时,将自动扩展该池,将其更改为100将禁用自动扩展。可接受的最小值是50。
thin_pool_autoextend_threshold = 80
# 通过自动扩展精简池,会增加这个百分比的额外空间。添加到精简池的额外空间量是其当前大小的百分比。
thin_pool_autoextend_percent = 20
下面创建tp_lv_user5和tp_lv_user6两个精简卷:
[root@localhost ~]# lvcreate -V 200M -T vg_thin/thin_pool -n tp_lv_user5
Logical volume "tp_lv_user5" created.
[root@localhost ~]# lvcreate -V 200M -T vg_thin/thin_pool -n tp_lv_user6
Logical volume "tp_lv_user6" created.
[root@localhost ~]# mkfs.xfs /dev/vg_thin/tp_lv_user5
[root@localhost ~]# mkfs.xfs /dev/vg_thin/tp_lv_user6
[root@localhost ~]# mkdir -p /mnt/user5..6
[root@localhost ~]# mount /dev/vg_thin/tp_lv_user5 /mnt/user5
[root@localhost ~]# mount /dev/vg_thin/tp_lv_user6 /mnt/user6
看一下使用的情况:
下面我们向/mnt/user5和/mnt/user6填充内容,直到thin_pool精简池的使用率超过80%,我们可以看到精简池的容量扩容了。
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root cl -wi-ao---- 15.00g
swap cl -wi-ao---- 2.00g
thin_pool vg_thin twi-aotz-- 1.20g 75.94 22.66
tp_lv_user1 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
tp_lv_user2 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
tp_lv_user3 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
tp_lv_user4 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
tp_lv_user5 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
tp_lv_user6 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
可以看到上面,thin_pool精简池的容量提升了200M,这就说明当精简池的使用率超过80%时,提升20%的容量。
如何扩展精简池
扩展精简池时,我们需要遵循两个步骤:
- 1. 扩展精简池的元数据
- 2. 然后再扩展精简池。
要扩展精简池,我们不应该立即继续扩展精简池。首先,通过运行lvs -a
查看现有元数据使用的大小情况。
[root@localhost ~]# lvs -a
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root cl -wi-ao---- 15.00g
swap cl -wi-ao---- 2.00g
[lvol0_pmspare] vg_thin ewi------- 4.00m
thin_pool vg_thin twi-aotz-- 1.20g 75.94 22.66
[thin_pool_tdata] vg_thin Twi-ao---- 1.20g
[thin_pool_tmeta] vg_thin ewi-ao---- 4.00m
tp_lv_user1 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
tp_lv_user2 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
tp_lv_user3 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
tp_lv_user4 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
tp_lv_user5 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
tp_lv_user6 vg_thin Vwi-aotz-- 200.00m thin_pool 77.97
扩展精简池metadata的大小
元数据的当前大小仅为4 MB。让我们在当前大小的基础上添加4MB。
[root@localhost ~]# lvextend --poolmetadatasize +4M vg_thin/thin_pool
可以看到[thin_pool_tmeta]
已经变成8M了。
扩展精简池的大小
完成扩展元数据后,开始将精简池扩展到所需的大小。将精简池扩容量再添加1G容量。
[root@localhost ~]# lvextend -L +1G /dev/vg_thin/thin_pool
现在大小已变成2.2G了。
扩展精简卷
扩展精简卷和扩展精简池类似:
[root@localhost ~]# lvextend -L +200M /dev/vg_thin/tp_lv_user1
删除精简卷、精简池
要删除精简池,首先需要卸载所有文件系统,然后删除所有精简卷,最后删除精简池。
# 卸载分区
[root@localhost ~]# umount /mnt/user1..6
# 删除精简卷
[root@localhost ~]# lvremove -y /dev/vg_thin/tp_lv_user[1-6]
Logical volume "tp_lv_user1" successfully removed
Logical volume "tp_lv_user2" successfully removed
Logical volume "tp_lv_user3" successfully removed
Logical volume "tp_lv_user4" successfully removed
Logical volume "tp_lv_user5" successfully removed
Logical volume "tp_lv_user6" successfully removed
# 删除精简池
[root@localhost ~]# lvremove -y /dev/vg_thin/thin_pool
Logical volume "thin_pool" successfully removed
使用lvs 命令查看以下,是否已经删除干净:
[root@localhost ~]# lvs -a
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root cl -wi-ao---- 15.00g
swap cl -wi-ao---- 2.00g
总结
精简卷是可以创建大于可用磁盘的逻辑卷。使用精简卷,你可以管理可用空间的存储池(称为精简池),可以在应用程序需要时将其分配给任意数量的设备。精简池可以在需要时进行动态扩展,以节省成本。
本文原创地址:https://www.linuxprobe.com/lvm-thin-pool.html编辑:逄增宝,审核员:逄增宝
以上是关于centos5.7创建逻辑卷问题的主要内容,如果未能解决你的问题,请参考以下文章