我们平常对磁盘分区格式化的时候有时无法格式化,报告的信息为:
“/dev/sdb3 is apparently in use by the system; will not make a filesystem here!”
意思是说:似乎系统正在使用该设备,无法创建文件系统。使用【mount】查看系统的所有挂载设备,也没有:/dev/sdb3.但是,创建文件系统的时候。就是无法在该设备上创建文件系统。
有时候,我们新创建的分区,使用【kpartx -af DIRVE】或【partx -a DIRVE】通知内核重新识别设备的所有分区。使用【cat /proc/partitions】已经识别到新创建的新区,但是创建PV的时候就报错:
“Can't open /dev/sdb2 exclusively. Mounted filesystem?”
意思是:不能打开该设备,已经安装过文件系统?
其实,这些都是由底层Device-Mapper的映射信息还存在导致。所以,格式化分区,创建逻辑卷的时候报错。用户空间通过【dmsetup】接口可以对内核空间的映射做一些管理。
dmsetup status 显示系统上活动逻辑设备信息 dmsetup remove sdb1 移除逻辑设备 dmsetup remove_all 重置所有逻辑设备
Device mapper 是 Linux 2.6 内核中提供的一种从逻辑设备到物理设备的映射框架机制,在该机制下,用户可以很方便的根据自己的需要制定实现存储资源的管理策略,如:镜像,快照等. 当前比较流行的 Linux 下的逻辑卷管理器如 LVM2(Linux Volume Manager 2 version)、EVMS(EnterpriseVolume Management System)、dmraid(Device Mapper RaidTool)等都是基于该机制实现的. 只要用户在用户空间制定好映射策略,按照自己的需要编写处理具体IO请求的 target driver插件,就可以很方便的实现这些特性.Device Mapper主要包含内核空间的映射和用户空间的device mapper库及dmsetup工具.
当我们遇到格式化分区和创建PV的时候报错是做如何处理的?
1、创建PV的时候报错的处理过程:
查看设备/dev/sdb的分区情况,准备好了创建PV的分区:/dev/sdb2
[root@Node1 ~]# fdisk -l /dev/sdb Disk /dev/sdb: 21.5 GB, 21474836480 bytes 255 heads, 63 sectors/track, 2610 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x2c06c001 Device Boot Start End Blocks Id System /dev/sdb1 1 34 273073+ 83 Linux /dev/sdb2 35 296 2104515 8e Linux LVM
内核要识别到新创建的分区(只有内核可以直接访问硬件),才可以创建PV。
[root@Node1 ~]# cat /proc/partitions | grep "sdb[1-9]?" major minor #blocks name 8 16 20971520 sdb 8 17 273073 sdb1 8 18 2104515 sdb2
内核已经识别了,创建pv
[root@Node1 ~]# pvcreate /dev/sdb2 Can't open /dev/sdb2 exclusively. Mounted filesystem?
说明:
创建PV失败。
那么如何,解决设备/dev/sdb2不能创建PV的问题呢?
(1)先:使用【dmsetup】查看系统上逻辑设备的信息。
[root@Node1 ~]# dmsetup status sdb2: 0 4209030 linear ---------> sdb2 在线 sdb1: 0 546147 linear ---------> sdb1 在线 vg0-swap: 0 4194304 linear vg0-root: 0 41943040 linear vg0-usr: 0 20971520 linear vg0-var: 0 41943040 linear
(2)、移除磁盘/dev/sdb 上的所有逻辑设备
移除逻辑设备:sdb2
[root@Node1 ~]# dmsetup remove sdb2
再次创建PV
[root@Node1 ~]# pvcreate /dev/sdb2 Can't open /dev/sdb2 exclusively. Mounted filesystem?
说明:
创建失败。
再把逻辑设备:/dev/sdb1移除,再创建PV。就创建成功
[root@Node1 ~]# dmsetup remove sdb1
(3),当移除成功之后,就可以把/dev/sdb2创建成PV了。
[root@Node1 ~]# pvcreate /dev/sdb2 Physical volume "/dev/sdb2" successfully created
2、格式化磁盘出现错误的处理过程:
查看设备/dev/sdb的分区情况
[root@Node1 ~]# fdisk -l /dev/sdb Disk /dev/sdb: 21.5 GB, 21474836480 bytes 255 heads, 63 sectors/track, 2610 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x2c06c001 Device Boot Start End Blocks Id System /dev/sdb1 1 34 273073+ 83 Linux /dev/sdb2 35 1340 10490445 8e Linux LVM
把 /dev/sdb2删除,重新创建分区/dev/sdb2.
[root@Node1 ~]# fdisk -l /dev/sdb Disk /dev/sdb: 21.5 GB, 21474836480 bytes 255 heads, 63 sectors/track, 2610 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x2c06c001 Device Boot Start End Blocks Id System /dev/sdb1 1 34 273073+ 83 Linux /dev/sdb2 35 1079 8393962+ 83 Linux
通知内核识别新设备,也就是重新读取指定设备的分区表。
[root@Node1 ~]# kpartx -af /dev/sdb device-mapper: reload ioctl on sdb1 failed: Invalid argument create/reload failed on sdb1
查看内核是否识别了,刚才创建的分区/dev/sdb2
[root@Node1 ~]# cat /proc/partitions major minor #blocks name 8 0 83886080 sda 8 1 204800 sda1 8 2 62914560 sda2 8 3 2103516 sda3 8 16 20971520 sdb 8 17 273073 sdb1 8 18 10490445 sdb2
说明:从上显示结果可以看出。内核还是没有识别新创建的/dev/sdb2 。还是原来的LVM。PV /dev/sdb2
如何解决,通知内核重读,也无法在新的逻辑设备创建文件系统?
(1)、查看逻辑设备的状态
[root@Node1 ~]# dmsetup status myvg-root: 0 8388608 linear ----> 卷组 myvg 下的逻辑卷root在线。 vg0-swap: 0 4194304 linear vg0-root: 0 41943040 linear vg0-usr: 0 20971520 linear vg0-var: 0 41943040 linear
(2)、使用【dmsetup】移除逻辑卷 /dev/myvg/root
[root@Node1 ~]# dmsetup remove /dev/myvg/root 查看系统中的逻辑卷的状态,myvg-root 逻辑设备移除成功
[root@Node1 ~]# dmsetup status vg0-swap: 0 4194304 linear vg0-root: 0 41943040 linear vg0-usr: 0 20971520 linear vg0-var: 0 41943040 linear
(3)、重新通知内核识别刚才的磁盘分区
[root@Node1 ~]# kpartx -af /dev/sdb [root@Node1 ~]# $? 0
说明:
内核已经识别成功。
(4)、尝试在新建分区/dev/sdb2 创建文件系统
[root@Node1 ~]# mke2fs -t ext4 /dev/sdb2 mke2fs 1.41.12 (17-May-2010) /dev/sdb2 is apparently in use by the system; will not make a filesystem here!
说明:
/dev/sdb2 设备系统正在使用,没法创建文件系统
(5)、查看系统中所有逻辑设备的状态
[root@Node1 ~]# dmsetup status sdb2: 0 16787925 linear sdb1: 0 546147 linear vg0-swap: 0 4194304 linear vg0-root: 0 41943040 linear vg0-usr: 0 20971520 linear vg0-var: 0 41943040 linear
(6)移除在线逻辑设备:sdb1、sdb2
[root@Node1 ~]# dmsetup remove sdb1 [root@Node1 ~]# dmsetup remove sdb2
(7)、再查看逻辑设备的状态
[root@Node1 ~]# dmsetup status vg0-swap: 0 4194304 linear vg0-root: 0 41943040 linear vg0-usr: 0 20971520 linear vg0-var: 0 41943040 linear
(8)、再格式化磁盘/dev/sdb2
[root@Node1 ~]# mke2fs -t ext4 /dev/sdb2 mke2fs 1.41.12 (17-May-2010) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) Stride=0 blocks, Stripe width=0 blocks 655776 inodes, 2622611 blocks 131130 blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks=2688548864 81 block groups 32768 blocks per group, 32768 fragments per group 8096 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 32 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override.
(9)、格式化/dev/sdb2设备成功。
[root@Node1 ~]# echo $? 0
总结:
如果分区格式磁盘和创建PV等操作逻辑设备的时候,如果失败的话。设备没有挂载使用的情况下。先使用【dmsetup status】查看逻辑设备的状态。如果有被操作的逻辑设备在线的话,就使用【dmsetup remove DEVICE】移除掉。再操作逻辑设备,一般不是有问题了。