无法创建文件系统以及无法创建PV时怎么办?

    我们平常对磁盘分区格式化的时候有时无法格式化,报告的信息为:

“/dev/sdb3 is apparently in use by the system; will not make a filesystem here!”

意思是说:似乎系统正在使用该设备,无法创建文件系统。使用【mount】查看系统的所有挂载设备,也没有:/dev/sdb3.但是,创建文件系统的时候。就是无法在该设备上创建文件系统。


    有时候,我们新创建的分区,使用【kpartx -af DIRVE】或【partx -a DIRVE】通知内核重新识别设备的所有分区。使用【cat /proc/partitions】已经识别到新创建的新区,但是创建PV的时候就报错:

“Can't open /dev/sdb2 exclusively.  Mounted filesystem?”

意思是:不能打开该设备,已经安装过文件系统?

    其实,这些都是由底层Device-Mapper的映射信息还存在导致。所以,格式化分区,创建逻辑卷的时候报错。用户空间通过【dmsetup】接口可以对内核空间的映射做一些管理。

dmsetup   status          显示系统上活动逻辑设备信息
dmsetup   remove  sdb1    移除逻辑设备
dmsetup   remove_all      重置所有逻辑设备

     Device mapper 是 Linux 2.6 内核中提供的一种从逻辑设备到物理设备的映射框架机制,在该机制下,用户可以很方便的根据自己的需要制定实现存储资源的管理策略,如:镜像,快照等. 当前比较流行的 Linux 下的逻辑卷管理器如 LVM2(Linux Volume Manager 2 version)、EVMS(EnterpriseVolume Management System)、dmraid(Device Mapper RaidTool)等都是基于该机制实现的. 只要用户在用户空间制定好映射策略,按照自己的需要编写处理具体IO请求的 target driver插件,就可以很方便的实现这些特性.Device Mapper主要包含内核空间的映射和用户空间的device mapper库及dmsetup工具.

当我们遇到格式化分区和创建PV的时候报错是做如何处理的?

1、创建PV的时候报错的处理过程:

查看设备/dev/sdb的分区情况,准备好了创建PV的分区:/dev/sdb2

[root@Node1 ~]# fdisk -l /dev/sdb
Disk /dev/sdb: 21.5 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x2c06c001

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1          34      273073+  83  Linux
/dev/sdb2              35         296     2104515   8e  Linux LVM

内核要识别到新创建的分区(只有内核可以直接访问硬件),才可以创建PV。

[root@Node1 ~]# cat /proc/partitions | grep "sdb[1-9]?"
major minor  #blocks  name

   8       16   20971520 sdb
   8       17     273073 sdb1
   8       18    2104515 sdb2

内核已经识别了,创建pv

[root@Node1 ~]# pvcreate /dev/sdb2
  Can't open /dev/sdb2 exclusively.  Mounted filesystem?

说明:

    创建PV失败。


那么如何,解决设备/dev/sdb2不能创建PV的问题呢?


(1)先:使用【dmsetup】查看系统上逻辑设备的信息。

[root@Node1 ~]# dmsetup status
sdb2: 0 4209030 linear  ---------> sdb2 在线
sdb1: 0 546147 linear   ---------> sdb1 在线
vg0-swap: 0 4194304 linear
vg0-root: 0 41943040 linear
vg0-usr: 0 20971520 linear
vg0-var: 0 41943040 linear

(2)、移除磁盘/dev/sdb 上的所有逻辑设备

移除逻辑设备:sdb2

[root@Node1 ~]# dmsetup remove sdb2

再次创建PV

[root@Node1 ~]# pvcreate /dev/sdb2
  Can't open /dev/sdb2 exclusively.  Mounted filesystem?

说明:

    创建失败。

再把逻辑设备:/dev/sdb1移除,再创建PV。就创建成功


[root@Node1 ~]# dmsetup remove sdb1


(3),当移除成功之后,就可以把/dev/sdb2创建成PV了。

[root@Node1 ~]# pvcreate /dev/sdb2
  Physical volume "/dev/sdb2" successfully created

2、格式化磁盘出现错误的处理过程:

查看设备/dev/sdb的分区情况

[root@Node1 ~]# fdisk -l /dev/sdb

Disk /dev/sdb: 21.5 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x2c06c001

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1          34      273073+  83  Linux
/dev/sdb2              35        1340    10490445   8e  Linux LVM

把 /dev/sdb2删除,重新创建分区/dev/sdb2.

[root@Node1 ~]# fdisk  -l /dev/sdb

Disk /dev/sdb: 21.5 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x2c06c001

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1          34      273073+  83  Linux
/dev/sdb2              35        1079     8393962+  83  Linux

通知内核识别新设备,也就是重新读取指定设备的分区表。

[root@Node1 ~]# kpartx -af /dev/sdb
device-mapper: reload ioctl on sdb1 failed: Invalid argument
create/reload failed on sdb1

查看内核是否识别了,刚才创建的分区/dev/sdb2 

[root@Node1 ~]# cat /proc/partitions 
major minor  #blocks  name

   8        0   83886080 sda
   8        1     204800 sda1
   8        2   62914560 sda2
   8        3    2103516 sda3
   8       16   20971520 sdb
   8       17     273073 sdb1
   8       18   10490445 sdb2

说明:从上显示结果可以看出。内核还是没有识别新创建的/dev/sdb2 。还是原来的LVM。PV /dev/sdb2


如何解决,通知内核重读,也无法在新的逻辑设备创建文件系统?

(1)、查看逻辑设备的状态

[root@Node1 ~]# dmsetup status
myvg-root: 0 8388608 linear   ----> 卷组 myvg 下的逻辑卷root在线。
vg0-swap: 0 4194304 linear
vg0-root: 0 41943040 linear
vg0-usr: 0 20971520 linear
vg0-var: 0 41943040 linear

(2)、使用【dmsetup】移除逻辑卷 /dev/myvg/root

[root@Node1 ~]# dmsetup remove /dev/myvg/root
查看系统中的逻辑卷的状态,myvg-root 逻辑设备移除成功
[root@Node1 ~]# dmsetup status
vg0-swap: 0 4194304 linear
vg0-root: 0 41943040 linear
vg0-usr: 0 20971520 linear
vg0-var: 0 41943040 linear

(3)、重新通知内核识别刚才的磁盘分区

[root@Node1 ~]# kpartx -af /dev/sdb
[root@Node1 ~]# $?
0

说明:

    内核已经识别成功。

(4)、尝试在新建分区/dev/sdb2 创建文件系统

[root@Node1 ~]# mke2fs -t ext4 /dev/sdb2
mke2fs 1.41.12 (17-May-2010)
/dev/sdb2 is apparently in use by the system; will not make a filesystem here!

说明:

    /dev/sdb2 设备系统正在使用,没法创建文件系统

(5)、查看系统中所有逻辑设备的状态

[root@Node1 ~]# dmsetup status
sdb2: 0 16787925 linear
sdb1: 0 546147 linear
vg0-swap: 0 4194304 linear
vg0-root: 0 41943040 linear
vg0-usr: 0 20971520 linear
vg0-var: 0 41943040 linear

(6)移除在线逻辑设备:sdb1、sdb2

[root@Node1 ~]# dmsetup remove  sdb1
[root@Node1 ~]# dmsetup remove  sdb2

(7)、再查看逻辑设备的状态

[root@Node1 ~]# dmsetup status
vg0-swap: 0 4194304 linear
vg0-root: 0 41943040 linear
vg0-usr: 0 20971520 linear
vg0-var: 0 41943040 linear

(8)、再格式化磁盘/dev/sdb2

[root@Node1 ~]# mke2fs -t ext4 /dev/sdb2
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
655776 inodes, 2622611 blocks
131130 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2688548864
81 block groups
32768 blocks per group, 32768 fragments per group
8096 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632

Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 32 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.

(9)、格式化/dev/sdb2设备成功。

[root@Node1 ~]# echo $?
0

总结:

   如果分区格式磁盘和创建PV等操作逻辑设备的时候,如果失败的话。设备没有挂载使用的情况下。先使用【dmsetup status】查看逻辑设备的状态。如果有被操作的逻辑设备在线的话,就使用【dmsetup remove DEVICE】移除掉。再操作逻辑设备,一般不是有问题了。


你可能感兴趣的:(linux,pvcreate,mke2fs)