以复制重建的方式修复托管磁盘虚拟机

应用背景

托管磁盘机器 A 由于系统误配置导致无法正常连接使用,需要将 A 机器的 OS 磁盘挂载到正常机器 B 进行修复后,重新创建机器 C 连接使用。

该文使用的方式为复制问题机器 A 的操作系统磁盘,挂载 OS 磁盘到正常机器 B 修复后重新创建的示例。

环境说明

问题托管磁盘机器 A:hlmcen69n2m0,附加了两块磁盘并且已创建 raid0 及 lvm

正常托管磁盘机器 B:hlmcen69n2mt

重建托管磁盘机器 C:hlmcen69n2m1,重组 raid0 及 lvm

上述机器操作系统都为:CentOS6.9

示例演示

机器 A 由于误配置导致虚拟机无法 SSH,为了保留问题现场及数据的安全性,以重命名的方式复制问题机器 A 的 OS 磁盘及数据磁盘到同一订阅的同一资源组下。

安装Windows Azure Powershell。

以复制重建的方式修复托管磁盘虚拟机_第1张图片

使用如下脚本复制问题机器 A 的 OS 磁盘及数据磁盘到同一订阅的同一资源组下,并且重命名。

复制

#登陆 Azure 账号:

Add-AzureRmAccount -EnvironmentName AzureChinaCloud

#获取订阅 ID:

Get-AzureRmSubscription

#定义订阅 ID 的变量

$sourceSubscriptionId='6c87a588-88df-48ee-9e52-d04b06a8601f'

#选择指定订阅

Select-AzureRmSubscription -SubscriptionId $sourceSubscriptionId

#设置源资源组

$sourceResourceGroupName='hlmrgn'

#设置目标资源组

$targetResourceGroupName='hlmrgn'

#设置源托管磁盘名称

$sourcemanagedDiskName='hlmcen69n2m0-disk02'

#设置目标托管磁盘名称

$targetmanagedDiskName='hlmcen69n2m0-disk02-copy'

#获取源托管磁盘信息

$managedDisk= Get-AzureRMDisk -ResourceGroupName $sourceResourceGroupName -DiskName $sourcemanagedDiskName

#创建一个磁盘对象

$diskConfig = New-AzureRmDiskConfig -SourceResourceId $managedDisk.Id -Location $managedDisk.Location -CreateOption Copy

#在目标资源组下创建一个新的托管磁盘

New-AzureRmDisk -Disk $diskConfig -DiskName $targetmanagedDiskName -ResourceGroupName $targetResourceGroupName

操作的截图说明:

以复制重建的方式修复托管磁盘虚拟机_第2张图片

可以在 “磁盘” 项中查看到复制成功后的磁盘文件。

以复制重建的方式修复托管磁盘虚拟机_第3张图片

在正常机器 B 的 “磁盘” 项中,附加问题机器 A 的操作系统磁盘。

以复制重建的方式修复托管磁盘虚拟机_第4张图片
以复制重建的方式修复托管磁盘虚拟机_第5张图片

接下来在正常机器 B 上挂载修复问题 OS 磁盘,修复完成后卸载,并分离磁盘。

使用fdisk –l查看到磁盘已经附加成功。

创建挂载点进行挂载 :

复制

[root@hlmcen69n2mt ~]# mkdir /mnt/sdc1

[root@hlmcen69n2mt ~]# mount /dev/sdc1 /mnt/sdc1/

修复完成后系统内部卸载磁盘 :

复制

[root@hlmcen69n2mt ~]# umount /mnt/sdc1/

通过 Azure 门户分离磁盘

以复制重建的方式修复托管磁盘虚拟机_第6张图片
以复制重建的方式修复托管磁盘虚拟机_第7张图片
以复制重建的方式修复托管磁盘虚拟机_第8张图片

在 “磁盘” 项中找到刚修复好的 OS 磁盘,创建虚拟机 C。

以复制重建的方式修复托管磁盘虚拟机_第9张图片

将原来的两块数据磁盘附加上去,发现 raid 已经重组但 lvm 并没有自动重组,不要着急,我们重启下机器就会发现 lvm 已经自动重组了。

以复制重建的方式修复托管磁盘虚拟机_第10张图片
以复制重建的方式修复托管磁盘虚拟机_第11张图片

复制

[root@hlmcen69n2m0 ~]# ll /dev/vg*

crw-rw----. 1 root root 10, 63 Sep  6 03:02 /dev/vga_arbiter

[root@hlmcen69n2m0 ~]# blkid

/dev/sda1: UUID="db4773f9-7496-4b81-8fc6-895fd4ba32e2" TYPE="ext4"

/dev/sdb1: UUID="75c8ef6c-a136-43e7-b006-6433b1d6c232" TYPE="ext4"

/dev/sdc1: UUID="46634fd7-7984-40d2-a40e-4e7e1107ae87" TYPE="ext4"

/dev/sdd1: UUID="b89477a0-6969-4783-bea6-5de09c0ea2e6" TYPE="ext4"

/dev/md127: UUID="O1FEOo-bM6d-3VIe-rD9V-KCuu-ADiS-fohVuO" TYPE="LVM2_member"

重启机器后,可以看到 lvm 已经自动重组,并且自动挂载到了/mnt/lv01 :

复制

[root@hlmcen69n2m0 ~]# ll /dev/vg*

crw-rw----. 1 root root 10, 63 Sep  6 03:16 /dev/vga_arbiter

/dev/vg0:

total 0

lrwxrwxrwx. 1 root root 7 Sep  6 03:16 lv01 -> ../dm-0

[root@hlmcen69n2m0 ~]# blkid

/dev/sda1: UUID="db4773f9-7496-4b81-8fc6-895fd4ba32e2" TYPE="ext4"

/dev/sdb1: UUID="75c8ef6c-a136-43e7-b006-6433b1d6c232" TYPE="ext4"

/dev/sdc1: UUID="b89477a0-6969-4783-bea6-5de09c0ea2e6" TYPE="ext4"

/dev/sdd1: UUID="46634fd7-7984-40d2-a40e-4e7e1107ae87" TYPE="ext4"

/dev/md127: UUID="O1FEOo-bM6d-3VIe-rD9V-KCuu-ADiS-fohVuO" TYPE="LVM2_member"

/dev/mapper/vg0-lv01: UUID="c20a74a9-611f-4fb1-9d27-404ae01b9c1d" TYPE="ext4"

[root@hlmcen69n2m0 ~]# cat /etc/fstab

# /etc/fstab

# Created by anaconda on Fri Jul  7 18:13:48 2017

#

# Accessible filesystems, by reference, are maintained under '/dev/disk'

# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info

#

UUID=db4773f9-7496-4b81-8fc6-895fd4ba32e2 /                      ext4    defaults        1 1

tmpfs                  /dev/shm                tmpfs  defaults        0 0

devpts                  /dev/pts                devpts  gid=5,mode=620  0 0

sysfs                  /sys                    sysfs  defaults        0 0

proc                    /proc                  proc    defaults        0 0

UUID=c20a74a9-611f-4fb1-9d27-404ae01b9c1d /mnt/lv01                      ext4    defaults        0 0

[root@hlmcen69n2m0 ~]# mount

/dev/sda1 on / type ext4 (rw)

proc on /proc type proc (rw)

sysfs on /sys type sysfs (rw)

devpts on /dev/pts type devpts (rw,gid=5,mode=620)

tmpfs on /dev/shm type tmpfs (rw,rootcontext="system_u:object_r:tmpfs_t:s0")

/dev/mapper/vg0-lv01 on /mnt/lv01 type ext4 (rw)

none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)

/dev/sdb1 on /mnt/resource type ext4 (rw)

可以成功查看到之前创建的已有数据文件 :

复制

[root@hlmcen69n2m0 ~]# cd /mnt/lv01/

[root@hlmcen69n2m0 lv01]# ll

total 20

drwx------. 2 root root 16384 Aug 31 08:25 lost+found

-rw-r--r--. 1 root root    17 Aug 31 08:28 test01.txt

[root@hlmcen69n2m0 lv01]# cat test01.txt

heliming

abcdefg

总结说明

通过上面的测试说明,托管磁盘挂载修复的步骤还是比较方便的,并且虚拟机中即使有 raid 或 lvm 也不用担心,重新创建后会自动重组,该文仅供参考,具体案例还需根据具体情况灵活应用。

相关文档

以删除重建的方式修复托管磁盘虚拟机

立即访问http://market.azure.cn

你可能感兴趣的:(以复制重建的方式修复托管磁盘虚拟机)