云计算day02-KVM

云计算day02-KVM_第1张图片

云计算的虚拟机不要挂起,不然上不了网

云计算day02-KVM_第2张图片
image

1. kvm虚拟机的桥接网络

默认的虚拟机网络是NAT模式,网段192.168.122.0/24

1.1 创建桥接网卡

创建桥接网卡命令

virsh iface-bridge eth0 br0

取消桥接网卡命令

virsh iface-unbridge br0

1.2 新虚拟机使用桥接模式

默认NAT模式
virt-install --virt-type kvm --os-type=linux --os-variant rhel7 --name web04 --memory 1024 --vcpus 1 --disk /opt/web04.qcow2 --boot hd --network network=default --graphics vnc,listen=0.0.0.0 --noautoconsole

桥接模式
virt-install --virt-type kvm --os-type=linux --os-variant rhel7 --name web04 --memory 1024 --vcpus 1 --disk /data/web04.qcow2 --boot hd --network bridge=br0 --graphics vnc,listen=0.0.0.0 --noautoconsole
创建链接克隆生成虚拟机磁盘文件
qemu-img  create  -f qcow2  -b 49-web01.qcow2 49-web04.qcow2

创建桥接网卡命令
virsh iface-bridge eth0 br0

新虚拟机使用桥接模式
virt-install --virt-type kvm --os-type=linux --os-variant rhel7 --name web05 --memory 1024 --vcpus 1 --disk /data/web04.qcow2 --boot hd --network  bridge=br0 --graphics vnc,listen=0.0.0.0 --noautoconsole
image
image

1.3 桥接和NAT原理图

image

1.4 将已有虚拟机网络修改为桥接模式

a:关机状态下修改虚拟机配置文件:
例如:virsh edit centos7
 


b:启动虚拟机,测试虚拟机网络

  
  

2. 热添加技术

热添加硬盘、网卡、内存、cpu

2.1 kvm热添加硬盘

临时生效

virsh attach-disk web01 /data/web01-add.qcow2 vdb --subdriver qcow2

永久生效 --config

virsh attach-disk web01 /data/web01-add.qcow2 vdb --subdriver qcow2 --config

临时剥离硬盘

virsh detach-disk web01 vdb

永久剥离硬盘

virsh detach-disk web01 vdb --config

2.2 扩容:

virsh shutdown web05
qemu-img resize web05.qcow2 100G
qemu-img info web05.qcow2 
virsh console web05

进入到kvm虚拟机
[root@localhost ~]# fdisk -l
[root@localhost ~]# mkfs.xfs  /dev/vdb
[root@localhost ~]# mount /dev/vdb /mnt/
/dev/vdb        100G   33M  100G   1% /mnt

kvm虚拟机硬盘扩容规范

1.在kvm虚拟机里把扩容盘的挂载目录,卸载掉
[root@localhost ~]# umount /mnt

2.在宿主机上剥离硬盘
[root@kvm01 /data]# virsh detach-disk web05 vdb
Disk detached successfully

3.在宿主机上调整容量
[root@kvm01 /data]# qemu-img resize web05.qcow2 200G
Image resized.

4.在宿主机上再次附加硬盘
[root@kvm01 /data]# virsh attach-disk web05 /data/web05.qcow2 vdb --subdriver qcow2
Disk attached successfully

5.在虚拟机里再次挂载扩容盘
[root@localhost ~]# mount /dev/vdb /mnt
[root@localhost ~]# df -h
/dev/vdb        100G   33M  100G   1% /mnt

6.在虚拟机里用xfs_growfs更新扩容盘超级块信息
[root@localhost ~]# xfs_growfs /dev/vdb 
data blocks changed from 26214400 to 52428800
[root@localhost ~]# df -h
/dev/vdb        200G   33M  200G   1% /m    扩容为200G

练习1:扩容kvm虚拟机的根分区

链接

关闭虚拟机
shutdown -h now

在宿主机上执行操作
[root@kvm01 /data]# qemu-img resize web04.qcow2 50G
[root@kvm02 /data]# qemu-img info web04.qcow2
image: web04.qcow2
file format: qcow2
virtual size: 50G (53687091200 bytes)
disk size: 439M
cluster_size: 65536
Format specific information:
    compat: 1.1
    lazy refcounts: false
    
[root@kvm02 /data]# virsh start web04
[root@kvm02 /data]# virsh console web04 
Connected to domain web04
Escape character is ^]
...
[root@localhost ~]#  df -h
[root@localhost ~]#  fdisk -l 
[root@localhost ~]# fdisk /dev/vda
Welcome to fdisk (util-linux 2.23.2).

Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.


Command (m for help): d
Selected partition 1
Partition 1 is deleted

Command (m for help): n
Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p): p
Partition number (1-4, default 1): 
First sector (2048-104857599, default 2048): 
Using default value 2048
Last sector, +sectors or +size{K,M,G} (2048-104857599, default 104857599): 
Using default value 104857599
Partition 1 of type Linux and of size 50 GiB is set

Command (m for help): w
The partition table has been altered!

Calling ioctl() to re-read partition table.

WARNING: Re-reading the partition table failed with error 16: Device or resource busy.
The kernel still uses the old table. The new table will be used at
the next reboot or after you run partprobe(8) or kpartx(8)
Syncing disks.

[root@localhost ~]# reboot      重新添加分区后重启
[root@localhost ~]# xfs_growfs /dev/vda1    更新超级块
[root@localhost ~]# df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/vda1        50G  915M   50G   2% /

2.3kvm虚拟机在线热添加和删除网卡

创建虚拟机:
[root@kvm01 /data]# virsh destroy web04
[root@kvm01 /data]# virsh undefine web04
[root@kvm01 /data]# virt-install --virt-type kvm --os-type=linux --os-variant rhel7 --name web04 --memory 1024,maxmemory=2048 --vcpus 1 --disk /data/web04.qcow2 --boot hd --network bridge=br0 --graphics vnc,listen=0.0.0.0 --noautoconsole

在宿主机上添加网卡:
virsh attach-interface web04 bridge br0
virsh attach-interface web04 bridge br0 --model  virtio
# --model virtio    此产参数可以修改网卡名称为eth*

在宿主机上删除网卡:删除虚拟机每张网卡的mca地址
virsh detach-interface web04 bridge --mac 52:54:00:68:68:40
virsh detach-interface web04 bridge --mac 52:54:00:a8:72:44
# 只剩下一块网卡时不需要加mac地址,直接删除即可


上面的操作临时生效,下次重启后恢复,可以添加--config参数使永久生效
virsh attach-interface web04 bridge br0 --model  virtio --config

image
image

2.4 kvm虚拟机在线热添加内存

临时热添加内存
virsh setmem web03 1024M 
永久增大内存
virsh setmem web03 1024M --config
删除web03这台虚拟机:
[root@kvm02 /data]# virsh destroy web03
[root@kvm02 /data]# virsh undefine web03 

再次创建web03虚拟机 设置最大内存maxmemory=2048:
[root@kvm02 /data]# virt-install --virt-type kvm --os-type=linux --os-variant rhel7 --name web03 --memory 512,maxmemory=2048 --vcpus 1 --disk /data/web03.qcow2 --boot hd --network bridge=br0 --graphics vnc,listen=0.0.0.0 --noautoconsole
[root@kvm02 /data]# virsh list
 Id    Name                           State
----------------------------------------------------
 2     web04                          running
 4     web03                          running

连接web03查看内存情况
[root@kvm02 /data]# virsh console web03 
...
[root@localhost ~]# free -m
              total        used        free      shared  buff/cache   available
Mem:            465          63         297           8         104         280
Swap:             0           0           0

在宿主机上修改内存大小为1024M
[root@kvm02 /data]# virsh setmem web03 1024M

在web03虚拟机上查看内存已经变大了
[root@localhost ~]# free -m
              total        used        free      shared  buff/cache   available
Mem:            977          63         808           8         104         791
Swap:             0           0           0

再增加为2048M
[root@kvm02 /data]# virsh setmem web03 2048M

再次查看虚拟机内存变大了
[root@localhost ~]# free -m
              total        used        free      shared  buff/cache   available
Mem:           2001          63        1832           8         104        1816
Swap:             0           0           0


1.如果修改的内存超过了设置的最大值,则报错
[root@kvm02 /data]# virsh setmem web03 4096M
error: invalid argument: cannot set memory higher than max memory

2.如果将虚拟机关机后增加内存是可以调整的,但是超过宿主机的最大内存的话,会导致不能启动
3.如果修改的内存过小,则会让虚拟机奔溃掉

2.5 kvm虚拟机在线热添加cpu

setvcpus    核心数
setvcpu     特性

热添加cpu核数
virsh setvcpus web04 4 
永久添加cpu核数
virsh setvcpus web04 4 --config
image
先把虚拟机web03删除掉:
virsh destroy web03 
virsh undefine web03 

创建web03虚拟机:
[root@kvm02 /data]# virt-install --virt-type kvm --os-type=linux --os-variant rhel7 --name web03 --memory 512,maxmemory=2048 --vcpus 1,maxvcpus=10 --disk /data/web03.qcow2 --boot hd --network bridge=br0 --graphics vnc,listen=0.0.0.0 --noautoconsole

登录到虚拟机web03查看cpu核心数
[root@kvm02 /data]# virsh console web03 
...
[root@localhost ~]# lscpu |head -5
Architecture:          x86_64
CPU op-mode(s):        32-bit, 64-bit
Byte Order:            Little Endian
CPU(s):                1    #当前为1核心
On-line CPU(s) list:   0

在宿主机上增加web03虚拟机的cpu核心数为2核
[root@kvm02 /data]# virsh setvcpus web03 2

查看虚拟机web03的cpu核心数
[root@localhost ~]# lscpu |head -5
Architecture:          x86_64
CPU op-mode(s):        32-bit, 64-bit
Byte Order:            Little Endian
CPU(s):                2        #改为2核心
On-line CPU(s) list:   0,1

修改虚拟机的cpu核心数为4核
[root@kvm02 /data]# virsh setvcpus web03 4

再次查看虚拟机cpu
[root@localhost ~]# lscpu |head -5
Architecture:          x86_64
CPU op-mode(s):        32-bit, 64-bit
Byte Order:            Little Endian
CPU(s):                4
On-line CPU(s) list:   0-3
云计算day02-KVM_第3张图片
image

3. 热迁移 (共享的网络文件系统)

kvm虚拟机热迁移资料
web04.qcow2 的环境下载链接: 提取码: sw23

冷迁移
1.关机
2.备份配置文件
3.scp传输配置文件和磁盘文件,传输到新的宿主机
4.virsh define web04.xml
5.启动

热迁移
kvm虚拟机:配置文件,nfs共享


详细步骤

环境要求:
主机名 ip 内存 网络 软件需求 虚拟化
kvm01 10.0.0.11 2G 创建br0桥接网卡 kvm和nfs 开启虚拟化
kvm02 10.0.0.12 2G 创建br0桥接网卡 kvm和nfs 开启虚拟化
nfs01 10.0.0.31 1G nfs

kvm虚拟机热迁移大体步骤规划

  • 两边的环境(桥接网卡)
  • 实现共享存储(nfs)
  • 虚拟机桥接网络
  • 在线热迁移

注意:需要互相做好host解析 ↓

不然后面可能有报错,会因为主机名重复吗,
修改主机名:
hostnamectl set-hostname kvm01 或 kvm02

kvm01和kvm02宿主机都添加host解析:
[root@kvm01 ~]# cat /etc/hosts
192.168.37.202 mirrors.aliyun.com
10.0.0.11 kvm01
10.0.0.12 kvm02

scp -rp /etc/hosts 10.0.0.12:/etc/

3.1 清理当前的宿主机环境,保证一个干净的环境测试

保留一个配置文件web04.qcow2,将/opt/下和/data/下的其余全部删除掉

[root@kvm01 ~]# rm -rf /opt/*
[root@kvm01 ~]# mv /data/web04.qcow2 /opt/
[root@kvm01 ~]# rm -rf  /data/*
[root@kvm01 ~]# mv /opt/web04.qcow2 /data/
[root@kvm01 ~]# ll /data/
total 450688
-rw-r--r-- 1 qemu qemu 459800576 Sep  3 17:08 web04.qcow2

删除所有的配置文件:
[root@kvm01 /data]# rm -rf /etc/libvirt/qemu/*.xml
[root@kvm01 /data]# systemctl restart libvirtd
[root@kvm01 /data]# virsh list --all
 Id    Name                           State
----------------------------------------------------
\\没有虚拟机了

#想kvm01宿主机关机
[root@kvm01 /data]# shutdown -h now

3.2 调整宿主机 并克隆第二台kvm02宿主机和nfs01共享主机

调整内存大小后,克隆两台主机,分别为kvm02和nfs01

image

image

开机后修改IP地址并重启网卡

因为是桥接网卡,索引网卡修改路径是
vim /etc/sysconfig/network-scripts/ifcfg-br0
systemctl restark network

kvm01 默认 10.0.0.11
kvm02 修改为10.0.0.12
nfs01 修改为10.0.0.31

3.3 给三台主机同时安装nfs环境

yum install nfs-utils rpcbind 

如果没有网络可能是dhcp的原因,暂时关掉

image

3.4 配置nfs服务端(nfs01上)

添加配置文件(async异步同步,性能更高)
[root@nfs01 ~]# vim /etc/exports
/data  10.0.0.0/24(rw,async,no_root_squash,no_all_squash)

重启
[root@nfs01 ~]# systemctl restart rpcbind
[root@nfs01 ~]# systemctl restart nfs

创建/data目录
[root@nfs01 ~]# mkdir /data

去kvm01和02上检查是否连接nfs
[root@kvm01 /data]#  showmount -e 10.0.0.31
Export list for 10.0.0.31:
/data 10.0.0.0/24

[root@kvm02 /data]#  showmount -e 10.0.0.31
Export list for 10.0.0.31:
/data 10.0.0.0/24

3.5 挂载并测试

kvm01上:
[root@kvm01 ~]# mount -t nfs 10.0.0.31:/data/ /data/
[root@kvm01 ~]# df -h
10.0.0.31:/data   48G  2.2G   46G   5% /data


kvm02上:
[root@kvm02 /data]# mount -t nfs 10.0.0.31:/data/ /data/
[root@kvm02 /data]# df -h
10.0.0.31:/data   48G  2.2G   46G   5% /data


查看nfs01的/data目录是否同步之前的文件:
[root@nfs01 ~]# ll -h /data/
total 446M
-rw-r--r-- 1 107 107 6.3M Sep  3 22:14 web03.qcow2
-rw-r--r-- 1 107 107 439M Sep  3 22:24 web04.qcow2

3.6 将虚拟机从kvm02宿主机迁移到kvm01宿主机上

虚拟机都在kvm02上:
[root@kvm02 /data]# virsh list 
 Id    Name                           State
----------------------------------------------------
 2     web04                          running
 6     web03                          running


当前的kvm01上没有虚拟机:
[root@kvm01 ~]# virsh list --all
 Id    Name                           State
----------------------------------------------------

执行迁移的命令 (将kvm02上的web03迁移到10.0.0.11宿主机上)
[root@kvm02 /data]# virsh migrate --live --verbose web03 qemu+ssh://10.0.0.11/system --unsafe
[email protected]'s password: 
Migration: [100 %]

在kvm01上查看web03虚拟机已迁移过来了
[root@kvm01 ~]# virsh list
 Id    Name                           State
----------------------------------------------------
 3     web03                          running

登录web03上修改网卡配置文件
[root@kvm01 ~]# virsh console web03 
[root@localhost ~]# sed -i 's#dhcp#static#' /etc/sysconfig/network-scripts/ifcfg-eth0

添加下面的内容到网卡配置中
IPADDR=10.0.0.129
GATEWAY=10.0.0.254
NETMASK=255.255.255.0
DNS1=223.5.5.5

重启网卡
systemctl restart network

3.7 再次将迁移过到kvm01上的web03虚拟机迁移回kvm02上

迁移到10.0.0.12的kvm02宿主机上:
[root@kvm01 ~]# virsh migrate --live --verbose web03 qemu+ssh://10.0.0.12/system --unsafe
[email protected]'s password: 
Migration: [100 %]
[root@kvm01 ~]# virsh list
 Id    Name                           State
----------------------------------------------------


在kvm02宿主机上查看已经迁移回来了:
[root@kvm02 /data]# virsh list 
 Id    Name                           State
----------------------------------------------------
 2     web04                          running
 7     web03                          running

迁移过程中会丢包

image


4. 安装ESXI并安装一台虚拟机

4.1 安装ESXI

新建虚拟机

image

添加镜像
镜像网盘提取码: mhtx
VMware-viclient网盘下载链接 提取码: jfcr

image

image

image

image

image
image

image

image

image

image
image
image
image

image

image

image

image

用VMware vSphere软件连接

image

image

image

image

image

image

image

image

image

image

image

image

image

image

image

ESXI的常用配置

开启ssh功能

image
image
image

点击启动后去控制台操作

image

4.2 下面是按照centos6的步骤

image

image

image

image

image

image

image

image

image

image

image

image

image

等待安装好后就可以操作使用了

5. 练习

5.1 将kvm虚拟机迁移到esxi上

qemu-img convert -f qcow2 oldimage.qcow2 -O vmdk newimage.vmdk
#可能不需要
vmkfstools -i oldimage.vmdk newimage.vmdk -d thin

5.2 将ESXI虚拟机迁移到kvm上

将虚拟机导出ova文件
virt-v2v -i ova centos-dev-test01-v2v.ova -o local -os /opt/test -of qcow2

5.3 问题与需求总结

kvm宿主机 2000台
查看每一个宿主机有多少台虚拟机?
查看每一个宿主机还剩多少资源?
查看每一台宿主机,每一个虚拟机的ip地址? excel 资产管理
kvm管理平台,数据库工具
信息:宿主机,总配置,剩余的总配置
虚拟机的信息,配置信息,ip地址,操作系统
带计费功能的kvm管理平台,openstack ceilometer计费 ecs IAAS层
自动化管理kvm宿主机,云主机定制化操作
服务器, 20核心 1T内存 96T
资源浪费,linux环境特别乱,,kvm虚拟机

你可能感兴趣的:(云计算day02-KVM)