玩转 OpenStack(二)虚拟化原理简介

上节 玩转OpenStack(一)基本概念和安装KVM 中介绍了虚拟化分为两种类型,1型虚拟化和2型虚拟化。
介绍了KVM的安装和图形管理工具virt-manager。
本节讲介绍KVM的虚拟化原理。

一、CPU虚拟化

一个KVM虚拟机在宿主机中其实是一个qemu-kvm进程,与其他Linux进程一样被调度。

可以查看上节中创建的kvm虚拟机。

# virsh list
 Id    Name                           State
----------------------------------------------------
 2     kvm                            running

# ps -elf | grep kvm
1 S root        769      2  0  60 -20 -     0 rescue Feb11 ?        00:00:00 [kvm-irqfd-clean]
6 S libvirt+   7145      1  0  80   0 - 156077 poll_s Feb11 ?       00:01:15 qemu-system-x86_64 -enable-kvm -name kvm -S -machine 
pc-i440fx-trusty,accel=kvm,usb=off -m 100 -realtime mlock=off -smp 1,sockets=1,cores=1,threads=1 -uuid d9b635c8-f92c-baa4-f013-6a8c2aeb8cab 
-no-user-config -nodefaults -chardev socket,id=charmonitor,path=/var/lib/libvirt/qemu/kvm.monitor,server,nowait -mon chardev=charmonitor,id=monitor,mode=control 
-rtc base=utc -no-shutdown -boot strict=on -device piix3-usb-uhci,id=usb,bus=pci.0,addr=0x1.0x2 
-drive file=/var/lib/libvirt/images/cirros-0.3.3-x86_64-disk.img,if=none,id=drive-ide0-0-0,format=qcow2 
-device ide-hd,bus=ide.0,unit=0,drive=drive-ide0-0-0,id=ide0-0-0,bootindex=1 -netdev tap,fd=24,id=hostnet0 
-device rtl8139,netdev=hostnet0,id=net0,mac=52:54:00:72:6e:0d,bus=pci.0,addr=0x3 -chardev pty,id=charserial0 
-device isa-serial,chardev=charserial0,id=serial0 -vnc 127.0.0.1:0 -device cirrus-vga,id=video0,bus=pci.0,addr=0x2 
-device intel-hda,id=sound0,bus=pci.0,addr=0x4 -device hda-duplex,id=sound0-codec0,bus=sound0.0,cad=0 
-device virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x5

虚拟机中的每一个虚拟vCPU对应qemu-kvm进程中的一个线程,如下图


玩转 OpenStack(二)虚拟化原理简介_第1张图片
cpu虚拟化

在这个图中有两个虚拟机,每个虚拟机分别有2个和4个线程在两个物理CPU上调度。

当前vCPU总数量是超过了物理CPU的数量,这是CPU overcommit (超配)

二、内存虚拟化

KVM 通过内存虚拟化共享物理系统内存,动态分配给虚拟机。
如下图,两台虚拟机的情况

玩转 OpenStack(二)虚拟化原理简介_第2张图片
内存虚拟化

为了在一台机器上运行多个虚拟机,KVM需要实现 VA(虚拟内存) -> PA(物理内存) -> MA(机器内存) 之间的地址转换。虚拟机操作系统控制虚拟地址到客户内存物理地址的映射 (VA -> PA),但是虚拟机操作系统不能直接访问实际机器内存,因此KVM需要负责映射客户物理内存到实际机器内存 (PA -> MA)。

内存虚拟化的实现方式:

  • 软件方式:通过软件实现内存地址的翻译,比如 Shadow page table (影子页表)技术
  • 硬件实现:基于 CPU 的辅助虚拟化功能,比如 AMD 的 NPT 和 Intel 的 EPT 技术

三、存储虚拟化

KVM 的存储虚拟化通过存储池(Storage Pool)和卷(Volume)来管理的。Volume 是在 Storage Pool 中划分出来的一块空间,物理机将 Volume 分配给虚拟机,Volume在虚拟机中看到的就是一块硬盘。

存储池(Storage Pool)类型

1. 目录类型的 Storage Pool

KVM 将物理机目录 /var/lib/libvirt/images/ 作为默认的 Storage Pool。在这个目录下的一个文件就是一个 Volume。

  • Storage Pool 的默认设置在 /etc/libvirt/storage/default.xml 文件中,内容如下:

  default
  bd7c76a4-2ec0-d7a0-dfc4-ff0cb9332ca0
  0
  0
  0
  
  
  
    /var/lib/libvirt/images
    
      0711
      -1
      -1
    
  

其中:
是 Storage Pool 的类型
/var/lib/libvirt/images 是目录的路径。

  • 使用文件做 Volume 优点:存储方便、移植性好、可复制、可远程访问(远程文件系统,如NFS,分布式文件系统,GlusterFs)。

  • Volume 文件格式:

    1. raw 默认格式,移植性好,性能好,但是固定大小,不能节省磁盘空间。
    2. qcow2 推荐的格式,cow 表示 copy on write。能够节省磁盘空间。支持AES加密,支持zlib压缩,支持多快照等。
    3. vmdk 是VMWare的磁盘格式,也就是VMWare虚拟机可以直接在KVM上运行。
    4. qed 增强型磁盘
    5. vdi 是VirtualBox的磁盘格式
2. LVM 类型的 Storage Pool
a. LVM概念和安装

LVM 是逻辑盘卷管理(Logical Volume Manager)的简称。

他是磁盘管理的另一种工具,就目前基本上所有操作系统均支持,LVM是建立在硬盘和分区之上的一个逻辑层,来提高磁盘分区管理的灵活性。通过LVM系统管理员可以轻松管理磁盘分区。

如:将若干个磁盘分区连接为一个整块的卷组(volume group),形成一个存储池。管理员可以在卷组上随意创建逻辑卷组(logical volumes),并进一步在逻辑卷组上创建文件系统。

  • 物理卷(Physical Volume)
    物理卷就是指硬盘分区或从逻辑上与磁盘分区具有同样功能的设备(如RAID),是LVM的基本存储逻辑块,但和基本的物理存储介质(如分区、磁盘等)比较,却包含有与LVM相关的管理参数。

  • 卷组(Volume Group)
    LVM卷组类似于非LVM系统中的物理硬盘,其由物理卷组成。可以在卷组上创建一个或多个“LVM分区”(逻辑卷),LVM卷组由一个或多个物理卷组成。

  • 逻辑卷(Logical Volume)
    LVM的逻辑卷类似于非LVM系统中的硬盘分区,在逻辑卷之上可以建立文件系统(比如/home或者/usr等)。

b. LVM安装和简单操作
  • 安装
# apt-get install lvm2
  • LVM 创建VG
# vgcreate testvg /dev/sda5
  • 查看VG信息
# vgdisplay
  --- Volume group ---
  VG Name               testvg
  System ID
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               5.00 GiB
  PE Size               4.00 MiB
  Total PE              1279
  Alloc PE / Size       0 / 0
  Free  PE / Size       1279 / 5.00 GiB
  VG UUID               UxCUXQ-dlev-Omp0-DhMf-epf8-aGjF-FNLLP7
  • 删除VG
# vgremove testvg
c. LVM 类型的 Storage Pool

物理机上 VG 中的 LV 也可以作为虚拟磁盘分配给虚拟机使用。

不过,LV 由于没有磁盘的 MBR 引导记录,不能作为虚拟机的启动磁盘,只能作为数据盘使用。

LVM 类型的配置下,物理机上的 VG 就是一个 Storage Pool,VG 中的 LV 就是 Volume。

LV 的优点是由较好的性能;不足的地方是管理和移动性方面不如镜像文件,而且不能通过网络远程使用。

在目录/etc/libvirt/storage/中的配置文件 如下
文件名 HostVG.xml


  HostVG
  
    HostVG
    
  
  
    /dev/HostVg
  

四、网络虚拟化

网络虚拟化是虚拟化技术中最复杂的部分,本节从最基本的 Linux Bridge 和 VLan 开始介绍。

1. Linux Bridge

Linux Bridge 是 Linux 上用来做TCP/IP 二层协议交换的设备,功能可以简单的理解为一个二层交换机或者 Hub。

  • 当虚拟机要连接外网时,有两个方法:
  1. 将物理机网卡直接分配给虚拟机。但是,物理机就没有网卡了,其他虚拟机也没有网卡了。
  2. 给虚拟机创建一个虚拟网卡 vnet0,通过Linux Bridge -> br0 将 eth0 和 vent0 连接。如下图:


    玩转 OpenStack(二)虚拟化原理简介_第3张图片
  • 配置Linux bridge br0

编辑 /etc/network/interfaces 文件。
源文件如下

auto lo
iface lo inet loopback

auto eth0
iface eth0 inet dhcp

修改如下

auto lo
iface lo inet loopback

auto eth0
iface eth0 inet manual

auto br0
iface br0 inet dhcp
    bridge_stp off
    bridge_waitport 0
    bridge_fd 0
    bridge_ports eth0
  1. 物理机原来的网卡 eth0 配置是自动获取 ip dhcp,创建 Linux Bridge 后, IP 必须放到 br0 上了。
  2. 在 br0 的配置信息中注意 bridge_ports eth0 ,作用是将 eth0 挂到 br0 上。

重启后执行ifconfig,可以看到 IP 已经在 br0 上面了。

root@openstack:~# ifconfig
br0       Link encap:Ethernet  HWaddr 00:0c:29:45:5d:cb
          inet addr:172.16.245.134  Bcast:172.16.245.255  Mask:255.255.255.0
          inet6 addr: fe80::20c:29ff:fe45:5dcb/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:96 errors:0 dropped:0 overruns:0 frame:0
          TX packets:127 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:10632 (10.6 KB)  TX bytes:17550 (17.5 KB)

eth0      Link encap:Ethernet  HWaddr 00:0c:29:45:5d:cb
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:104 errors:0 dropped:0 overruns:0 frame:0
          TX packets:142 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:12504 (12.5 KB)  TX bytes:21389 (21.3 KB)

lo        Link encap:Local Loopback
          inet addr:127.0.0.1  Mask:255.0.0.0
          inet6 addr: ::1/128 Scope:Host
          UP LOOPBACK RUNNING  MTU:65536  Metric:1
          RX packets:16 errors:0 dropped:0 overruns:0 frame:0
          TX packets:16 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:1184 (1.1 KB)  TX bytes:1184 (1.1 KB)

virbr0    Link encap:Ethernet  HWaddr f2:19:a3:76:51:6f
          inet addr:192.168.122.1  Bcast:192.168.122.255  Mask:255.255.255.0
          UP BROADCAST MULTICAST  MTU:1500  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)

执行brctl show,可以看到 eth0 已经挂到 br0 上。

root@openstack:~# brctl show
bridge name bridge id       STP enabled interfaces
br0     8000.000c29455dcb   no      eth0
virbr0      8000.000000000000   yes
  • 启动之前创建的虚拟机
  1. 修改虚拟机网卡配置
玩转 OpenStack(二)虚拟化原理简介_第4张图片
修改虚拟机网卡配置
  1. 启动虚拟机
# virsh start kvm
  1. 查看 Linux Bridge。 会发下br0下面添加了一个设备 vnet0。
root@openstack:~# brctl show
bridge name bridge id       STP enabled interfaces
br0     8000.000c29455dcb   no      eth0
                                    vnet0
virbr0      8000.000000000000
  1. 查看虚拟机网卡
root@openstack:~# virsh domiflist kvm
Interface  Type       Source     Model       MAC
-------------------------------------------------------
vnet0      bridge     br0        rtl8139     52:54:00:c0:73:a2
  1. 通过 virt-manager 登录kvm。查看ip信息。


    玩转 OpenStack(二)虚拟化原理简介_第5张图片
    虚拟机kvm 网卡信息

    可以看到 IP 地址为 172.16.245.136 与物理机 172.16.245.134 在同一个网段。

  2. ping外网


    玩转 OpenStack(二)虚拟化原理简介_第6张图片
    ping外网
  • virbr0 网桥

在第一次执行brctl show时,会发现一个叫做 virbr0 的网桥。
virbr0 是 KVM 默认创建的,是为让连接在 virbr0 上的虚拟机网卡提供 NAT 访问。
virbr0 默认分配的 IP 是 192.168.122.1。为让连接在 virbr0 上的虚拟机网卡提供 DHCP 服务。

  1. 首先将虚拟机的网卡连接改为 NAT 。如下图


    玩转 OpenStack(二)虚拟化原理简介_第7张图片
    配置NAT
  2. 启动虚拟机

# virsh start kvm
  1. 查看网桥。 vent0 已经挂到 birbr0 上。
root@openstack:~# brctl show
bridge name bridge id       STP enabled interfaces
br0     8000.000c29455dcb   no      eth0
virbr0      8000.fe5400c073a2   yes     vnet0
  1. virbr0 使用 dnsmasq 提供的 DHCP 服务,可以在物理机进程中查到
root@openstack:~# ps -elf | grep dnsmasq
5 S libvirt+   2235      1  0  80   0 -  7053 poll_s 14:03 ?        00:00:00 /usr/sbin/dnsmasq --conf-file=/var/lib/libvirt/dnsmasq/default.conf

在目录 /var/lib/libvirt/dnsmasq/ 下有一个 default.leases 文件。当 虚拟机 kvm 成功获取 DHCP 的 IP 后,文件可以查到相应信息。

root@openstack:~# cat /var/lib/libvirt/dnsmasq/default.leases
1550388636 52:54:00:c0:73:a2 192.168.122.204 cirros 01:52:54:00:c0:73:a2

上面说 IP 192.168.122.204 已经分配给 MAC 地址为 52:54:00:c0:73:a2 的网卡。

  1. 登录 kvm 虚拟机,ping 外网


    玩转 OpenStack(二)虚拟化原理简介_第8张图片

说明:
使用 NAT 的虚拟机 kvm 可以访问外网,但外网无法直接访问 kvm。
因为 kvm 发出的网络包源地址并不是 192.168.122.204, 而是被 NAT 替换为宿主机的 IP 地址了。

五、VLAN

有关 LAN 和 VLAN的概念查看 Lan和Vlan的区别和原理。

  • KVM 虚拟化环境下的 VLAN
玩转 OpenStack(二)虚拟化原理简介_第9张图片

上图中:
eth0 是物理机上的物理网卡,有一个命名为 eth0.10 的子设备于之相连。
eth0.10 就是 VLAN 设备。他的 VLAN ID 是 VLAN 10。
eth0.10 挂在命名为 brvlan10 的 Linux Bridge 上,虚拟机 kvm 的虚拟网卡 vent0 也挂在 brvlan10 上。

最终效果:

  • 物理机用软件实现了一个交换机(虚拟交换机),上面定义了一个 VLAN10。
  • eth0.10,brvlan10 和 vnet0 都分别接到 VLAN10 的 Access 口。而 eth0 就是一个 Trunk 口。
  • kvm 通过 vent0 发出来的数据包被打上 VLAN10 的标签。

eth0.10 作用是:定义 VLAN10。
brvlan10 作用是:Bridge 上的其他网络设备自动加入到 VLAN10 中。

  • 配置 VLAN
  1. 编辑 /etc/network/interfaces

编辑前

auto lo
iface lo inet loopback

auto eth0
iface eth0 inet dhcp

编辑后

auto lo
iface lo inet loopback

auto eth0
iface eth0 inet dhcp

auto eth0.10
iface eth0.10 inet manual
    vlan-raw-device eth0

auto brvlan10
iface brvlan10 inet manual
    bridge_stp off
    bridge_waitport 0
    bridge_fd 0
    bridge_ports eth0.10

auto eth0.20
iface eth0.20 inet manual
    vlan-raw-device eth0

auto brvlan20
iface brvlan20 inet manual
    bridge_stp off
    bridge_waitport 0
    bridge_fd 0
    bridge_ports eth0.20
  1. 重启系统

  2. ifconfig 查看

root@openstack:~# ifconfig
brvlan10  Link encap:Ethernet  HWaddr 00:0c:29:45:5d:cb
          inet6 addr: fe80::20c:29ff:fe45:5dcb/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:24 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:3896 (3.8 KB)

brvlan20  Link encap:Ethernet  HWaddr 00:0c:29:45:5d:cb
          inet6 addr: fe80::20c:29ff:fe45:5dcb/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:24 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:3896 (3.8 KB)

eth0      Link encap:Ethernet  HWaddr 00:0c:29:45:5d:cb
          inet addr:172.16.245.134  Bcast:172.16.245.255  Mask:255.255.255.0
          inet6 addr: fe80::20c:29ff:fe45:5dcb/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:114 errors:0 dropped:0 overruns:0 frame:0
          TX packets:239 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:13040 (13.0 KB)  TX bytes:36646 (36.6 KB)

eth0.10   Link encap:Ethernet  HWaddr 00:0c:29:45:5d:cb
          inet6 addr: fe80::20c:29ff:fe45:5dcb/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:48 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:7792 (7.7 KB)

eth0.20   Link encap:Ethernet  HWaddr 00:0c:29:45:5d:cb
          inet6 addr: fe80::20c:29ff:fe45:5dcb/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:48 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:7792 (7.7 KB)
  1. brctl show 查看网桥配置信息
root@openstack:~# brctl show
bridge name bridge id       STP enabled interfaces
brvlan10        8000.000c29455dcb   no      eth0.10
brvlan20        8000.000c29455dcb   no      eth0.20
virbr0      8000.000000000000   yes
  1. 配置虚拟机网卡
玩转 OpenStack(二)虚拟化原理简介_第10张图片
配置虚拟机连接VLan

启动虚拟机

  1. brctl show 查看结果
root@openstack:~# brctl show
bridge name bridge id       STP enabled interfaces
brvlan10        8000.000c29455dcb   no      eth0.10
                            vnet0
brvlan20        8000.000c29455dcb   no      eth0.20
virbr0      8000.000000000000   yes

不同VLan 之间是相互隔离的。虚拟机kvm2 接入 brvlan20。将两台虚拟机的ip配置在同一个网段,相互是不能通讯的。

下一节讲介绍玩转OpenStack(三)架构、安装、screen

你可能感兴趣的:(玩转 OpenStack(二)虚拟化原理简介)