二、安装计算节点
计算节点需要三块网卡,eth0、eth1 就接公网和内网网段,eth2相连的交换机要打开trunk
安装NTP服务
- apt-get -y install ntp
编辑 /etc/ntp.conf, 指向控制节点
- sed -i -e " s/server ntp.ubuntu.com/server 192.168.4.164/g" /etc/ntp.conf
重启服务
- service ntp restart
配置 cat /etc/resolv.conf 文件
- nameserver 192.168.4.164 //控制机内网ip
安装Hypervisor
- apt-get install -y kvm libvirt-bin pm-utils
编辑 /etc/libvirt/qemu.conf ,添加下面内容
- cgroup_device_acl = [
- "/dev/null", "/dev/full", "/dev/zero",
- "/dev/random", "/dev/urandom",
- "/dev/ptmx", "/dev/kvm", "/dev/kqemu",
- "/dev/rtc", "/dev/hpet","/dev/net/tun",
- ]
允许迁移
编辑 /etc/libvirt/libvirtd.conf, 去掉这三行的注释
- listen_tls = 0
- listen_tcp = 1
- auth_tcp = "none"
或者运行下面命令
- sed -i '/#listen_tls/s/#listen_tls/listen_tls/; /#listen_tcp/s/#listen_tcp/listen_tcp/; /#auth_tcp/s/#auth_tcp/auth_tcp/; /auth_tcp/s/sasl/none/' /etc/libvirt/libvirtd.conf
编辑 /etc/init/libvirt-bin.conf
- env libvirtd_opts="-d -l"
或者使用命令
- sed -i '/env libvirtd_opts/s/-d/-d –l/' /etc/init/libvirt-bin.conf
编辑 /etc/default/libvirt-bin
- libvirtd_opts="-d -l"
或者使用命令
- sed -i '/libvirtd_opts/s/-d/-d -l/' /etc/default/libvirt-bin
重启服务
- service libvirt-bin restart
安装nova服务
配置eth2网卡开机自动up
编辑/etc/network/interfaces
- auto eth2
- iface eth2 inet manual
- pre-up ifconfig eth2 up
/etc/init.d/networking restart
安装 nova
- sudo apt-get install nova-compute nova-network nova-api python-keystone novnc bridge-utils
注意:/etc/nova 这个目录的权限,安装完成后有时会出现这个目录的权限问题,这个目录属于nova 用户
编辑/etc/nova/nova.conf
- [DEFAULT]
- logdir=/var/log/nova
- state_path=/var/lib/nova
- lock_path=/run/lock/nova
- verbose=False
- api_paste_config=/etc/nova/api-paste.ini
- scheduler_driver=nova.scheduler.simple.SimpleScheduler
- s3_host=192.168.4.164
- ec2_host=192.168.4.164
- ec2_dmz_host=192.168.4.164
- rabbit_host=192.168.4.164
- rabbitrabbit_password=rabbit-pass
- cc_host=192.168.4.164
- nova_url=http://192.168.4.164:8774/v1.1/
- sql_connection=mysql://nova:[email protected]/nova
- ec2_url=http://192.168.4.164:8773/services/Cloud
- root_helper=sudo nova-rootwrap /etc/nova/rootwrap.conf
- # Auth
- use_deprecated_auth=false
- auth_strategy=keystone
- keystone_ec2_url=http://192.168.4.164:5000/v2.0/ec2tokens
- # Imaging service
- glance_api_servers=192.168.4.165:9292
- p_w_picpath_service=nova.p_w_picpath.glance.GlanceImageService
- # Vnc configuration
- novnc_enabled=true
- novncproxy_base_url=http://0.0.0.0:6080/vnc_auto.html
- novncproxy_port=6080
- vncserver_proxyclient_address=0.0.0.0
- vncserver_listen=0.0.0.0
- # Network settings
- #network_api_class=nova.network.quantumv2.api.API
- #quantum_url=http://192.168.4.164:9696
- #quantum_auth_strategy=keystone
- #quantum_admin_tenant_name=service
- #quantumquantum_admin_username=quantum
- #quantum_admin_password=
- #quantum_admin_auth_url=http://192.168.4.164:35357/v2.0
- #libvirt_vif_driver=nova.virt.libvirt.vif.LibvirtHybridOVSBridgeDriver
- #linuxnet_interface_driver=nova.network.linux_net.LinuxOVSInterfaceDriver
- #firewall_driver=nova.virt.libvirt.firewall.IptablesFirewallDriver
- ###### NETWORK
- #network_manager=nova.network.manager.FlatDHCPManager
- network_manager=nova.network.manager.VlanManager
- force_dhcp_release=True
- dhcpbridge_flagfile=/etc/nova/nova.conf
- dhcpbridge=/usr/bin/nova-dhcpbridge
- firewall_driver=nova.virt.libvirt.firewall.IptablesFirewallDriver
- public_inter>
- flat_inter>
- vlan_inter>
- flat_network_bridge=br100
- fixed_range=10.100.0.0/24
- multi_host=true
- # Compute #
- #compute_driver=libvirt.LibvirtDriver
- ###### COMPUTE
- libvirt_type=kvm
- #libvirt_type=qemu
- connection_type=libvirt
- instanceinstance_name_template=instance-%08x
- api_paste_config=/etc/nova/api-paste.ini
- allow_resize_to_same_host=True
- libvirt_use_virtio_for_bridges=true
- #start_guests_on_host_boot=true
- #resume_guests_state_on_host_boot=true
- # Cinder #
- volume_api_class=nova.volume.cinder.API
- osapi_volume_listen_port=5900
所有计算节点配置一样,配置中的ip需要注意
重启服务
- restart nova-compute
- restart nova-network
- restart nova-api
在控制节点上运行
nova-manage service list
状态是 :-) 的表示正常。
创建虚拟机网络
因为我们使用的VlanManager ,创建网络的过程中要制定vlan id,使用vlan,在nova.conf 有两个配置
- vlan_interface=eth0
- network_manager=nova.network.manager.VlanManager
查看tenant
- keystone tenant-list
这里会列出最一开始创建的tenant : openstackDemo , service下面指定vlan给哪个tenant是 openstackDemo 可以使用, service最好别用,service表示服务容器。
创建网络
- nova-manage network create private --multi_host=T --fixed_range_v4=192.168.195.0/28 --vlan=2 --project_id=<tenant_id> --num_networks=1 --network_size=<ip个数>
注意: 上面创建网络的时候,可以指定参数 --project_id= ,就会把相应的网络分配给特定的tenant , 为 tenant 的ID 。这个参数可以不指定,这样创建的vlan网段,就不会被立刻分配出去,但是,当有tenant 需要vlan网段时,这些没有被分配出去的vlan网段会被自动分配给没有网段的tenant的,这样随机性会比较大一些。
查看创建的网络
- nova-manage network list
删除网络
- nova-manage project scrub --project=<tenant_id>
- nova-manage network delete --uuid=<uuid_id>
使用新创建的tenant 和user 使用source 生效变量 新建虚拟机就属于那个tenant
- export OS_USERNAME=seconduser
- export OS_TENANT_NAME=secondtenant
- export OS_PASSWORD=password
- export OS_AUTH_URL=http://192.168.4.164:5000/v2.0/
- export OS_REGION_NAME=RegionOne
以后要使用哪个tenant 就加载那个tenant的环境变量
创建虚拟机
创建虚拟机之前,要注意把nova.conf 里配置的vlan端口起来,这里是eth0
ifconfig eth0 up
否则的话,下面创建虚拟机时会失败,因为会创建一个vlan端口, 把vlan端口绑定在eth0上, 如果eth0没有起来,那么相应的vlan端口也是起不来的,就会出错。
注意:因为nova.conf配置中把虚拟机内网IP绑定到eth0上,请确保连接网连,状态为UP,在控制机上能解析计算机节点的主机名,计算节点更改BIOS 支持HVM
nova boot *****
查看帮助 nova help boot
例子:
- nova boot –p_w_picpath 0912cd43-a5dd-4719-8b0f-3c1ebff77fa5 --flavor 1 "test_name"
--p_w_picpath 参数是使用哪个镜像来创建虚拟机,使用 nova p_w_picpath-list查看
--flavor 参数是使用多大内存、cpu等参数的模块,使用nova flavor-list查看
或者,加一个ssh登录密钥
key 创建
- nova keypair-add key_name > mykey.pem
查看
key
- nova keypair-list
删除
key
- nova keypair-delete <name>
使用key登入的方式 创建虚拟机
- nova boot --p_w_picpath 0912cd43-a5dd-4719-8b0f-3c1ebff77fa5 --flavor 2 "test_name” --key_name key_name
查看虚拟机列表
- nova list
查看vm列表
- nova-manage vm list
删除虚拟机
- nova delete <id>
重启虚拟机
- nova reboot <id>
会发现新创建的虚拟机分配的ip地址在第一个vlan里面
再次创建一个新的tenant和user ,再用这个新的tenant 和user 创建虚拟机
则第二个vlan 被分配到这个tenant里面了
要删除一个网桥时
- vconfig rem vlan2
- ifconfig virbr0 down
- brctl delbr virbr0
查看开放端口:
- nova secgroup-list-rules default
打开所有端口:
- nova secgroup-add-rule default icmp -1 -1 0.0.0.0/0
- nova secgroup-add-rule default tcp 1 65535 0.0.0.0/0
- nova secgroup-add-rule default udp 1 65535 0.0.0.0/0
查看资源限制
- nova-manage project quota "$tid"
更改tenant 资源限制
- tid=1dc31a6445a64373939825ae546bd896 (tenant_id)
- nova-manage project quota "$tid" volumes 1000
- nova-manage project quota "$tid" gigabytes 10000
- nova-manage project quota "$tid" ram 5120000
- nova-manage project quota "$tid" instances 5120000
- nova-manage project quota "$tid" floating_ips 5120000
- nova-manage project quota "$tid" cores 5120000
创建floating_ip
- nova-manage floating create --ip_range=192.168.3.160/27
创建使用的floating_ip
- nova floating-ip-create
绑定到虚拟机
- nova add-floating-ip <server> <address>
从虚拟机移除
- nova remove-floating-ip <server> <address>
删除使用的floating_ip
- nova floating-ip-delete <address>
查看使用floating_ip
- nova floating-ip-list
查看所有floating_ip
- nova-manage floating list
如果虚拟启动后同网段无法ping 通 重启计算节点的restart
libvrit-bin后会出现virbr0 设备 在重启restart nova-network
三、安装nfs实现动态迁移:
动态迁移需要配置各个资源机之间的libvirtd ,能够监听到网络上传来的数据,并且这里的实现方式使用NFS
环境:
compute-01.test.com 和compute-02.test.com是两台资源机
使用共享存储nfs , 将存储服务器compute-02.test.com上的/storage挂载到compute-01.test.com /user/lib/nova/instances 目录下。
注意:如果两台资源机上的nova用户的uid不一致,或者libvirt-* 用户的uid不一致,迁移的过程中就会出现权限问题。
还要注意要能ping 各个计算节点的主机名,这个可以通过修改 /etc/hosts 文件来实现
ping HostA
ping HostB
ping HostC
注意:控制节点不能在hosts中写本机内网IP的对应关系,要不mysql 使用内网ip登入不上
在ubunt2上配置nfs ,
- apt-get install nfs-kernel-server
使用fdisk 把磁盘分出一个分区挂载到 /storage
修改文件 /etc/exports ,添加
- /storage *(rw,sync,no_root_squash)
更改宿主
- chown nova:nova / storage
- /etc/init.d/nfs-kernel-server restart
- /etc/init.d/idmapd restart (貌似跟uid 和用户名的对应有关,必需的)
在所有计算节点安装客户端
- apt-get install nfs-common
修改 /etc/fstab
- 192.168.4.166:/storage /var/lib/nova/instances nfs4 defaults 0 0
挂载
mount -av
挂载成功
查看宿主是否为nova
- ll -d /var/lib/nova/instances
迁移过程中,最开始测试的两台物理主机的cpu不一样,然后迁移中从A主机迁到B主机成功,但是从B主机迁到A主机失败,报错是cpu信息不一致
。最好各个计算节点型号都是一致的
nova live-migration
四、resize 功能
默认情况下运行resize时,openstack会通过 scheduler 服务选出一个节点来,把resize
之后的虚拟机运行在其上面,这样有一个问题,所有的物理机之间需要配置ssh信任关系,因为做这样的resiize的时候,需要ssh登录到目的主机上,否则如果登录不到目的主机上,resize就会报错。
建立计算节点之间的信任关系
- ssh-keygen -t rsa //直接回车使用默认就可以
- ssh-copy-id -i ~/.ssh/id_rsa.pub '-p20009 [email protected]'
- scp –P20009 ~/.ssh/id_rsa [email protected]: /root/.ssh/
注意 需要把
[email protected]: /root/.ssh/authorized_keys 拷贝到 165上面
查看flavors列表
- nova flavor-list
为虚拟机增加内存,cpu等
- nova resize <server> <flavor>
虚拟机状态为VERIFY_RESIZE时执行
- nova resize-confirm <server id>
如果不运行 resize-confirm 24小时之后自动resize-confirm ,在这个状态下可以把 resize撤销,也可以把resize 确认