Chapter 2 OpenStack基本环境设置
2.1 实验环境
这里使用虚拟机方式配置OpenStack架构:
首先物理主机安装的操作系统是CentOS6.5 x86_64,使用的虚拟化软件是VMware WorkStation 10
虚拟机网络设置如下:
在物理机上的虚拟网卡的信息如下:
vmnet1 Link encap:Ethernet HWaddr 00:50:56:C0:00:01
inet addr:10.0.0.1 Bcast:10.0.0.255 Mask:255.255.255.0
inet6 addr: fe80::250:56ff:fec0:1/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:712764 errors:0 dropped:0 overruns:0 frame:0
TX packets:4453502 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)
vmnet2 Link encap:Ethernet HWaddr 00:50:56:C0:00:02
inet addr:10.0.1.1 Bcast:10.0.1.255 Mask:255.255.255.0
inet6 addr: fe80::250:56ff:fec0:2/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:11112 errors:0 dropped:0 overruns:0 frame:0
TX packets:14 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)
vmnet8 Link encap:Ethernet HWaddr 00:50:56:C0:00:08
inet addr:203.0.113.1 Bcast:203.0.113.255 Mask:255.255.255.0
inet6 addr: fe80::250:56ff:fec0:8/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:207556 errors:0 dropped:0 overruns:0 frame:0
TX packets:373 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)
注意,vmnet8为NAT网络,用于与外部网络进行通信。
实验环境拓扑图如下:
2.2 (虚拟机)初始设置
2.2.1 网卡名称修改
由于安装OpenStack的Kilo版本,这里虚拟机选用的操作系统是CenOS7 x86_64。需要注意的是网卡的设置,在CentOS7中将使用命名空间的方式来管理网络接口名称,如果需要改为传统的管理方式,请进行下面的操作:
[root@localhost ~]# cd /etc/sysconfig/network-scripts/
[root@localhost network-scripts]# mv ifcfg-eno16777736 ifcfg-eth0
[root@localhost network-scripts]# vi ifcfg-eth0
TYPE=Ethernet
BOOTPROTO=static
DEVICE=eth0
ONBOOT=yes
IPADDR=10.0.0.11
NETMASK=255.255.255.0
[root@localhost ~]# vi /etc/default/grub
GRUB_CMDLINE_LINUX="rd.lvm.lv=vgsys/swap rd.lvm.lv=vgsys/root net.ifnames=0 biosdevname=0 crashkernel=auto rhgb quiet"
[root@localhost ~]# grub2-mkconfig -o /boot/grub2/grub.cfg
[root@localhost ~]# reboot
由于没有ifcfg等网络管理工具,这里需要安装相应的软件包net-tools:
[root@localhost ~]# yum -y install net-tools
2.2.2 修改主机名并关闭防火墙、SELinux
[root@localhost ~]# hostnamectl set-hostname controller
[root@controller ~]# systemctl disable firewalld
[root@controller ~]# systemctl stop firewalld
[root@controller ~]# vi /etc/sysconfig/selinux
SELINUX=disabled
[root@controller ~]# reboot
2.3 节点网络设置
使用Neutron网络的示例架构要求:
一个控制节点:包括一个属于管理网络的网卡。注意,这里的实际环境将为控制节点多配置一个属于NAT网段的网卡,用于连接外网,将OpenStack所需要的所有软件包制作成软件源,通过HTTP方式从控制节点进行发布,稍后介绍配置过程
一个网络节点:包括一个属于管理网络的网卡、一个用于(与计算节点进行)隧道通信的网卡、一个连接外网的网卡
至少一个计算节点(实验环境使用了两台):博客一个素颜管理网络的网卡、一个用于(与网络节点进行)隧道通信的网卡
2.3.1 配置各节点网络接口
这里以控制节点为例:
[root@controller ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0
TYPE=Ethernet
BOOTPROTO=static
DEVICE=eth0
ONBOOT=yes
IPADDR=10.0.0.11
NETMASK=255.255.255.0
[root@controller ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1
TYPE=Ethernet
BOOTPROTO=static
DEVICE=eth1
ONBOOT=yes
IPADDR=203.0.113.11
NETMASK=255.255.255.0
GATEWAY=203.0.113.2
DNS1=203.0.113.2
测试外网连通性:
[root@controller ~]# ping -c 4 openstack.org
PING openstack.org (162.242.140.107) 56(84) bytes of data.
64 bytes from 162.242.140.107: icmp_seq=1 ttl=128 time=285 ms
64 bytes from 162.242.140.107: icmp_seq=2 ttl=128 time=286 ms
64 bytes from 162.242.140.107: icmp_seq=3 ttl=128 time=291 ms
64 bytes from 162.242.140.107: icmp_seq=4 ttl=128 time=296 ms
--- openstack.org ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3003ms
rtt min/avg/max/mdev = 285.180/290.095/296.684/4.551 ms
网络节点和计算节点配置方式相同,配置完毕后可以对每个节点都进行ping测试。
2.3.2 添加主机名解析
在控制节点上设置/etc/hosts文件:
[root@controller ~]# cat /etc/hosts
10.0.0.11 controller
10.0.0.21 network1
10.0.0.31 compute1
10.0.0.32 compute2
将其复制到其他节点中,如果后面有新的服务器加入到OpenStack环境,加到/etc/hosts即可,当然也可以通过DNS方式对主机名称进行管理,由于环境机器需求不多,所以暂时不考虑。
另外,为了管理方便,在控制节点通过命令ssh-keygen -t rsa创建公钥/root/.ssh/id_rsa.pub,并将其发布到其他节点上命名为authorized_keys来实现SSH无密码登录。(不作详解)
2.4 创建网络yum源
将OpenStack所需要所有软件包下载到/all-packages-source目录中,然后安装HTTP服务将目录发布出去:
[root@controller ~]# yum -y install http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-5.noarch.rpm
[root@controller ~]# yum -y install http://rdo.fedorapeople.org/openstack-kilo/rdo-release-kilo.rpm
[root@controller ~]# wget -P \
/etc/yum.repos.d http://download.gluster.org/pub/gluster/glusterfs/LATEST/CentOS/glusterfs-epel.repo
[root@controller ~]# mkdir /all-packages-source
[root@controller ~]# yum -y install Pakcage_Name --downloadonly --downloaddir=/all-packages-source
[root@controller ~]# yum -y install createrepo
[root@controller ~]# createrepo /all-packages-source/
[root@controller ~]# yum -y install httpd
[root@controller ~]# ln -s /all-packages-source/ /var/www/html/
[root@controller ~]# systemctl start httpd
[root@controller ~]# systemctl enable httpd
[root@controller ~]# vi /etc/yum.repos.d/all-packages-source.repo
[all-packages-source]
name=all-packages-source
baseurl=http://10.0.0.11/all-packages-source
enabled=1
gpgcheck=0
[root@controller ~]# yum clean all; yum repolist
[root@controller ~]# yum repolist
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
* base: centos.ustc.edu.cn
* epel: mirror01.idc.hinet.net
* extras: centos.ustc.edu.cn
* updates: centos.ustc.edu.cn
repo id repo name status
all-packages-source all-packages-source 466
base/7/x86_64 CentOS-7 - Base 8,652
epel/x86_64 Extra Packages for Enterprise Linux 7 - x86_64 8,457
extras/7/x86_64 CentOS-7 - Extras 180
glusterfs-epel/7/x86_64 GlusterFS is a clustered file-system capable of s 14
glusterfs-noarch-epel/7 GlusterFS is a clustered file-system capable of s 2
openstack-kilo OpenStack Kilo Repository 823
updates/7/x86_64 CentOS-7 - Updates 1,225
注:由于软件包较多,这里就不一一列出,查看官方文档查看每个组建所需要的软件包。
在其他节点上删除原有的repo源,从控制节点上复制all-packages-source.repo源文件并刷新,这里以网络节点为例:
[root@network1 ~]# rm -rf /etc/yum.repos.d/*
[root@network1 ~]# scp 10.0.0.11:/etc/yum.repos.d/all-packages-source.repo /etc/yum.repos.d/
[root@network1 ~]# yum clean all; yum repolist
...
repo id repo name status
all-packages-source all-packages-source 458
repolist: 458
2.5 网络时间服务(NTP)设置
2.5.1 在控制节点上配置NTP服务端
设置10.0.0.0/24网段可以对其进行时间同步:
[root@controller ~]# yum -y install ntp
[root@controller ~]# vi /etc/ntp.conf
...
restrict 10.0.0.0 mask 255.255.255.0 nomodify notrap
[root@controller ~]# systemctl start ntpd
[root@controller ~]# systemctl enable ntpd
可以通过ntpq -p命令查看与上层服务器时间是否同步。
2.5.2 在其他节点上配置NTP客户端
以网络节点为例:
[root@network1 ~]# yum -y install ntp
[root@network1 ~]# vi /etc/ntp.conf
server 10.0.0.11 iburst
[root@network1 ~]# systemctl start ntpd
[root@network1 ~]# systemctl enable ntpd
注意,这里清除了其他上层NTP服务器。
2.6 SQL数据库
OpenStack很多服务通过SQL数据库来存储信息。这里使用MariaDB数据库,当然OpenStack服务也支持其他数据库服务,例如MySQL、PostgreSQL。
2.6.1 在控制节点上配置数据库服务端
1. 安装配置MariaDB
[root@controller ~]# yum -y install mariadb mariadb-server MySQL-python
[root@controller ~]# vi /etc/my.cnf
[mysqld]
...
bind-address = 10.0.0.11
default-storage-engine = innodb
innodb_file_per_table
collation-server = utf8_general_ci
init-connect = 'SET NAMES utf8'
character-set-server = utf8
2. 完成安装
启动mariadb服务并设置为开机自启:
[root@controller ~]# systemctl start mariadb
[root@controller ~]# systemctl enable mariadb
加固数据库服务安全并设置数据库管理员root的密码:
[root@controller ~]# mysql_secure_installation
Set root password? [Y/n] Y
Remove anonymous users? [Y/n] Y
Disallow root login remotely? [Y/n] Y
Remove test database and access to it? [Y/n] Y
Reload privilege tables now? [Y/n] Y
注意,一定要移除数据空用户和空连接地址,否则在导入OpenStack各服务数据表时会报错。
2.7 消息队列服务(Message queue)
OpenStack通过消息队列服务来协调各服务之间的操作和状态信息。本示例将消息队列服务安装在控制节点上,OpenStack所支持的消息队列服务包括RabbitMQ、Qpid和ZeroMQ。这里将使用RabbiMQ作为消息队列服务。
2.7.1 安装和配置消息队列服务
[root@controller ~]# yum -y install rabbitmq-server
[root@controller ~]# systemctl start rabbitmq-server
[root@controller ~]# systemctl enable rabbitmq-server
[root@controller ~]# rabbitmqctl add_user openstack iforgot
Creating user "openstack" ...
...done.
[root@controller ~]# rabbitmqctl set_permissions openstack ".*" ".*" ".*"
Setting permissions for user "openstack" in vhost "/" ...
...done.