OpenStack架构图以及基础环境步骤步骤
1、逻辑架构
全局组件:keystone提供身份验证,ceilometer提供全局计量服务,horizon提供一个web管理界面,与openstack底层交互
核心组件:都是为虚拟机提供服务,需要neutron网络支持,glance镜像支持,swift&cinder存储支持,nova统一申请调用,最后提供给虚拟机做统一支持
外部组件:sahara&heat大数据用的,分别是数据编排和数据分析;ironic裸金属服务,trove数据库管理服务包含了sql数据库和nosql数据库
2、原生架构图
OpenStack包括若干个称为OpenStack服务的独立组件。所有服务均可通过一个服务的独立组件。所有服务均可通过一个公共身份服务进行身份验证。除了那些需要管理权限的命令,每个服务之间均可通要管理权限的命令,每个服务之间均可通过公共API进行交互。
每个OpenStack服务又由若干组件组成。包含多个进程。所有服务至少有一个API进程,用于侦听API请求,对这些请求进行预处理,并将它们传送到该服务的其他组件。除了认证服务,实际工作都是由具体的进程完成的
至于一个服务进程之间的通信,则通过AMQP
消息代理,服务的状态存储在数据库中
简单理解:这个图介绍了Openstack原生架构的组件
组件之间点到点通过API接口进行通讯
单个项目组件内部有很多功能模块,他们通过消息代理进行交互
1、物理架构
控制节点:管理openstack架构
网络节点:负责各节点之间的通信和交互
计算节点:承载实例负责具体需求的处理
存储节点:提供存储服务
2、网络节点
提供者网络(Provider networks)
自服务网络(Self-service networks)
需要三台Centos7.6的最小化安装的系统
CentOS 7.6 系统
CPU:双核双线程/开启虚拟化功能
内存:8G
硬盘:300G
网卡1:NAT模式
网卡2:VMnet1模式
选做:net.ifnames=0 biosdevname=0 (创建时可修改为eth0网卡)(选择最小化安装)
1、控制节点ct
CPU:双核双线程-CPU虚拟化开启
内存:8G 硬盘:300G(CEPH块存储)
双网卡:VM1-(局域网)192.168.100.11 NAT-192.168.126.9
操作系统:Centos 7.6(1810)-最小化安装
2、计算节点c1
CPU:双核双线程-CPU虚拟化开启
内存:8G 硬盘:300G(CEPH块存储)
双网卡:VM1(局域网)-192.168.100.12 NAT-192.168.126.10
操作系统:Centos 7.6(1810)-最小化安装
3、计算节点c2
CPU:双核双线程-CPU虚拟化开启
内存:8G 硬盘:300G(CEPH块存储)
双网卡:VM1(局域网)-192.168.100.13 NAT-192.168.126.11
操作系统:Centos 7.6(1810)-最小化安装
PS:最小内存6G
【部署思路】
一、配置操作系统+OpenStack运行环境
二、配置OpenStack平台基础服务(rabbitmq、mariadb、memcache、Apache)
三、配置OpenStack keystone组件
四、配置OpenStack Glance组件
五、配置placement服务
六、配置OpenStack Nova组件
七、配置OpenStack Neutron组件
八、配置OpenStack dashboard组件
九、配置OpenStack Cinder组件
1)基础环境依赖包
yum -y install net-tools bash-completion vim gcc gcc-c++ make pcre pcre-devel expat-devel cmake bzip2 lrzsz
#OpenStack 的 train 版本仓库源安装 包,同时安装 OpenStack 客户端和 openstack-selinux 安装包 c1和c2都需要安装
yum -y install centos-release-openstack-train python-openstackclient openstack-selinux openstack-utils
2)时间同步+周期性计划任务
hostnamectl set-hostname ct
su
vi /etc/sysconfig/network-scripts/ifcfg-eth1
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="eth1"
#UUID="796c5ad1-2089-48da-aede-3da0f78b1e46"
DEVICE="eth1"
ONBOOT="yes"
BOOTPROTO=static
IPADDR=192.168.100.11
NETMASK=255.255.255.0
#GATEWAY=192.168.126.2
DNS1=192.168.126.2
vi /etc/sysconfig/network-scripts/ifcfg-eth0
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="eth0"
UUID="796c5ad1-2089-48da-aede-3da0f78b1e46"
DEVICE="eth0"
ONBOOT="yes"
BOOTPROTO=static
IPV4_ROUTE_METRIC=90 ###调由优先级,NAT网卡优先
IPADDR=192.168.126.110
NETMASK=255.255.255.0
GATEWAY=192.168.126.2
DNS1=192.168.126.2
systemctl restart network
3)地址映射
```cpp
vi /etc/hosts
192.168.100.11 ct
192.168.100.12 c1
192.168.100.13 c2
#以上为局域网IP
systemctl stop firewalld
setenforce 0
4)三台节点做免交互
ssh-keygen -t rsa
ssh-copy-id ct
ssh-copy-id c1
ssh-copy-id c2
5)配置DNS(所有节点)
vim /etc/resolv.conf
nameserver 114.114.114.114
6) 安装基础环境包
【控制节点ct时间同步配置】
ct ->同步阿里云时钟服务器
c1、c2 -> 同步ct
yum install chrony -y
vim /etc/chrony.conf
server 0.centos.pool.ntp.org iburst ###注释掉
server 1.centos.pool.ntp.org iburst ###注释掉
server 2.centos.pool.ntp.org iburst ###注释掉
server 3.centos.pool.ntp.org iburst ###注释掉
server ntp6.aliyun.com iburst ###配置阿里云时钟服务器源。c1/c2 server ct iburst
allow 192.168.100.0/24 ###允许192.168.100.0/24网段的主机来同步时钟服
systemctl restart chronyd
chronyc sources ###使用 chronyc sources 命令查询时间同步信息
crontab -e
*/2 * * * * /usr/bin/chronyc sources >>/var/log/chronyc.log ##c1/c2都需要操作
7)安装、配置MariaDB
yum -y install mariadb mariadb-server python2-PyMySQL #此包用于openstack的控制端连接mysql所需要的模块,如果不安装,则无法连接数据库;此包只安装在控制端
yum -y install libibverbs
#添加MySQL子配置文件,增加如下内容
vim /etc/my.cnf.d/openstack.cnf
[mysqld]
bind-address = 192.168.100.11 #控制节点局域网地址
default-storage-engine = innodb #默认存储引擎
innodb_file_per_table = on #每张表独立表空间文件
max_connections = 4096 #最大连接数
collation-server = utf8_general_ci #默认字符集
character-set-server = utf8
systemctl start mariadb
mysql_secure_installation
Enter current password for root (enter for none): #回车
OK, successfully used password, moving on...
Set root password? [Y/n] Y
Remove anonymous users? [Y/n] Y
... Success!
Disallow root login remotely? [Y/n] N #是否不允许root用户远程登陆
... skipping.
Remove test database and access to it? [Y/n] Y 是否删除test测试库
Reload privilege tables now? [Y/n] Y
8)安装RabbitMQ
所有创建虚拟机的指令,控制端都会发送到rabbitmq,node节点监听rabbitmq
yum -y install rabbitmq-server
systemctl enable rabbitmq-server.service
systemctl start rabbitmq-server.service
9)创建消息队列用户,用于controler和 计算节点连接rabbitmq的认证(关联)
rabbitmqctl add_user openstack RABBIT_PASS
#配置openstack用户的操作权限(正则,配置读写权限)
rabbitmqctl set_permissions openstack ".*" ".*" ".*"
Setting permissions for user "openstack" in vhost "/"
#可查看25672和5672 两个端口(5672是Rabbitmq默认端口,25672是Rabbit的测试工具CLI的端口)
10)查看rabbitmq插件列表
rabbitmq-plugins list
#开启rabbitmq的web管理界面的插件,端口为15672
rabbitmq-plugins enable rabbitmq_management
检查端口(25672 5672 15672)
可访问192.168.126.10:15672
默认账号密码均为guest
11)安装memcached
作用:
安装memcached是用于存储session信息;服务身份验证机制(keystone)使用Memcached来缓存令牌 在登录openstack的dashboard时,会产生一些session信息,这些session信息会存放到memcached中
yum install -y memcached python-memcached #python-*模块在OpenStack中起到连接数据库的作用
cat /etc/sysconfig/memcached
PORT="11211"
USER="memcached"
MAXCONN="1024"
CACHESIZE="64"
OPTIONS="-l 127.0.0.1,::1,ct"
systemctl start memcached
netstat -natp | grep 11211
12)安装etcd,修改etcd配置文件
yum -y install etcd
cd /etc/etcd/
vim etcd.conf
#
ETCD_DATA_DIR="/var/lib/etcd/default.etcd" #数据目录位置
ETCD_LISTEN_PEER_URLS="http://192.168.100.11:2380" #监听其他etcd member的url(2380端口,集群之间通讯,域名为无效值)
ETCD_LISTEN_CLIENT_URLS="http://192.168.100.11:2379" #对外提供服务的地址(2379端口,集群内部的通讯端口)
ETCD_NAME="ct" #集群中节点标识(名称)
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.100.11:2380"
#该节点成员的URL地址,2380端口:用于集群之间通讯。
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.100.11:2379"
ETCD_INITIAL_CLUSTER="ct=http://192.168.100.11:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01" #集群唯一标识
ETCD_INITIAL_CLUSTER_STATE="new" #初始集群状态,new为静态,若为existing,则表示此ETCD服务将尝试加入已有的集群
若为DNS,则表示此集群将作为被加入的对象
systemctl enable etcd.service
systemctl start etcd.service
netstat -anutp |grep 2379
netstat -anutp |grep 2380
0"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01" #集群唯一标识
ETCD_INITIAL_CLUSTER_STATE="new" #初始集群状态,new为静态,若为existing,则表示此ETCD服务将尝试加入已有的集群
若为DNS,则表示此集群将作为被加入的对象
systemctl enable etcd.service
systemctl start etcd.service
netstat -anutp |grep 2379
netstat -anutp |grep 2380