三、OpenStack基础环境准备

本章目录

1、时间同步组件安装(所有节点上执行)
2、启用OpenStack库(控制节点上执行)
3 、NoSql (本章不需要安装)
4、消息队列(控制节点上执行)
5、Memcached(控制节点上执行)
6、Etcd安装(控制节点上执行)

一、时间同步组件安装

  • 在控制节点上配置时间同步服务器,让其他节点连接控制节点同步时间

一、简单介绍:
Chrony是NTP(Network Time Protocol,网络时间协议,服务器时间同步的一种协议)的另一种实现,与ntpd不同,它可以更快且更准确地同步系统时钟,最大程度的减少时间和频率误差。

Chrony包括两个核心组件:
1、chronyd:一个后台运行的守护进程,用于调整内核中运行的系统时钟与NTP服务器同步。它确定服务器增减时间的比率,并对此进行调整补偿;
2、chronyc:提供用户界面,用于监控性能并进行多样化的配置。它可以在chronyd实例控制的服务器上工作,也可以在一台不同的远程服务器上工作。

一、控制节点:
1、安装软件包:
[root@controller ~]# yum -y install chrony

2、编辑 vim /etc/chrony.conf 文件,按照你环境的要求,对下面的键进行添加,修改或者删除:

#01、将原有的四个 ntp 时间同步服务器用 # 号注释或者删除,并添加国内的时间服务器,可添加多个
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
server ntp6.aliyun.com iburst  

#02、将此处修改为允许同步的网段,可添加多个网段
allow 192.168.17.0/24 

#03、将此处的#号去掉,即使 server 指令中时间服务器不可用,也允许将本地时间作为标准时间授时给其它客户端
#local stratum 10   #可选项

3、启动 NTP 服务并将其配置为随系统启动:
[root@controller ~]# systemctl enable chronyd.service
[root@controller ~]# systemctl start chronyd.service

[root@controller ~]# netstat -tunlp |grep chronyd     #默认启动了两个端口,123和323
udp        0      0 0.0.0.0:123             0.0.0.0:*                           8764/chronyd        
udp        0      0 127.0.0.1:323           0.0.0.0:*                           8764/chronyd        
udp6       0      0 ::1:323                 :::*                                8764/chronyd    

注释:
chronyd默认监听两个端口: 123/udp   323/udp
123/udp  ,是供客户端通讯连接用的,安全起见,请绑定服务端socket的IP,而不是0.0.0.0
323/udp,供chronyc连接用,安全起见,默认绑定的本地socket的IP为 127.0.0.1

4、验证服务
#如下显示^* ,*表示同步成功
[root@controller ~]# chronyc sources -v
210 Number of sources = 1

  .-- Source mode  '^' = server, '=' = peer, '#' = local clock.
 / .- Source state '*' = current synced, '+' = combined , '-' = not combined,
| /   '?' = unreachable, 'x' = time may be in error, '~' = time too variable.
||                                                 .- xxxx [ yyyy ] +/- zzzz
||      Reachability register (octal) -.           |  xxxx = adjusted offset,
||      Log2(Polling interval) --.      |          |  yyyy = measured offset,
||                                \     |          |  zzzz = estimated error.
||                                 |    |           \
MS Name/IP address         Stratum Poll Reach LastRx Last sample               
===============================================================================
^* 203.107.6.88                  2  10   377   290   +780us[+1291us] +/-   15ms


二、计算节点:
1)修改计算节点跟控制节点进行时间同步
[root@compute1 ~]# yum install chrony -y
[root@compute1 ~]# vim /etc/chrony.conf 
server 192.168.223.170 iburst

2)重启服务
[root@compute1 ~]# systemctl restart chronyd
[root@compute1 ~]# netstat -tunlp |grep chronyd
udp        0      0 127.0.0.1:323           0.0.0.0:*                           8079/chronyd        
udp6       0      0 ::1:323                 :::*                                8079/chronyd     

#可以看到客户端没有起ntp服务,所有没有起123端口
3)验证一下date两边时间是否一致,#如下显示^* ,*表示同步成功
[root@compute1 ~]# chronyc sources
210 Number of sources = 1
MS Name/IP address         Stratum Poll Reach LastRx Last sample               
===============================================================================
^* controller                    3   6   377    60   -924us[-3826us] +/-   22ms

二、OpenStack包

启用OpenStack库
# yum install centos-release-openstack-rocky

#如果yum源报错,可以替换为国内yum源
# vim /etc/yum.repos.d/CentOS-OpenStack-rocky.repo
baseurl=http://mirrors.163.com/centos/$releasever/cloud/$basearch/openstack-rocky/
或者:https://mirrors.tuna.tsinghua.edu.cn/centos/$releasever/cloud/$basearch/openstack-rocky/

相关网址:https://mirrors.tuna.tsinghua.edu.cn/centos/7/cloud/x86_64/openstack-rocky/

安装完成之后:
1)在主机上升级包:
# yum upgrade

2)安装 OpenStack 客户端:
# yum -y install python-openstackclient
 
3)RHEL 和 CentOS 默认启用了 SELinux . 安装 openstack-selinux 软件包以便自动管理 OpenStack 服务的安全策略:
# yum -y install openstack-selinux

三、SQL数据库(控制节点执行)

1、 安装软件包:在控制节点上安装

# yum -y install mariadb mariadb-server python2-PyMySQL

2、 创建并编辑 /etc/my.cnf.d/openstack.cnf,然后完成如下动作:

  • [mysqld] 部分,设置bind-address值为控制节点的管理网络IP地址,以使得其它节点可以通过管理网络访问数据库:

  • [mysqld] 部分,设置如下:

[mysqld]
bind-address = 192.168.223.170

default-storage-engine = innodb
innodb_file_per_table = on
max_connections = 4096
collation-server = utf8_general_ci
character-set-server = utf8

注释
innodb_file_per_table = on   #每一张表独立表空间文件
max_connections = 4096      #最大连接数

3、 启动数据库服务,并将其配置为开机自启:

# systemctl enable mariadb.service
# systemctl start mariadb.service

4、 为了保证数据库服务的安全性,运行mysql_secure_installation脚本。特别需要说明的是,为数据库的root用户设置一个适当的密码(安全初始化)

# mysql_secure_installation

回车
n 可以不设root密码
剩下都是y

[root@controller ~]# mysql_secure_installation

Enter current password for root (enter for none): 
OK, successfully used password, moving on...

Set root password? [Y/n] n
 ... skipping.

Remove anonymous users? [Y/n] y
 ... Success!

Disallow root login remotely? [Y/n] y
 ... Success!

Remove test database and access to it? [Y/n] y
 - Dropping test database...
 ... Success!
 - Removing privileges on test database...
 ... Success!

Reload privilege tables now? [Y/n] y
 ... Success!

四、NoSql (本章需要安装)

nosql不需要安装,因为在监控计费公有云下才使用NoSQL 数据库,我们搭建私有云所以不需要安装

五、 消息队列(控制节点执行)

OpenStack 使用 message queue协调操作和各服务的状态信息。消息队列服务一般运行在控制节点上。OpenStack支持好几种消息队列服务包括 RabbitMQ, Qpid, 和 ZeroMQ。不过,大多数发行版本的OpenStack包支持特定的消息队列服务。本指南安装 RabbitMQ 消息队列服务,因为大部分发行版本都支持它。如果你想安装不同的消息队列服务,查询与之相关的文档。

安全并配置组件

1、安装包:

# yum install rabbitmq-server

2、启动消息队列服务并将其配置为随系统启动:

# systemctl enable rabbitmq-server.service
# systemctl start rabbitmq-server.service

3、添加 openstack 用户:

# rabbitmqctl add_user openstack RABBIT_PASS
Creating user "openstack" ...
...done.

[root@controller ~]# rabbitmqctl add_user openstack openstack
Creating user "openstack"

用合适的密码替换 RABBIT_DBPASS。本文改为用户名一致openstack

4、给openstack用户配置写和读权限:

# rabbitmqctl set_permissions openstack ".*" ".*" ".*"
Setting permissions for user "openstack" in vhost "/" ...
...done.

#知识扩展,用户名增删改查
[root@controller ~]# rabbitmqctl list_users   #查看用户名
Listing users
openstack   []
guest   [administrator]
[root@controller ~]# rabbitmqctl delete_user openstack  #删除用户
Deleting user "openstack"
[root@controller ~]# rabbitmqctl add_user openstack RABBIT_PASS  #创建用户
Creating user "openstack"
修改用户密码:
rabbitmqctl change_password Username Newpassword
相关文章:[https://www.cnblogs.com/xinxiucan/p/7940953.html](https://www.cnblogs.com/xinxiucan/p/7940953.html)

5、可以查看开启的端口

[root@controller ~]# netstat -lntup
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name    
tcp        0      0 0.0.0.0:25672           0.0.0.0:*               LISTEN      58789/beam          
tcp        0      0 192.168.223.170:3306    0.0.0.0:*               LISTEN      58585/mysqld        
tcp        0      0 0.0.0.0:4369            0.0.0.0:*               LISTEN      1/systemd           
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      27186/sshd          
tcp        0      0 127.0.0.1:25            0.0.0.0:*               LISTEN      9809/master         
tcp6       0      0 :::5672                 :::*                    LISTEN      58789/beam          
tcp6       0      0 :::22                   :::*                    LISTEN      27186/sshd          
tcp6       0      0 ::1:25                  :::*                    LISTEN      9809/master         
udp        0      0 127.0.0.1:323           0.0.0.0:*                           20753/chronyd       
udp6       0      0 ::1:323                 :::*                                20753/chronyd   

6、打开rabbitmq管理界面方法:

##打开rabbitmq管理界面:
[root@controller ~]# rabbitmq-plugins enable rabbitmq_management
The following plugins have been enabled:
  amqp_client
  cowlib
  cowboy
  rabbitmq_web_dispatch
  rabbitmq_management_agent
  rabbitmq_management

Applying plugin configuration to rabbit@controller... started 6 plugins.
[root@controller ~]# netstat -lntup
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name    
tcp        0      0 0.0.0.0:15672           0.0.0.0:*               LISTEN      58789/beam  

可以看到启用了15672端口:
浏览器访问:http://192.168.223.170:15672
用户:guest
密码:guest
rabbit.PNG

rabbit02.PNG

六、Memcached(安装在控制节点上)

认证服务认证缓存使用Memcached缓存令牌。缓存服务memecached运行在控制节点。在生产部署中,我们推荐联合启用防火墙、认证和加密保证它的安全。

1、安装软件包:

[root@controller ~]#  yum install memcached python-memcached -y

2、Edit the /etc/sysconfig/memcached file and complete the following actions:

  • 将服务配置为使用控制器节点的管理IP地址。这是为了允许其他节点通过管理网络访问:
OPTIONS="-l 127.0.0.1,::1,controller"

操作如下:
[root@controller ~]# cat /etc/sysconfig/memcached 
PORT="11211"
USER="memcached"
MAXCONN="1024"
CACHESIZE="64"
OPTIONS="-l 127.0.0.1,::1"
[root@controller ~]# sed -i 's#127.0.0.1#192.167.223.170#g' /etc/sysconfig/memcached
[root@controller ~]# cat /etc/sysconfig/memcached 
PORT="11211"
USER="memcached"
MAXCONN="1024"
CACHESIZE="64"
OPTIONS="-l 192.168.223.170,::1"

3、启动服务

[root@controller ~]# systemctl enable memcached.service
[root@controller ~]# systemctl start memcached.service
[root@controller ~]# netstat -tunlp

tcp6       0      0 ::1:11211               :::*                    LISTEN      60474/memcached 

七、Etcd安装

1、安装软件包
 
[root@controller ~]#  yum install etcd -y
 
2、修改配置文件/etc/etcd/etcd.conf 
  
  #[Member]
  ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
  ETCD_LISTEN_PEER_URLS="http://192.168.223.170:2380"
  ETCD_LISTEN_CLIENT_URLS="http://192.168.223.170:2379"
  ETCD_NAME="controller"
  #[Clustering]
  ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.223.170:2380"
  ETCD_ADVERTISE_CLIENT_URLS="http://192.168.223.170:2379"
  ETCD_INITIAL_CLUSTER="controller=http://192.168.223.170:2380"
  ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"
  ETCD_INITIAL_CLUSTER_STATE="new"
  
 3、启动服务

[root@controller ~]#  systemctl enable etcd
[root@controller ~]#  systemctl start etcd

你可能感兴趣的:(三、OpenStack基础环境准备)