随堂笔记

rhel 6.5
lvm 自动调整
虚拟机的集群:作业

集群/节点/fence/失效域(两个节点时可有可无)/服务    同步配置文件

1 集群在虚拟机中,但虚拟机在各自的真机上,要求能够fence        需要的key(搞清楚)/『多播地址应不同』
2 httpd mysql各作为一个服务(不是资源),放在两个不同节点上    共享存储 / mysql需要ip


LAMP集群
模型:
node1        node2
主httpd        从httpd
从mysqld    主mysqld

两者都需要ip地址,因为两台机器访问

   共享clvm(一个lun1,分两个区,各占用一个)


集群逻辑卷:
需要clvm服务,如此服务没有启用,那么在node1上创建的lvm将无法在node2上显示。
选择资源的时候选择filesystem。

DRBD 双主

注意:安装好mysql后,先不要启动,因为启动的时候需要初始化创建mysql的数据库在本地,而我们是需要挂载的。所以添加资源的 时候也需要注意要先有文件系统再有mysql服务,所以mysql成为了文件系统的子资源。

数据库在授权的时候需要授权给所有主机,而不是localhost

DRBD
同步发送

半同步

异步


默认情况下,只能一个节点进行写数据操作(双主例外)

依赖包:
yum install gcc make flex kernel-devel

如果不安装kernel-devel就需要自己指定 KDIR
device    /dev/drbd1;(尝试过直接用/dev/drbd 不行,1代表分区)

http://www.drbd.org/users-guide-emb/s-rhcs-failover-clusters.html


集群小结:
1、ricci  +  conga   storage  fence_xvm
2、ricci + ccs
3、A/A   (httpd  +  mysql)
4、CLVM  +  GFS2   (HA  +  LVM)
5、DRBD
6、guest  +  host
7、pacemanager

网络文件系统:
NFS/CIFS/FTP/SAMBA

分布式文件系统:
GFS/OFS(甲骨文)

CLVM NFS  GFS  LVM  DRBD  

安装CLVM
yum groupinstall 'Resilient Storage'

创建的时候注意主从会出现问题,需要双主?

存储多路经

blog
http://linuxsky.blog.chinaunix.net/

FENCE的工作原理是:当意外原因导致主机异常或者宕机时,备机会首先调用FENCE设备,然后通过FENCE设备将异常主机重启或者从网络隔离,当FENCE操作成功执行后,返回信息给备机,备机在接到FENCE成功的信息后,开始接管主机的服务和资源。这样通过FENCE设备,将异常节点占据的资源进行了释放,保证了资源和服务始终运行在一个节点上。RHCS的FENCE设备可以分为两种:内部FENCE和外部FENCE,常用的内部FENCE有IBM RSAII卡,HP的iLO卡,还有IPMI的设备等,外部fence设备有UPS、SAN SWITCH、NETWORK SWITCH等。

lvs在内核实现,

lvs+keepalived
修改优先级priority

http https
https加密连接,证书过程,点对点?
在NAT模式和DR模式下的连接,是否都会进行三次握手。

haproxy 7层负载均衡

nginx负载均衡

host机操作
1 把包先装上

# yum install -y fence-virt fence-virtd fence-virtd-libvirt fence-virtd-multicast

2 搞一个认证文件

没有啥限制,主要是内部通信用,通信机器之间文件一致即可

# mkdir /etc/cluster
# dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=4096 count=1

3. 生成配置文件

# fence_virtd -c

有一点需要改改,其他的按照提示一路回车就ok
Interface [none]: virbr0

# Backend module [checkpoint]: libvirt  --因为我们只安装了fence-virtd-libvirt这个backend

如果不行,请注意真机的selinux设置。

你可能感兴趣的:(虚拟机,数据库,mysql,配置文件,IP地址)