RHCS的架构配置:高可用集群
       yum groupinstall Clustering即可或者单独安装 :                                                    
       yum install rgmanager modcluster cluster-cim   cluster-snmp   ricci(每个节点都需要)
        重启ricci : service ricci restart
       查看ricci端口为11111
       安装luci(服务管理接口需要即要在realserver上安装)
       初始化:luci_admin init (会要求输入admin登陆的密码)
       重启服务: service luci restart 会显示访问方法
       本机测试并进行图形界面配置: https://node1.a.com:8084   
 
节点访问同一个共享存储设备,节点之间可以看到对方的文件 使用集群文件系统,节点要配置成高可用集群
 
基于RHCS的集群文件系统:
       服务端eth0 :192.168.0.190
       客户端:node1 eth0 192.168.0.187
              node2 eth0 192.168.0.188
              node3 eth0 192.168.0.189
       服务端配置:安装scsi-target-utils 配置iscsi服务
       客户端配置:安装iscsi-initiator-utils 配置iscsi服务可以发现即可
              配置RHCS集群:
              yum install ricci 节点都需要安装
              开启ricci
              yum install luci 服务接口管理需要安装192.168.0.187
              luci_admin init
              service luci restart
              图形界面配置RHCS: https://192.168.0.187:8084
              cluster--create a new cluster--cluster name(gfs) node hostname node1.a.com.. 点选download和enable shared                storge support---view ssl cert--submit 开始安装
              客户端查看集群状态:
              cman_tool status或者 cluster
              ccs_tool lsnode 查看node
              ccs_tool -h 查看有哪些命令可用
              ccs_test connect
              service cman status 查看cman 状态
              service rgmanager start 三个节点都要开启
              配置节点lvm的都支持集群的形式:clvm
              lvmconf --enable-cluster 三个节点都需要
              查看grep "locking_type" /etc/lvm/lvm.conf 为3
              service clvmd start 超时 #
              ps aux | grep clvmd在线
              lsmod | grep gfs
              ps aux | grep dlm 分布式锁要开启
              登陆iscsi的192.168.0.187上配置
              iscsiadm -m discovery -t sendtargets -p 192.168.0.190
              iscsiadm -m node -T iqn.2011-02.com.a.node1:appdata -p 192.168.0.65 -l
             
              配置集群的fence :图形界面3个节点都需要添加fence设备
              cluster list --gsf--nodes--manage fencing for this node---勾选cman rgmanager--add a fence device                            (gfs_fence)----updata main fence properties
              故障转移域配置 :
              failover domains--add failover domain--name(gfs)--将3个节点都添加--submit
              点选shared fence device可以看到配置信息
              配置资源:
              recourse--add a resource---type
             
              集群文件查看是否正常vim /etc/cluster/cluster.conf
                     ccs_tool lsfence
                     ccs_tool lsnode
                     service gfs start
                     service gfs2 restart
                     service clvmd start
              创建lvm:在一个节点上即可
                     pvcreate /dev/sdb
                     vgcreate vg0 /dev/sdb
                     lvcreate -L 5G -n gfsdata vg0
                     lvdisplay 查看
                     gfs_mkfs -p lock_dlm -t gfs:gfsdata -j 4 /de/vg0/gfsdata 格式化
              在节点上挂载即可
                     mount -o -t gfs /dev/vg0/gfsdata /mnt
                     gfs_tool list 查看gfs列表
 
开机流程:1. 加载 BIOS 的硬件信息;
2. 读取 MBR 的 Kernel Loader (亦即是 lilo, grub, spfdisk 等等)开机信息;
3. 加载 Kernel 的操作系统核心信息;
4. Kernel 执行 init 程序并取得 run-level 信息;
5. init 执行 /etc/rc.d/rc.sysinit 档案;
6. 激活核心的外挂式模块 (/etc/modules.conf);
7. init 执行 run-level 的各个批次档( Scripts );
8. init 执行 /etc/rc.d/rc.local 档案;
9. 执行 /bin/login 程序;
10. 登入之后开始以 Shell 控管主机。
 
tcp 的三次握手:
第一次握手:建立连接时,客户端发送syn包(syn=j)到服务器,并进入SYN_SEND状态,等待服务器确认;
 
第二次握手:服务器收到syn包,必须确认客户的SYN(ack=j+1),同时自己也发送一个SYN包(syn=k),即SYN+ACK包,此时服务器进入SYN_RECV状态;
 
第三次握手:客户端收到服务器的SYN+ACK包,向服务器发送确认包ACK(ack=k+1),此包发送完毕,客户端和服务器进入ESTABLISHED状态,完成三次握手。