mysql集群

  1. MySQL Cluster 是MySQL适合于分布式计算环境的高实用、高冗余版本。它采用了NDB Cluster 存储引擎,允许在1个 Cluster 中运行多个MySQL服务器。在MyQL 5.0及以上的二进制版本中、以及与最新的Linux版本兼容的RPM中提供了该存储引擎。(注意,要想获得MySQL Cluster 的功能,必须安装 mysql-server 和 mysql-max RPM)。
    目前能够运行MySQL Cluster 的操作系统有Linux、Mac OS X和Solaris(一些用户通报成功地在FreeBSD上运行了MySQL Cluster ,但MySQL AB公司尚未正式支持该特性)。
    一、MySQL Cluster概述
    MySQL Cluster 是一种技术,该技术允许在无共享的系统中部署“内存中”数据库的 Cluster 。通过无共享体系结构,系统能够使用廉价的硬件,而且对软硬件无特殊要求。此外,由于每个组件有自己的内存和磁盘,不存在单点故障。
    MySQL Cluster 由一组计算机构成,每台计算机上均运行着多种进程,包括MySQL服务器,NDB Cluster 的数据节点,管理服务器,以及(可能)专门的数据访问程序。关于 Cluster 中这些组件的关系,请参见下图:
    所有的这些节点构成一个完成的MySQL集群体系。数据保存在“NDB存储服务器”的存储引擎中,表(结构)则保存在“MySQL服务器”中。应用程序通过“MySQL服务器”访问这些数据表,集群管理服务器通过管理工具(ndb_mgmd)来管理“NDB存储服务器”。
    通过将MySQL Cluster 引入开放源码世界,MySQL为所有需要它的人员提供了具有高可用性、高性能和可缩放性的 Cluster 数据管理。
    二、MySQL Cluster 基本概念
    “NDB” 是一种“内存中”的存储引擎,它具有可用性高和数据一致性好的特点。
    MySQL Cluster 能够使用多种故障切换和负载平衡选项配置NDB存储引擎,但在 Cluster 级别上的存储引擎上做这个最简单。MySQL Cluster的NDB存储引擎包含完整的数据集,仅取决于 Cluster本身内的其他数据。
    目前,MySQL Cluster的 Cluster部分可独立于MySQL服务器进行配置。在MySQL Cluster中, Cluster的每个部分被视为1个节点。
  2. 管理(MGM)节点:这类节点的作用是管理MySQL Cluster内的其他节点,如提供配置数据、启动并停止节点、运行备份等。由于这类节点负责管理其他节点的配置,应在启动其他节点之前首先启动这类节点。MGM节点是用命令“ndb_mgmd”启动的。
  3. 数据节点:这类节点用于保存 Cluster的数据。数据节点的数目与副本的数目相关,是片段的倍数。例如,对于两个副本,每个副本有两个片段,那么就有4个数据节点。不过没有必要设置多个副本。数据节点是用命令“ndbd”启动的。
  4. SQL节点:这是用来访问 Cluster数据的节点。对于MySQL Cluster,客户端节点是使用NDB Cluster存储引擎的传统MySQL服务器。通常,SQL节点是使用命令“mysqld –ndbcluster”启动的,或将“ndbcluster”添加到“my.cnf”后使用“mysqld”启动。
    注释:在很多情况下,术语“节点”用于指计算机,但在讨论MySQL Cluster时,它表示的是进程。在单台计算机上可以有任意数目的节点,为此,我们采用术语“ Cluster主机”。
    管理服务器(MGM节点)负责管理 Cluster配置文件和 Cluster日志。 Cluster中的每个节点从管理服务器检索配置数据,并请求确定管理服务器所在位置的方式。当数据节点内出现新的事件时,节点将关于这类事件的信息传输到管理服务器,然后,将这类信息写入 Cluster日志。
    此外,可以有任意数目的 Cluster客户端进程或应用程序。它们分为两种类型:
  5. 标准MySQL客户端:对于MySQL Cluster,它们与标准的(非 Cluster类)MySQL没有区别。换句话讲,能够从用PHP、Perl、C、C++、Java、Python、Ruby等编写的现有MySQL应用程序访问MySQL Cluster。
  6. 管理客户端:这类客户端与管理服务器相连,并提供了启动和停止节点、启动和停止消息跟踪(仅调试版本)、显示节点版本和状态、启动和停止备份等的命令。
    三、开始准备
    1、准备服务器
    现在,我们计划建立有5个节点的MySQL CLuster体系,因此需要用到5台机器,分别做如下用途:
    节点(用途)IP地址(主机名)
    管理节点(MGM)192.168.0.1(db1)
    SQL节点1(SQL1)192.168.0.2(db2)
    SQL节点2(SQL2)192.168.0.3(db3)
    数据节点1(NDBD1)192.168.0.4(db4)
    数据节点2(NDBD2)192.168.0.4(db5)

    2、注意事项及其他
    每个节点的操作系统都是Linux,下面的描述中将使用主机名,不再使用IP地址来表示。由于MySQL Cluster采用TCP/IP方式连接,并且节点之间的数据传输没有加密,因此这个体系最好只在单独的子网中运行,并且考虑到传输的速率,强烈建议不要跨越公网使用这个体系。所需的MySQL软件请事先在
    http://dev.mysql.com/downloads 下载。
    实际上整个体系可以在一个单独的实体计算机上运行成功,当然了,必须设定不同的目录以及端口等,只能作为测试时使用。
    四、开始安装
    1、假定条件
    在每个节点计算机上都采用 nobody 用户来运行Cluster,因此执行如下命令添加相关用户(如果已经存在则略过,且用root用户执行):
    root# /usr/sbin/groupadd nobody
    root# /usr/sbin/useradd nobody -g nobody

    假设已经下载了mysql可直接使用的二进制安装包,且放在 /tmp 下了。
    2、SQL节点和存储节点(NDB节点)安装(即4个机器重复执行以下步骤)
    root# cd /tmp/
    root# tar zxf mysql-max-5.0.24-linux-i686.tar.gz
    root# mv mysql-max-5.0.24-linux-i686 /usr/local/mysql/
    root# cd /usr/local/mysql/
    root# ./configure --prefix=/usr/local/mysql
    root# ./scrīpts/mysql_install_db
    root# chown -R nobody:nobody /usr/local/mysql/

    3、配置SQL节点
    root# vi /usr/local/mysql/my.cnf

    然后输入如下内容:
    [mysqld]
    basedir = /usr/local/mysql/
    datadir = /usr/local/mysql/data
    user = nobody
    port = 3306
    socket = /tmp/mysql.sock

    ndbcluster
    ndb-connectstring=db1
    [MYSQL_CLUSTER]
    ndb-connectstring=db1

    4、配置存储节点(NDB节点)
    root# vi /usr/local/mysql/my.cnf

    然后输入如下内容:
    [mysqld]
    ndbcluster
    ndb-connectstring=db1
    [MYSQL_CLUSTER]
    ndb-connectstring=db1

    5、安装管理节点
    root# cd /tmp/
    root# tar zxf mysql-max-5.0.24-linux-i686.tar.gz
    root# mkdir /usr/local/mysql/
    root# mkdir /usr/local/mysql/data/
    root# cd mysql-max-5.0.24-linux-i686/bin/
    root# cp ndb_mgm* /usr/local/mysql/
    root# chown -R nobody:nobody /usr/local/mysql

    6、配置管理节点
    root# vi /usr/local/mysql/config.ini

    然后输入如下内容:
    [NDBD DEFAULT]
    NoOfReplicas=1

    [TCP DEFAULT]
    portnumber=3306

    #设置管理节点服务器
    [NDB_MGMD]
    hostname=db1
    #MGM上保存日志的目录
    datadir=/usr/local/mysql/data/

    #设置存储节点服务器(NDB节点)
    [NDBD]
    hostname=db4
    datadir=/usr/local/mysql/data/
    #第二个NDB节点
    [NDBD]
    hostname=db5
    datadir=/usr/local/mysql/data/

    #设置SQL节点服务器
    [MYSQLD]
    hostname=db2
    #第二个SQL节点
    [MYSQLD]
    hostname=db3

    注释: Cluster管理节点的默认端口是1186,数据节点的默认端口2202。从MySQL 5.0.3开始,该限制已被放宽, Cluster能够根据空闲的端口自动地为数据节点分配端口。如果你的版本低于5.0.22,请注意这个细节。
    五、启动MySQL Cluster
    较为合理的启动顺序是,首先启动管理节点服务器,然后启动存储节点服务器,最后才启动SQL节点服务器:
  7. 在管理节点服务器上,执行以下命令启动MGM节点进程:
    root# /usr/local/mysql/ndb_mgmd -f /usr/local/mysql/config.ini

    必须用参数“-f”或“--config-file”告诉 ndb_mgm 配置文件所在位置,默认是在ndb_mgmd相同目录下。
  8. 在每台存储节点服务器上,如果是第一次启动ndbd进程的话,必须先执行以下命令:
    root# /usr/local/mysql/bin/ndbd --initial

    注意,仅应在首次启动ndbd时,或在备份/恢复数据或配置文件发生变化后重启ndbd时使用“--initial”参数。因为该参数会使节点删除由早期ndbd实例创建的、用于恢复的任何文件,包括用于恢复的日志文件。
    如果不是第一次启动,直接运行如下命令即可:
    root# /usr/local/mysql/bin/ndbd
  9. 最后,运行以下命令启动SQL节点服务器:
    root# /usr/local/mysql/bin/mysqld_safe --defaults-file=/usr/local/mysql/my.cnf &

    如果一切顺利,也就是启动过程中没有任何错误信息出现,那么就在管理节点服务器上运行如下命令:
    root# /usr/local/mysql/ndb_mgm
    -- NDB Cluster -- Management Client --
    ndb_mgm> SHOW
    Connected to Management Server at: localhost:1186
    Cluster Configuration
    ---------------------
    [ndbd(NDB)] 2 node(s)
    id=2 @192.168.0.4 (Version: 5.0.22, Nodegroup: 0, Master)
    id=3 @192.168.0.5 (Version: 5.0.22, Nodegroup: 0)

    [ndb_mgmd(MGM)] 1 node(s)
    id=1 @192.168.0.1 (Version: 5.0.22)

    [mysqld(SQL)] 1 node(s)
    id=2 (Version: 5.0.22)
    id=3 (Version: 5.0.22)

    具体的输出内容可能会略有不同,这取决于你所使用的MySQL版本。
    注意:如果你正在使用较早的MySQL版本,你或许会看到引用为‘[mysqld(API)]’的SQL节点。这是一种早期的用法,现已放弃。
    现在,应能在MySQL Cluster中处理数据库,表和数据。
    六、创建数据库表
    与没有使用 Cluster的MySQL相比,在MySQL Cluster内操作数据的方式没有太大的区别。执行这类操作时应记住两点:
  10. 表必须用ENGINE=NDB或ENGINE=NDBCLUSTER选项创建,或用ALTER TABLE选项更改,以使用NDB Cluster存储引擎在 Cluster内复制它们。如果使用mysqldump的输出从已有数据库导入表,可在文本编辑器中打开SQL脚本,并将该选项添加到任何表创建语句,或用这类选项之一替换任何已有的ENGINE(或TYPE)选项。
  11. 另外还请记住,每个NDB表必须有一个主键。如果在创建表时用户未定义主键,NDB Cluster存储引擎将自动生成隐含的主键。(注释:该隐含 键也将占用空间,就像任何其他的表索引一样。由于没有足够的内存来容纳这些自动创建的键,出现问题并不罕见)。
    下面是一个例子:
    在db2上,创建数据表,插入数据:
    [db2~]root# mysql -uroot test
    [db2~]mysql> create table city(
    [db2~]mysql> id mediumint unsigned not null auto_increment primary key,
    [db2~]mysql> name varchar(20) not null default ''
    [db2~]mysql> ) engine = ndbcluster default charset utf8;
    [db2~]mysql> insert into city values(1, 'city1');
    [db2~]mysql> insert into city values(2, 'city2');

    在db3上,查询数据:
    [db3~]root# mysql -uroot test
    [db2~]mysql> select * from city;
    +-----------+
    |id | name |
    +-----------+
    |1 | city1 |
    +-----------+
    |2 | city2 |
    +-----------+

    七、安全关闭
    要想关闭 Cluster,可在MGM节点所在的机器上,在Shell中简单地输入下述命令:
    [db1~]root# /usr/local/mysql/ndb_mgm -e shutdown

    运行以下命令关闭SQL节点的mysqld服务:
    [db2~]root# /usr/local/mysql/bin/mysqladmin -uroot shutdown

    八、其他
    关于MySQL Cluster更多详细的资料以及备份等请参见MySQL手册的“MySQL Cluster(MySQL 集群)”章节。
    参考资料:《MySQL 5.1 中文手册》
    查看(22) 评论(0)
  12. 安装MYSQL集群详解
    2008-4-15
    #######################################
    # 测试环境:
    #######################################
    1VMware-GSX SERVER.安装三台虚拟机。
    2、在虚拟机上安装系统.( CentOS-4.4-i386)
    见另一篇linux服务器安装与安全规范.txt
    3、各个虚拟机的IP以及名称如下:
    172.16.1.1 mysql-manager
    172.16.1.11 mysql-node01
    172.16.1.12 mysql-node02

    备注:本次测试未编译内核

    #######################################
    # 测试环境:
    #######################################

    1、在MYSQL网站上下载mysql-max-5.0.24a-linux-i686-glibc23.tar.gz
    注意:必须是max版本的MySQLStandard版本不支持集群部署!
    2、安装MYSQL-MAX
    重要:以下步骤需要在mysqlnode01mysqlnode02上各做一次

    #tar zxvf mysql-max-5.0.24a-linux-i686-glibc23.tar.gz
    #mv mysql-max-5.0.24a-linux-i686-glibc23 /usr/local/mysql
    # cd /usr/local
    # groupadd mysql
    # useradd -g mysql mysql

    # cd mysql
    # scrīpts/mysql_install_db --user=mysql
    # chown -R root .
    # chown -R mysql data
    # chgrp -R mysql .
    # cp support-files/mysql.server /etc/rc.d/init.d/mysqld
    # chmod +x /etc/rc.d/init.d/mysqld
    # cp /usr/local/mysql/support-files/my-medium.cnf /etc/my.cnf
    # chkconfig --add mysqld(
    备注:这一步也可以不作,手工启动即可)




    #######################################
    # 安装并配置管理节点服务器(mysql-manager)
    #######################################
    作为管理节点服务器,mysql-manager需要ndb_mgmndb_mgmd两个文件:

    备注:管理节点用到的内存很少,可以兼作其他应用,例如GNBD-SERVER
    同时,如果怕管理节点挂掉的话,可以按照两个管理节点作一个HA
    1
    、安装
    # mkdir /usr/src/mysql-mgm
    # cd /usr/src/mysql-mgm
    # tar zxvf mysql-max-5.0.24a-linux-i686-glibc23.tar.gz
    # rm mysql-max-5.0.24a-linux-i686-glibc23.tar.gz
    # cd mysql-max-5.0.24a-linux-i686-glibc23
    # mv bin/ndb_mgm .
    # mv bin/ndb_mgmd .
    # chmod +x ndb_mg*
    # mv ndb_mg* /usr/bin/
    # cd
    # rm -rf /usr/src/mysql-mgm

    为管理节点服务器建立配置文件:
    2、建立管理节点配置文件
    # mkdir /var/lib/mysql-cluster
    #mkdir /opt/mysql-cluster
    # cd /opt/mysql-cluster
    # vi config.ini

    config.ini中添加如下内容:

    [NDBD DEFAULT]
    NoOfReplicas=2
    [MYSQLD DEFAULT]
    [NDB_MGMD DEFAULT]
    [TCP DEFAULT]
    # Managment Server
    [NDB_MGMD]
    HostName=172.16.1.1 #
    管理节点服务器MYSQL-MAANGERIP地址
    # Storage Engines
    [NDBD]
    HostName=172.16.1.2 #MySQL
    集群node01IP地址
    #DataDir= /var/lib/mysql-cluster
    DateDir=/opt/mysql-cluster
    [NDBD]
    HostName=172.16.1.3 #MySQL
    集群node02IP地址
    #DataDir=/var/lib/mysql-cluster
    DataDir=/opt/mysql-cluster

    # 以下2[MYSQLD]可以填写node01node02的主机名。
    # 但为了能够更快的更换集群中的服务器,推荐留空,否则更换服务器后必须对这个配置进行更改。
    [MYSQLD]
    [MYSQLD]

    保存退出后,启动管理节点服务器mysql-manager
    # ndb_mgmd

    注视:
    [NDBD DEFAULT]
    NoOfReplicas= 2
    这个选项定义了两个db节点为一组,每个组只要有一个节点能连上,就不会影响整个cluster;另外运行ndb_mgm的这台服务器是不能停的,停了大家一块玩完.

    启动管理节点后应该注意,这只是管理节点服务,并不是管理终端。因而你看不到任何关于启动后的输出信息。

    #######################################
    # 配置集群服务器并启动MySQL
    #######################################

    mysqlnode-01mysqlnode-02中都需要进行如下改动:

    # vi /etc/my.cnf
    [mysqld]
    ndbcluster
    ndb-connectstring=172.16.1.1 #mysql-manager
    IP地址
    [mysql_cluster]
    ndb-connectstring=172.16.1.1 #mysql-manager
    IP地址

    保存退出后,建立数据目录并启动MySQL

    #mkdir /opt/mysql-cluster
    # cd /opt/mysql-cluster
    # /usr/local/mysql/bin/ndbd --initial ###
    备注:initial在两台节点都需要启动
    # /etc/rc.d/init.d/mysqld start

    可以把/usr/local/mysql/bin/ndbd加到/etc/rc.local中实现开机启动。
    注意:只有在第一次启动
    ndbd时或者对mysql-managerconfig.ini进行改动后才需要使用--initial参数!

    #######################################
    # 检查工作状态
    #######################################
    回到管理节点服务器mysql-manager上,并启动管理终端:

    # /usr/bin/ndb_mgm
    键入show命令查看当前工作状态:(下面是一个状态输出示例)

    [root@mysql-manager mysql-cluster]# ndb_mgm
    -- NDB Cluster -- Management Client --
    ndb_mgm> show
    Connected to Management Server at: localhost:1186
    Cluster Configuration
    ---------------------
    [ndbd(NDB)] 2 node(s)
    id=2 @172.16.1.2 (Version: 5.0.24, Nodegroup: 0, Master)
    id=3 @172.16.1.3 (Version: 5.0.24, Nodegroup: 0)

    [ndb_mgmd(MGM)] 1 node(s)
    id=1 @172.16.1.1 (Version: 5.0.24)

    [mysqld(API)] 2 node(s)
    id=4 @172.16.1.2 (Version: 5.0.24)
    id=5 @172.16.1.3 (Version: 5.0.24)

    ndb_mgm> exit
    [root@mysql-manager mysql-cluster]#

    如果上面没有问题,现在开始测试MySQL
    注意,这篇文档对于
    MySQL并没有设置root密码,推荐你自己设置mysql-node01mysql-node02MySQL root密码。

    mysql-node01中:

    # /usr/local/mysql/bin/mysql -u root -p


    > use test;
    > CREATE TABLE ctest (i INT) ENGINE=NDBCLUSTER;
    > INSERT INTO ctest () VALUES (1);
    > SELECT * FROM ctest;

    应该可以看到1 row returned信息(返回数值1)。

    如果上述正常,则换到mysql-node02上重复上面的测试,观察效果。如果成功,则在mysql-node02中执行INSERT再换回到mysql-node01观察是否工作正常。
    如果都没有问题,那么恭喜成功!

    备注:建表等一定要用关键字:ENGINE=NDBCLUSTER


    #######################################
    # 破坏性测试
    #######################################

    mysql-node01mysql-node02的网线拔掉,观察另外一台集群服务器工作是否正常(可以使用SELECT查询测试)。测试完毕后,重新插入网线即可。

    如果你接触不到物理服务器,也就是说不能拔掉网线,那也可以这样测试:
    mysql-node01mysl-node02上:

    # ps aux | grep ndbd
    将会看到所有ndbd进程信息:

    [root@mysqlnode-01 mysql-cluster]# ps aux | grep ndbd
    root 3498 0.0 0.9 7492 1904 ? Ss 16:49 0:00 /usr/local/mysql/bin/ndbd --initial
    root 3499 0.9 52.8 496076 101064 ? Sl 16:49 0:13 /usr/local/mysql/bin/ndbd --initial
    root 3752 0.0 0.3 4732 684 pts/0 S+ 17:12 0:00 grep ndbd
    [root@mysqlnode-01 mysql-cluster]#

    然后杀掉一个ndbd进程以达到破坏MySQL集群服务器的目的:

    # kill -9 3498 5579

    之后在另一台集群服务器上使用SELECT查询测试。并且在管理节点服务器的管理终端中执行show命令会看到被破坏的那台服务器的状态。
    测试完成后,只需要重新启动被破坏服务器的
    ndbd进程即可:

    备注:但是我的测试不行,需要重新启动这台挂掉的MYSQL服务器才行

    # /usr/local/mysql/bin/ndbd
    注意!前面说过了,此时是不用加--inital参数的!

    备注:如果再要增加节点的话,是需要加-inital参数的,同时必须先备份数据库中的数据,启动完毕后再将数据导入进来。

    #######################################
    # 建立数据库的操作测试
    #######################################
    建立数据库:
    MYSQL集群中建数据库比较复杂,需要在两个NDBD节点上同时进行
    可以使用
    CREATE SCHEMA d475max),后跟FLUSH TABLES。这样,节点就能识别数据库并读取其表定义。

    mysql-node01节点上:
    [root@mysqlnode-01 ~]# /usr/local/mysql/bin/mysql
    Welcome to the MySQL monitor. Commands end with ; or /g.
    Your MySQL connection id is 11 to server version: 5.0.24a-max

    Type 'help;' or '/h' for help. Type '/c' to clear the buffer.

    mysql> CREATE SCHEMA d475max;
    mysql> FLUSH TABLES;
    mysql> quit
    Bye
    [root@mysqlnode-01 ~]#

    mysql-node02节点上:
    [root@mysqlnode-02 ~]# /usr/local/mysql/bin/mysql
    Welcome to the MySQL monitor. Commands end with ; or /g.
    Your MySQL connection id is 11 to server version: 5.0.24a-max

    Type 'help;' or '/h' for help. Type '/c' to clear the buffer.

    mysql> CREATE SCHEMA d475max;
    mysql> FLUSH TABLES;
    mysql> quit
    Bye
    [root@mysqlnode-02 ~]#

    数据增减等操作:
    见上节







    #######################################
    # 增加节点测试
    #######################################

    再安装二台新的虚拟机,如下:
    <!--[if !supportLists]-->172.16.1.13 <!--[endif]-->mysql-node04

    修改mysql-manager上的config文件,如下
    [root@mysql-manager mysql-cluster]# cat config.ini
    [NDBD DEFAULT]
    NoOfReplicas=4
    [MYSQLD DEFAULT]
    [NDB_MGMD DEFAULT]
    [TCP DEFAULT]
    # Managment Server
    [NDB_MGMD]
    HostName=172.16.1.1
    # Storage Engines
    [NDBD]
    HostName=172.16.1.11
    DataDir= /opt/mysql-cluster
    [NDBD]
    HostName=172.16.1.12
    DataDir= /opt/mysql-cluster
    [NDBD]
    HostName=172.16.1.13
    DataDir= /opt/mysql-cluster
    [NDBD]
    HostName=172.16.1.14
    DataDir= /opt/mysql-cluster
    [MYSQLD]
    HostName=172.16.1.11
    [MYSQLD]
    HostName=172.16.1.12
    [root@mysql-manager mysql-cluster]#

    mysql-manager节点上/opt/mysql-cluster下的log文件和pid文件删除
    [root@mysql-manager mysql-cluster]# ndb_mgm -e shutdown
    Connected to Management Server at: 172.16.1.1:1186
    Node 2: Cluster shutdown initiated
    Node 3: Cluster shutdown initiated
    Node 3: Node shutdown completed.
    2 NDB Cluster node(s) have shutdown.
    Disconnecting to allow management server to shutdown.
    [root@mysql-manager mysql-cluster]# pwd
    /opt/mysql-cluster
    [root@mysql-manager mysql-cluster]# rm -f *.log
    [root@mysql-manager mysql-cluster]# rm -f *.pid
    [root@mysql-manager mysql-cluster]#

    删除mysql-node01mysql-node02/opt/mysql-cluster下的所有文件包括目录
    [root@mysqlnode-02 ~]# /etc/rc.d/init.d/mysqld stop
    [root@mysqlnode-02 mysql-cluster]# pwd
    /opt/mysql-cluster
    [root@mysqlnode-02 mysql-cluster]# rm -rf *
    [root@mysqlnode-02 mysql-cluster]#

    重新启动ndb-mgmd并且在四个NDBD节点上进行初始化操作,即
    [root@mysqlnode-03 mysql-cluster]# /usr/local/mysql/bin/ndbd –initial

    然后启动sql节点上的mysql,再进行上几节的测试即可,我的测试没有问题。

    #######################################
    # 集群的关闭
    #######################################
    mysql-manager上运行
    [root@mysql-manager mysql-cluster]# ndb_mgm -e shutdown
    会将NDBD节点全部关闭
    然后停止
    mysql节点上的mysql即可


    至此,MySQL集群配置以及测试全部完成。

你可能感兴趣的:(mysql)