192.168.122.100 BCEuler01
192.168.122.101 BCEuler02
192.168.122.102 BCEuler03
# systemctl disable firewalld
# systemctl stop firewalld
# /etc/selinux/config
SELINUX=disabled
将BCEuler01设置为时钟同步源
BEEuler01的/etc/chrony.conf:
修改的部分:
server 192.168.122.100 iburst
allow 192.168.0.0/16
local stratum 10
BCEuler02的/etc/chrony.conf:
pool 192.168.122.100 iburst
BCEuler03的/etc/chrony.conf:
pool 192.168.122.100 iburst
启动:
# systemctl enable chronyd
# systemctl start chronyd
查看同步情况:
#chronyc sources v
三台服务器搭建一个zookeeper集群
3.9版本与clickhouse不匹配,会有问题
三台服务器上都要上传到/opt目录下
# cd /opt/apache-zookeeper-3.8.2-bin/conf/
# cp zoo_sample.cfg zoo.cfg
三台服务器配置相同,如下:
# more zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/data/zookeeper/data
clientPort=2181
server.0=192.168.122.100:2888:3888
server.1=192.168.122.101:2888:3888
server.2=192.168.122.102:2888:3888
MaxSessionTimeout=120000
forceSync=no
autopurge.snapRetainCount=20
autopurge.purgeInterval=48
4lw.commands.whitelist=*
# mkdir /data/zookeeper/data
# echo 0 > /data/zookeeper/data/myid
# echo 1 > /data/zookeeper/data/myid
# echo 2 > /data/zookeeper/data/myid
# cd /opt/apache-zookeeper-3.8.2-bin
# nohup bin/zkServer.sh start &
# bin/zkServer.sh status
(此方法需要在zoo.cfg中增加 4lw.commands.whitelist=* ):
# echo status | nc 192.168.122.100 2181
# echo status | nc 192.168.122.101 2181
# echo status | nc 192.168.122.102 2181
集群规划
每个节点有2个分片,每个分片有2个副本;
1个分片就是在节点上启动1个clickhouse-server进程,
2个分片就是在节点上启动2个clickhouse-server进程,2个进程使用不同的端口,不同的配置文件 ;
节点:
BCEuler01
第一个分片配置config.xml,tcp_port 9001
第二个分片配置config2.xml, tcp_port 9002
BCEuler02
第一个分片配置config.xml,tcp_port 9001
第二个分片配置config2.xml, tcp_port 9002
clickhouse-common-static-23.7.4.5.x86_64.rpm
clickhouse-client-23.7.4.5.x86_64.rpm
clickhouse-server-23.7.4.5.x86_64.rpm
# cd /etc/clickhouse-server/
修改users.d/default-password.xml文件,设置密码
因为一台节点上要有2个分片就是启2个clickhouse-server进程,所以要有两个config.xml(二个节点都需要如下操作)
# cp config.xml config2.xml
配置文件(下面列出4个配置文件 ,4个配置文件内容基本相同,红字黄底的不一样的部分, 其它都相同,红字的为重要部署):
(只列出了修改的部分)
-->
解释:
同一个节点的config.xml和config2.xm中配置的不同,(同一个端口只被一个进程使用,所以config2.xml要更换端口), tcp_port在配置集群时要用到;;
配置:
.....
代表一个分片,因为每个节点2个分片,所以会有两个这个结构
第一分片:
BCEuler01的第1个clickhouse-server进程 和 BCEuler02的第2个clickhouse-server进程
第二分片
BCEuler01的第2个clickhouse-server进程 和 BCEuler02的第1个clickhouse-server进程
总结:
BCEuler01上 :
第1个clickhouse-server进程为第1分片
第2个clickhouse-server进程为第2分片
BCEuler02上 :
第1个clickhouse-server进程为第2分片
第2个clickhouse-server进程为第1分片
代表一个副本,每个分片有2个副本,所以有两个这个结构
第1个分片有2个副本:
第2个分片有2个副本:
.....
ck_2shard_2replica_cluster集群名称,在使用create语句创建库和表时,需要加上 on cluster ck_2shard_2replica_cluster
internal_replication 开启数据同步的方式
只列出不同部分:
对于macros中shard和relica的定义,逻辑如下:
shard: 如果是第1个分片,那shard为01, 第2个分片shard为02
relica:如果是第1个副本,那取 “主机名01”,第2个副本,那取”主机名02”
第一个分片:
# nohup clickhouse-server --config-file /etc/clickhouse-server/config.xml &
第2个分片:
# nohup clickhouse-server --config-file /etc/clickhouse-server/config2.xml
# tail -f >/var/log/clickhouse-server/clickhouse-server.log
# yum install unixODBC-devel unixODBC
从postgresql官网去找到包下载
源码编译安装psqlodbc主要是为了获取psqlodbcw.so和libodbcpsqlS.so
编译安装后,将2个.so包放到/usr/lib64目录下
# cp /usr/local/lib/psqlodbcw.so /usr/lib64/
# cp /usr/local/lib/libodbcpsqlS.so /usr/lib64/
odbc.ini odbcinst.ini
# more /etc/odbcinst.ini
# Example driver definitions
# Driver from the postgresql-odbc package
# Setup from the unixODBC package
[PostgreSQL]
Description = ODBC for PostgreSQL
Driver = /usr/lib/psqlodbcw.so
Setup = /usr/lib/libodbcpsqlS.so
Driver64 = /usr/lib64/psqlodbcw.so
Setup64 = /usr/lib64/libodbcpsqlS.so
FileUsage = 1
# Driver from the mysql-connector-odbc package
# Setup from the unixODBC package
[MySQL]
Description = ODBC for MySQL
Driver = /usr/lib/libmyodbc5.so
Setup = /usr/lib/libodbcmyS.so
Driver64 = /usr/lib64/libmyodbc5.so
Setup64 = /usr/lib64/libodbcmyS.so
FileUsage = 1
# more /etc/odbc.ini
注: [postgresql] 为数据库连接字符串,类似oracle的database link名称
[DEFAULT]
Driver = postgresql
[postgresql]
Description = GP
Driver = PostgreSQL
Database = gpdbtest
Servername = 192.168.122.102
UserName = gpadmin
Password = 1233455
Port = 5432
ReadOnly = 0
ConnSettings = set client_encoding to UTF8
查看是否可以连接到远程的greenplum数据库:
# isql postgresql gpadmin 1233455
会有Connected字样!
CREATE DICTIONARY on cluster ck_2shard_2replica_cluster test(
`id` Int64 DEFAULT 0,
`name` String DEFAULT 'a'
)
PRIMARY KEY id
SOURCE(ODBC(CONNECTION_STRING 'DSN=postgresql' TABLE 'test_data'))
LIFETIME(MIN 180 MAX 240)
LAYOUT(HASHED())
postgresq为database link名称,在/etc/odbc.ini配置
# clickhouse-client --port=9001 --user=default
输入default用户的密码
BCEuler01 :) select * from test limit 10;
如果可以查出数据,说明连接没有问题
在/etc/odbc.ini配置密码后,会提示密码错误,对于特殊字符的密码如果配置,还未解决
(未完待更)