clickhouse集群部署

clickhouse 版本的安装 版本:20.1.6.30-2 环境:CentOS release 6.5

**安装指南: **

1、分别在每台集群上面执行下面的命令安装

sudo yum install yum-utils
sudo rpm --import https://repo.yandex.ru/clickhouse/CLICKHOUSE-KEY.GPG
sudo yum-config-manager --add-repo https://repo.yandex.ru/clickhouse/rpm/stable/x86_64
sudo yum install clickhouse-server clickhouse-client
sudo /etc/init.d/clickhouse-server start
clickhouse-client

2、安装zookeeper
这步跳过,百度一下安装指南一大把

3、在每台机器上面增加配置文件/etc/metrika.xml 这个文件需要自己创建

注意每台机器上面这个主机需要修改对应机器的主机名字


        cdh1
    

	
    
	
        
		
            
                true
                
                    cdh1
                    9000
                
            
            
            
                
                    true
                    cdh2
                    9000
                
            
            
            
                true
                
                    cdh3
                    9000
                
            
			 
            
                
                    cdh4
                    9000
                
            
			 
            
                
                    cdh5
                    9000
                
            
        
    
    
    
        
            cdh1
            2181
        
        
            cdh2
            2181
        
        
            cdh3
            2181
        
    
    
    
        cdh1
    
    
    
        ::/0
    
    
    
        
            10000000000
            0.01
            lz4
        
    


4、在每台主机上面启动clickhouse server

/etc/init.d/clickhouse-server start  #启动命令

/etc/init.d/clickhouse-server status  #查看状态命令

5、在随便一台机器上面启动client去查看clusters表可以查看到集群的所有主机
这里cluster名字为什么会出现这么多test的

[root@cdh5 ~]# clickhouse-client
ClickHouse client version 20.1.6.30 (official build).
Connecting to localhost:9000 as user default.
Connected to ClickHouse server version 20.1.6 revision 54431.

cdh5 :) SELECT * FROM system.clusters;

SELECT *
FROM system.clusters

┌─cluster───────────────────────────┬─shard_num─┬─shard_weight─┬─replica_num─┬─host_name─┬─host_address───┬─port─┬─is_local─┬─user────┬─default_database─┬─errors_count─┬─estimated_recovery_time─┐
│ perftest_3shards_2replicas        │         1 │            1 │           1 │ cdh1      │ 192.168.18.160 │ 9000 │        0 │ default │                  │            0 │                       0 │
│ perftest_3shards_2replicas        │         2 │            1 │           1 │ cdh2      │ 192.168.18.161 │ 9000 │        0 │ default │                  │            0 │                       0 │
│ perftest_3shards_2replicas        │         3 │            1 │           1 │ cdh3      │ 192.168.18.162 │ 9000 │        0 │ default │                  │            0 │                       0 │
│ perftest_3shards_2replicas        │         4 │            1 │           1 │ cdh4      │ 192.168.18.163 │ 9000 │        0 │ default │                  │            0 │                       0 │
│ perftest_3shards_2replicas        │         5 │            1 │           1 │ cdh5      │ 192.168.18.164 │ 9000 │        1 │ default │                  │            0 │                       0 │
│ test_cluster_two_shards           │         1 │            1 │           1 │ 127.0.0.1 │ 127.0.0.1      │ 9000 │        1 │ default │                  │            0 │                       0 │
│ test_cluster_two_shards           │         2 │            1 │           1 │ 127.0.0.2 │ 127.0.0.2      │ 9000 │        0 │ default │                  │            0 │                       0 │
│ test_cluster_two_shards_localhost │         1 │            1 │           1 │ localhost │ ::1            │ 9000 │        1 │ default │                  │            0 │                       0 │
│ test_cluster_two_shards_localhost │         2 │            1 │           1 │ localhost │ ::1            │ 9000 │        1 │ default │                  │            0 │                       0 │
│ test_shard_localhost              │         1 │            1 │           1 │ localhost │ ::1            │ 9000 │        1 │ default │                  │            0 │                       0 │
│ test_shard_localhost_secure       │         1 │            1 │           1 │ localhost │ ::1            │ 9440 │        0 │ default │                  │            0 │                       0 │
│ test_unavailable_shard            │         1 │            1 │           1 │ localhost │ ::1            │ 9000 │        1 │ default │                  │            0 │                       0 │
│ test_unavailable_shard            │         2 │            1 │           1 │ localhost │ ::1            │    1 │        0 │ default │                  │            0 │                       0 │
└───────────────────────────────────┴───────────┴──────────────┴─────────────┴───────────┴────────────────┴──────┴──────────┴─────────┴──────────────────┴──────────────┴─────────────────────────┘

13 rows in set. Elapsed: 0.005 sec. 

cdh5 :)

问题:
为什么在cluster里面会显示这么多test的。只需要将/etc/clickhouse-server/config.xml配置文件中的test注释就可以了再次查询就正常了


        
   
    
cdh3 :) SELECT * FROM system.clusters;

SELECT *
FROM system.clusters

┌─cluster────────────────────┬─shard_num─┬─shard_weight─┬─replica_num─┬─host_name─┬─host_address───┬─port─┬─is_local─┬─user────┬─default_database─┬─errors_count─┬─estimated_recovery_time─┐
│ perftest_3shards_2replicas │         1 │            1 │           1 │ cdh1      │ 192.168.18.160 │ 9000 │        0 │ default │                  │            0 │                       0 │
│ perftest_3shards_2replicas │         2 │            1 │           1 │ cdh2      │ 192.168.18.161 │ 9000 │        0 │ default │                  │            0 │                       0 │
│ perftest_3shards_2replicas │         3 │            1 │           1 │ cdh3      │ 192.168.18.162 │ 9000 │        1 │ default │                  │            0 │                       0 │
│ perftest_3shards_2replicas │         4 │            1 │           1 │ cdh4      │ 192.168.18.163 │ 9000 │        0 │ default │                  │            0 │                       0 │
│ perftest_3shards_2replicas │         5 │            1 │           1 │ cdh5      │ 192.168.18.164 │ 9000 │        0 │ default │                  │            0 │                       0 │
└────────────────────────────┴───────────┴──────────────┴─────────────┴───────────┴────────────────┴──────┴──────────┴─────────┴──────────────────┴──────────────┴─────────────────────────┘

5 rows in set. Elapsed: 0.005 sec.

更多内容关注公众号"数据专场"
clickhouse集群部署_第1张图片

你可能感兴趣的:(clickhouse,clickhouse,部署)