Docker学习笔记(二)--进阶篇

文章目录

    • 1. Docker复杂安装
      • 1.1 安装Mysql的主从复制
        • 主从搭建步骤
      • 1.2 安装Redis集群
        • 1.2.1 面试题:1~2亿条数据需要缓存,请问应该怎样设计
        • 1.2.2 三主三从集群配置步骤
        • 1.2.3 主从容错切换迁移案例
        • 1.2.4 主从容错的切换迁移
        • 1.2.5 主从扩容案例
        • 1.2.6 主从缩容案例
      • 1.3 补充:将容器设置为开机自启
    • 2. DockerFlie解析
      • 2.1 是什么?
      • 2.2 DockerFlie构建过程解析
        • 2.2.1 Dockerfile内容基础知识
        • 2.2.2 Docker执行DockerFile大致流程
        • 2.2.3 小总结
      • 2.3 DockerFlie常用保留字指令
      • 2.4 案例
        • 2.4.1 自定义镜像mycentosjava8
        • 2.4.2 虚悬镜像
        • 2.4.3 自定义镜像myUbuntu
    • 3. Docker微服务实战
      • 3.1 通过IDEA创建一个普通的微服务模块
      • 3.2 通过Dockerfile发布微服务部署到Docker中
    • 4. Docker网络
      • 4.1 是什么
      • 4.2 常用的基本命令
      • 4.3 能干啥
      • 4.4 网络模式
    • 5. Docker-compose容器编排
      • 5.1 是什么
      • 5.2 能干啥
      • 5.3 去哪下载
      • 5.4 Compose核心概念
      • 5.5 Compose使用的三个步骤
      • 5.6 Compose常用命令
      • 5.7 Compose编排服务
    • 6. Docker轻量级可视化工具Portainer
      • 6.1 是什么
      • 6.2 安装
    • 7. Docker容器监控之CAdvisor+InfluxDB+Granfana
      • 7.1 原生命令
      • 7.2 是什么
      • 7.3 使用

1. Docker复杂安装

1.1 安装Mysql的主从复制

主从搭建步骤

1、新建主服务器容器实例3307

docker run -p 3307:3306 --name mysql-master #3307映射到3306,容器名为mysql-master
-v /app/mysql/mydata/mysql-master/log:/var/log/mysql #容器数据卷
-v /app/mysql/mydata/mysql-master/data:/var/lib/mysql
-v /app/mysql/mydata/mysql-master/conf:/etc/mysql
-e MYSQL_ROOT_PASSWORD=root # -e配置环境,配置了root的密码为root
-d mysql:5.7

完整命令
docker run -p 3307:3306 --name mysql-master -v /app/mysql/mydata/mysql-master/log:/var/log/mysql -v /app/mysql/mydata/mysql-master/data:/var/lib/mysql -v /app/mysql/mydata/mysql-master/conf:/etc/mysql -e MYSQL_ROOT_PASSWORD=root -d mysql:5.7

2、进入/app/mysql/mydata/mysql-master/conf目录下新建my.cnf

[mysqld]
## 设置server_id,同一局域网中需要唯一
server_id=101 
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql  
## 开启二进制日志功能
log-bin=mall-mysql-bin  
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M  
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed  
## 二进制日志过期清理时间。默认值为0,表示不自动清理。
expire_logs_days=7  
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062

3、修改完配置之后重启master实例

docker restart mysql-master

4、进入mysql-master容器

[root@centos100 conf]# docker exec -it mysql-master /bin/bash
root@b58afbb1ac1a:/# mysql -uroot -p
Enter password: 
...
mysql> show databases;
+--------------------+
| Database           |
+--------------------+
| information_schema |
| mysql              |		<--上面配置不需要同步的数据库名称mysql,指的就是这个库
| performance_schema |
| sys                |
+--------------------+
4 rows in set (0.00 sec)

5、master容器实例内创建数据同步用户

#创建一个用户
mysql> create user 'slave'@'%' identified by '123456';
Query OK, 0 rows affected (0.03 sec)

#授权
mysql> grant replication slave,replication client on *.* to 'slave'@'%';
Query OK, 0 rows affected (0.00 sec)

6、新建从服务器容器3308

docker run -p 3308:3306 --name mysql-slave #端口映射,3308映射到3306,修改容器名为mysql-slave
-v /app/mysql/mydata/mysql-slave/log:/var/log/mysql #添加容器卷
-v /app/mysql/mydata/mysql-slave/data:/var/lib/mysql
-v /app/mysql/mydata/mysql-slave/conf:/etc/mysql 
-e MYSQL_ROOT_PASSWORD=root #创建root密码为root
-d mysql:5.7 #镜像名

完整命令
docker run -p 3308:3306 --name mysql-slave -v /app/mysql/mydata/mysql-slave/log:/var/log/mysql -v /app/mysql/mydata/mysql-slave/data:/var/lib/mysql -v /app/mysql/mydata/mysql-slave/conf:/etc/mysql -e MYSQL_ROOT_PASSWORD=root -d mysql:5.7

7、进入/app/mysql/mydata/mysql-slave/conf目录下新建my.cnf

[mysqld]
## 设置server_id,同一局域网中需要唯一
server_id=102
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql  
## 开启二进制日志功能,以备Slave作为其它数据库实例的Master时使用
log-bin=mall-mysql-slave1-bin  
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M  
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed  
## 二进制日志过期清理时间。默认值为0,表示不自动清理。
expire_logs_days=7  
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062  
## relay_log配置中继日志
relay_log=mall-mysql-relay-bin  
## log_slave_updates表示slave将复制事件写进自己的二进制日志
log_slave_updates=1  
## slave设置为只读(具有super权限的用户除外)
read_only=1

8、修改完配置后重启slave实例

docker restart mysql-slave

9、在主数据库中查看主从同步状态

[root@centos100 conf]# docker exec -it mysql-master /bin/bash
root@b58afbb1ac1a:/# mysql -uroot -p
Enter password: 
...
mysql> show master status;
+-----------------------+----------+--------------+------------------+-------------------+
| File                  | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set |
+-----------------------+----------+--------------+------------------+-------------------+
| mall-mysql-bin.000001 |      617 |              | mysql            |                   |
+-----------------------+----------+--------------+------------------+-------------------+
1 row in set (0.00 sec)

10、进入mysql-slave容器

[root@centos100 conf]# docker exec -it mysql-slave /bin/bash
root@ee7d461daf7f:/# mysql -uroot -p
Enter password:

11、在从数据库中配置主从复制

change master to master_host='宿主机ip', master_user='slave', master_password='123456', master_port=3307, master_log_file='mall-mysql-bin.000001', master_log_pos=617, master_connect_retry=30;

主从复制命令参数说明
master_host:主数据库的IP地址;
master_port:主数据库的运行端口;
master_user:在主数据库创建的用于同步数据的用户账号;
master_password:在主数据库创建的用于同步数据的用户密码;
master_log_file:指定从数据库要复制数据的日志文件,通过查看主数据的状态,获取File参数;
master_log_pos:指定从数据库从哪个位置开始复制数据,通过查看主数据的状态,获取Position参数;
master_connect_retry:连接失败重试的时间间隔,单位为秒。

12、在从数据库中查看主从同步状态

show slave status\G;

13、在从数据库开启主从同步

mysql> start slave;
Query OK, 0 rows affected (0.01 sec)

执行这个命令之前,在12步时可以看到
         Slave_IO_Running: No
         Slave_SQL_Running: No
当执行成功后
         Slave_IO_Running: Yes
         Slave_SQL_Running: Yes

14、查看从数据库状态发现已经同步

15、主从复制测试

主机创建库、表

mysql> create database db01;
Query OK, 1 row affected (0.00 sec)

mysql> use db01;
Database changed
mysql> create table t1(id int,name varchar(12));
Query OK, 0 rows affected (0.00 sec)
mysql> insert into t1 values (1,'zhangsan');
Query OK, 1 row affected (0.01 sec)

mysql> select * from t1;
+------+----------+
| id   | name     |
+------+----------+
|    1 | zhangsan |
+------+----------+
1 row in set (0.00 sec)

从机

mysql> use db01;
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A

Database changed
mysql> select * from t1;
+------+----------+
| id   | name     |
+------+----------+
|    1 | zhangsan |
+------+----------+
1 row in set (0.00 sec)

1.2 安装Redis集群

cluster(集群)模式-docker版

哈希槽分区进行亿级数据存储

1.2.1 面试题:1~2亿条数据需要缓存,请问应该怎样设计

单机单台100%不可能,肯定是分布式存储,用redis如何落地?

1. 哈希取余分区
	1.1 2亿条记录就是2亿个k,v,我们单机不行必须要分布式多机,假设有3台机器构成一个集群,用户每次读写操作都是根据公式:
hash(key) % N个机器台数,计算出哈希值,用来决定数据映射到哪一个节点上。
	1.2 优点:
	简单粗暴,直接有效,只需要预估好数据规划好节点,例如3台、8台、10台,就能保证一段时间的数据支撑。使用Hash算法让固定的一部分请求落到同一台服务器上,这样每台服务器固定处理一部分请求(并维护这些请求的信息),起到负载均衡+分而治之的作用。
	1.3 缺点:
	原来规划好的节点,进行扩容或者缩容就比较麻烦了额,不管扩缩,每次数据变动导致节点有变动,映射关系需要重新进行计算,在服务器个数固定不变时没有问题,如果需要弹性扩容或故障停机的情况下,原来的取模公式就会发生变化:Hash(key)/3会变成Hash(key) /?。此时地址经过取余运算的结果将发生很大变化,根据公式获取的服务器也会变得不可控。
某个redis机器宕机了,由于台数数量变化,会导致hash取余全部数据重新洗牌。

2. 一致性哈希算法分区
	2.1 是什么
	一致性Hash算法背景:一致性哈希算法在1997年由麻省理工学院中提出的,设计目标是为了解决分布式缓存数据变动和映射问题,某个机器宕机了,分母数量改变了,自然取余数不OK了。
	2.2 能干啥
	提出一致性Hash解决方案。目的是当服务器个数发生变动时,尽量减少影响客户端到服务器的映射关系
	2.3 三大步骤
	2.3.1 一致性哈希环
	一致性哈希算法必然有个hash函数并按照算法产生hash值,这个算法的所有可能哈希值会构成一个全量集,这个集合可以成为一个hash空间[0,2^32-1],这个是一个线性空间,但是在算法中,我们通过适当的逻辑控制将它首尾相连(0 = 2^32),这样让它逻辑上形成了一个环形空间。
	2.3.2 节点映射
	将集群中各个IP节点映射到环上的某一个位置。将各个服务器使用Hash进行一个哈希,具体可以选择服务器的IP或主机名作为关键字进行哈希,这样每台机器就能确定其在哈希环上的位置。假如4个节点NodeA、B、C、D,经过IP地址的哈希函数计算(hash(ip))
	2.3.3 key落到服务器的落键规则
	当我们需要存储一个kv键值对时,首先计算key的hash值,hash(key),将这个key使用相同的函数Hash计算出哈希值并确定此数据在环上的位置,从此位置沿环顺时针“行走”,第一台遇到的服务器就是其应该定位到的服务器,并将该键值对存储在该节点上。如我们有Object A、Object B、Object C、Object D四个数据对象,经过哈希计算后,在环空间上的位置如下:根据一致性Hash算法,数据A会被定为到Node A上,B被定为到Node B上,C被定为到Node C上,D被定为到Node D上。
	2.4 优点
	2.4.1 解决了一致性哈希算法的容错性
	假设Node C宕机,可以看到此时对象A、B、D不会受到影响,只有C对象被重定位到Node D。一般的,在一致性Hash算法中,如果一台服务器不可用,则受影响的数据仅仅是此服务器到其环空间中前一台服务器(即沿着逆时针方向行走遇到的第一台服务器)之间数据,其它不会受到影响。简单说,就是C挂了,受到影响的只是B、C之间的数据,并且这些数据会转移到D进行存储。
	2.4.2 解决了一致性哈希算法的扩展性
	数据量增加了,需要增加一台节点NodeX,X的位置在A和B之间,那收到影响的也就是A到X之间的数据,重新把A到X的数据录入到X上即可,不会导致hash取余全部数据重新洗牌。
	2.5 缺点
	Hash环的数据倾斜问题
	一致性Hash算法在服务节点太少时,容易因为节点分布不均匀而造成数据倾斜(被缓存的对象大部分集中缓存在某一台服务器上)问题
	2.6 总结
	为了在节点数目发生改变时尽可能少的迁移数据
	将所有的存储节点排列在收尾相接的Hash环上,每个key在计算Hash后会顺时针找到临近的存储节点存放。
	而当有节点加入或退出时仅影响该节点在Hash环上顺时针相邻的后续节点。  
	优点:
	加入和删除节点只影响哈希环中顺时针方向的相邻的节点,对其他节点无影响。
	缺点 :
	数据的分布和节点的位置有关,因为这些节点不是均匀的分布在哈希环上的,所以数据在进行存储时达不到均匀分布的效果。

3. 哈希槽分区
	3.1 为什么会出现
	解决一致性哈希算法的数据倾斜问题
	哈希槽实质就是一个数组,数组[0,2^14 -1]形成hash slot空间。
	3.2 能干什么
	解决均匀分配的问题,在数据和节点之间又加入了一层,把这层称为哈希槽(slot),用于管理数据和节点之间的关系,现在就相当于节点上放的是槽,槽里放的是数据。
	槽解决的是粒度问题,相当于把粒度变大了,这样便于数据移动。
	哈希解决的是映射问题,使用key的哈希值来计算所在的槽,便于数据分配。
	3.3 有多少个hash槽
	一个集群只能有16384个槽,编号0-16383(0-2^14-1)。这些槽会分配给集群中的所有主节点,分配策略没有要求。可以指定哪些编号的槽分配给哪个主节点。集群会记录节点和槽的对应关系。解决了节点和槽的关系后,接下来就需要对key求哈希值,然后对16384取余,余数是几key就落入对应的槽里。slot = CRC16(key) % 16384。以槽为单位移动数据,因为槽的数目是固定的,处理起来比较容易,这样数据移动问题就解决了。
	3.4 哈希槽计算
	Redis 集群中内置了 16384 个哈希槽,redis 会根据节点数量大致均等的将哈希槽映射到不同的节点。当需要在 Redis 集群中放置一个 key-value时,redis 先对 key 使用 crc16 算法算出一个结果,然后把结果对 16384 求余数,这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,也就是映射到某个节点上。如下代码,key之A 、B在Node2, key之C落在Node3上

1.2.2 三主三从集群配置步骤

1、新建6个docker容器实例

docker run -d	#创建并运行docker容器实例
--name redis-node-1	#容器名字
--net host	#使用宿主机的ip端口,默认
--privileged=true	#获取宿主机的用户权限
-v /app/redis/share/redis-node-1:/data	#容器卷  宿主机地址:docker内部地址 
redis #redis镜像
--cluster-enabled yes	#开启redis集群
--appendonly yes	#开启持久化
--port 6381	#redis端口


docker run -d --name redis-node-1 --net host --privileged=true -v /app/redis/share/redis-node-1:/data redis --cluster-enabled yes --appendonly yes --port 6381

docker run -d --name redis-node-2 --net host --privileged=true -v /app/redis/share/redis-node-2:/data redis --cluster-enabled yes --appendonly yes --port 6382

docker run -d --name redis-node-3 --net host --privileged=true -v /app/redis/share/redis-node-3:/data redis --cluster-enabled yes --appendonly yes --port 6383

docker run -d --name redis-node-4 --net host --privileged=true -v /app/redis/share/redis-node-4:/data redis --cluster-enabled yes --appendonly yes --port 6384

docker run -d --name redis-node-5 --net host --privileged=true -v /app/redis/share/redis-node-5:/data redis --cluster-enabled yes --appendonly yes --port 6385

docker run -d --name redis-node-6 --net host --privileged=true -v /app/redis/share/redis-node-6:/data redis --cluster-enabled yes --appendonly yes --port 6386

2、进入容器redis-node-1并为6台机器构建集群关系

//注意,进入docker容器后才能执行一下命令,且注意自己的真实IP地址
redis-cli --cluster create 192.168.75.100:6381 192.168.75.100:6382 192.168.75.100:6383 192.168.75.100:6384 192.168.75.100:6385 192.168.75.100:6386 --cluster-replicas 1

--cluster-replicas 1 表示为每个master创建一个slave节点
[root@centos100 ~]# docker exec -it redis-node-1 /bin/bash
root@centos100:/data# redis-cli --cluster create 192.168.75.100:6381 192.168.75.100:6382 192.168.75.100:6383 192.168.75.100:6384 192.168.75.100:6385 192.168.75.100:6386 --cluster-replicas 1
>>> Performing hash slots allocation on 6 nodes...
Master[0] -> Slots 0 - 5460
Master[1] -> Slots 5461 - 10922
Master[2] -> Slots 10923 - 16383
Adding replica 192.168.75.100:6385 to 192.168.75.100:6381
Adding replica 192.168.75.100:6386 to 192.168.75.100:6382
Adding replica 192.168.75.100:6384 to 192.168.75.100:6383
>>> Trying to optimize slaves allocation for anti-affinity
[WARNING] Some slaves are in the same host as their master
M: 08df796c1908646c721bf261d01604cfcde0bdec 192.168.75.100:6381
slots:[0-5460] (5461 slots) master
M: c71627fc6d20b9ca61fca76d1fd7e0adab02ec48 192.168.75.100:6382
slots:[5461-10922] (5462 slots) master
M: 1f37845789f52b4713200bbc4bc89dbad1fdfdf5 192.168.75.100:6383
slots:[10923-16383] (5461 slots) master
S: 16da45b459ba780926566fcda4407cf0798f01ca 192.168.75.100:6384
replicates c71627fc6d20b9ca61fca76d1fd7e0adab02ec48
S: 7ea18ad035fd83d1e6828022832915ffd7c1d89c 192.168.75.100:6385
replicates 1f37845789f52b4713200bbc4bc89dbad1fdfdf5
S: 1240de80a446da678036b886d11beddee60c6ba3 192.168.75.100:6386
replicates 08df796c1908646c721bf261d01604cfcde0bdec
Can I set the above configuration? (type 'yes' to accept): yes
>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join
....
>>> Performing Cluster Check (using node 192.168.75.100:6381)
M: 08df796c1908646c721bf261d01604cfcde0bdec 192.168.75.100:6381
slots:[0-5460] (5461 slots) master
1 additional replica(s)
S: 16da45b459ba780926566fcda4407cf0798f01ca 192.168.75.100:6384
slots: (0 slots) slave
replicates c71627fc6d20b9ca61fca76d1fd7e0adab02ec48
M: c71627fc6d20b9ca61fca76d1fd7e0adab02ec48 192.168.75.100:6382
slots:[5461-10922] (5462 slots) master
1 additional replica(s)
S: 1240de80a446da678036b886d11beddee60c6ba3 192.168.75.100:6386
slots: (0 slots) slave
replicates 08df796c1908646c721bf261d01604cfcde0bdec
S: 7ea18ad035fd83d1e6828022832915ffd7c1d89c 192.168.75.100:6385
slots: (0 slots) slave
replicates 1f37845789f52b4713200bbc4bc89dbad1fdfdf5
M: 1f37845789f52b4713200bbc4bc89dbad1fdfdf5 192.168.75.100:6383
slots:[10923-16383] (5461 slots) master
1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
root@centos100:/data# 

3、链接进入6381作为切入点,查看集群状态

root@centos100:/data# redis-cli -p 6381
127.0.0.1:6381> cluster info
cluster_state:ok
cluster_slots_assigned:16384
cluster_slots_ok:16384
cluster_slots_pfail:0
cluster_slots_fail:0
cluster_known_nodes:6	#6个节点
cluster_size:3
cluster_current_epoch:6
cluster_my_epoch:1
cluster_stats_messages_ping_sent:188
cluster_stats_messages_pong_sent:198
cluster_stats_messages_sent:386
cluster_stats_messages_ping_received:193
cluster_stats_messages_pong_received:188
cluster_stats_messages_meet_received:5
cluster_stats_messages_received:386
127.0.0.1:6381> cluster nodes
16da45b459ba780926566fcda4407cf0798f01ca 192.168.75.100:6384@16384 slave c71627fc6d20b9ca61fca76d1fd7e0adab02ec48 0 1653649433792 2 connected
c71627fc6d20b9ca61fca76d1fd7e0adab02ec48 192.168.75.100:6382@16382 master - 0 1653649433000 2 connected 5461-10922
1240de80a446da678036b886d11beddee60c6ba3 192.168.75.100:6386@16386 slave 08df796c1908646c721bf261d01604cfcde0bdec 0 1653649430699 1 connected
7ea18ad035fd83d1e6828022832915ffd7c1d89c 192.168.75.100:6385@16385 slave 1f37845789f52b4713200bbc4bc89dbad1fdfdf5 0 1653649432000 3 connected
1f37845789f52b4713200bbc4bc89dbad1fdfdf5 192.168.75.100:6383@16383 master - 0 1653649432777 3 connected 10923-16383
08df796c1908646c721bf261d01604cfcde0bdec 192.168.75.100:6381@16381 myself,master - 0 1653649431000 1 connected 0-5460

#根据输出结果来看 1 -> 6  2 -> 4  3 -> 5
127.0.0.1:6381> 

Docker学习笔记(二)--进阶篇_第1张图片

1.2.3 主从容错切换迁移案例

数据读写存储

1、通过exec进入一台redis

[root@centos100 ~]# docker exec -it redis-node-1 /bin/bash
root@centos100:/data# redis-cli -p 6381
127.0.0.1:6381> keys *
(empty array)

2、对6381新增几个key

127.0.0.1:6381> set k1 v1
(error) MOVED 12706 192.168.75.100:6383
127.0.0.1:6381> set k2 v2
OK
127.0.0.1:6381> set k3 v3
OK
127.0.0.1:6381> set k4 v4
(error) MOVED 8455 192.168.75.100:6382
127.0.0.1:6381> 

3、防止路由器失效,添加参数-c

root@centos100:/data# redis-cli -p 6381 -c
127.0.0.1:6381> flushall
OK
127.0.0.1:6381> set vi k1
-> Redirected to slot [8048] located at 192.168.75.100:6382
OK
192.168.75.100:6382> set k2 v2
-> Redirected to slot [449] located at 192.168.75.100:6381
OK
192.168.75.100:6381> set k3 v3
OK
192.168.75.100:6381> set k4 v4
-> Redirected to slot [8455] located at 192.168.75.100:6382
OK

4、查看集群信息

redis-cli --cluster check 192.168.75.100:6381

1.2.4 主从容错的切换迁移

1、主6381和从机切换,先停止6381

[root@centos100 ~]# docker stop redis-node-1
redis-node-1

2、再次查看集群信息

[root@centos100 ~]# docker exec -it redis-node-2 /bin/bash
root@centos100:/data# redis-cli -p 6382 -c
127.0.0.1:6382> cluster nodes
1240de80a446da678036b886d11beddee60c6ba3 192.168.75.100:6386@16386 master - 0 1653652908000 7 connected 0-5460
c71627fc6d20b9ca61fca76d1fd7e0adab02ec48 192.168.75.100:6382@16382 myself,master - 0 1653652904000 2 connected 5461-10922
08df796c1908646c721bf261d01604cfcde0bdec 192.168.75.100:6381@16381 master,fail - 1653652828089 1653652822986 1 disconnected
1f37845789f52b4713200bbc4bc89dbad1fdfdf5 192.168.75.100:6383@16383 master - 0 1653652906922 3 connected 10923-16383
7ea18ad035fd83d1e6828022832915ffd7c1d89c 192.168.75.100:6385@16385 slave 1f37845789f52b4713200bbc4bc89dbad1fdfdf5 0 1653652908000 3 connected
16da45b459ba780926566fcda4407cf0798f01ca 192.168.75.100:6384@16384 slave c71627fc6d20b9ca61fca76d1fd7e0adab02ec48 0 1653652908967 2 connected

在这里插入图片描述

3、还原之前的3主3从

[root@centos100 ~]# docker start redis-node-1
redis-node-1
[root@centos100 ~]# docker exec -it redis-node-1 /bin/bash
root@centos100:/data# redis-cli -p 6381 -c
127.0.0.1:6381> cluster nodes
16da45b459ba780926566fcda4407cf0798f01ca 192.168.75.100:6384@16384 slave c71627fc6d20b9ca61fca76d1fd7e0adab02ec48 0 1653653200093 2 connected
7ea18ad035fd83d1e6828022832915ffd7c1d89c 192.168.75.100:6385@16385 slave 1f37845789f52b4713200bbc4bc89dbad1fdfdf5 0 1653653202126 3 connected
1f37845789f52b4713200bbc4bc89dbad1fdfdf5 192.168.75.100:6383@16383 master - 0 1653653203142 3 connected 10923-16383
c71627fc6d20b9ca61fca76d1fd7e0adab02ec48 192.168.75.100:6382@16382 master - 0 1653653201111 2 connected 5461-10922
1240de80a446da678036b886d11beddee60c6ba3 192.168.75.100:6386@16386 master - 0 1653653200000 7 connected 0-5460
08df796c1908646c721bf261d01604cfcde0bdec 192.168.75.100:6381@16381 myself,slave 1240de80a446da678036b886d11beddee60c6ba3 0 1653653201000 7 connected

在这里插入图片描述

停止6386

[root@centos100 ~]# docker stop redis-node-6
redis-node-6

再启动6386

[root@centos100 ~]# docker start redis-node-6
redis-node-6

查看集群状态

redis-cli --cluster check 192.168.75.100:6381

1.2.5 主从扩容案例

1、新建6387、6388两个节点,新建后启动,检查是否8个节点

docker run -d --name redis-node-7 --net host --privileged=true -v /data/redis/share/redis-node-7:/data redis --cluster-enabled yes --appendonly yes --port 6387

docker run -d --name redis-node-8 --net host --privileged=true -v /data/redis/share/redis-node-8:/data redis --cluster-enabled yes --appendonly yes --port 6388

2、进入到6387容器内部

3、将新增的6387节点(空槽位)作为master节点加入原集群

将新增的6387作为master节点加入集群
redis-cli --cluster add-node 自己实际IP地址:6387 自己实际IP地址:6381
6387 就是将要作为master新增节点
6381 就是原来集群节点里面的领路人,相当于6387拜拜6381的码头从而找到组织加入集群

redis-cli --cluster add-node 192.168.75.100:6387 192.168.75.100:6381

4、检查集群的情况第一次

root@centos100:/data# redis-cli --cluster check 192.168.75.100:6381
192.168.75.100:6381 (08df796c...) -> 2 keys | 5461 slots | 1 slaves.
192.168.75.100:6387 (987146b1...) -> 0 keys | 0 slots | 0 slaves.
192.168.75.100:6382 (c71627fc...) -> 2 keys | 5462 slots | 1 slaves.
192.168.75.100:6383 (1f378457...) -> 0 keys | 5461 slots | 1 slaves.
[OK] 4 keys in 4 masters.
0.00 keys per slot on average.
>>> Performing Cluster Check (using node 192.168.75.100:6381)
M: 08df796c1908646c721bf261d01604cfcde0bdec 192.168.75.100:6381
slots:[0-5460] (5461 slots) master
1 additional replica(s)
M: 987146b1eb2e78155b1885312cc5fd92e4155b79 192.168.75.100:6387
slots: (0 slots) master
S: 7ea18ad035fd83d1e6828022832915ffd7c1d89c 192.168.75.100:6385
slots: (0 slots) slave
replicates 1f37845789f52b4713200bbc4bc89dbad1fdfdf5
S: 1240de80a446da678036b886d11beddee60c6ba3 192.168.75.100:6386
slots: (0 slots) slave
replicates 08df796c1908646c721bf261d01604cfcde0bdec
M: c71627fc6d20b9ca61fca76d1fd7e0adab02ec48 192.168.75.100:6382
slots:[5461-10922] (5462 slots) master
1 additional replica(s)
M: 1f37845789f52b4713200bbc4bc89dbad1fdfdf5 192.168.75.100:6383
slots:[10923-16383] (5461 slots) master
1 additional replica(s)
S: 16da45b459ba780926566fcda4407cf0798f01ca 192.168.75.100:6384
slots: (0 slots) slave
replicates c71627fc6d20b9ca61fca76d1fd7e0adab02ec48
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.

5、重新分配槽位

重新分派槽号命令:redis-cli --cluster reshard IP地址:端口号

Docker学习笔记(二)--进阶篇_第2张图片

6、第二次查看集群情况
Docker学习笔记(二)--进阶篇_第3张图片

7、为主节点6387分配从节点6388

命令:redis-cli --cluster add-node ip:新slave端口 ip:新master端口 --cluster-slave --cluster-master-id 新主机节点ID

redis-cli --cluster add-node 192.168.111.147:6388 192.168.111.147:6387 --cluster-slave --cluster-master-id e4781f644d4a4e4d4b4d107157b9ba8144631451-------这个是6387的编号,按照自己实际情况

redis-cli --cluster add-node 192.168.75.100:6388 192.168.75.100:6387 --cluster-slave --cluster-master-id 987146b1eb2e78155b1885312cc5fd92e4155b79

8、第三次查看集群情况

redis-cli --cluster check 192.168.75.100:6381

Docker学习笔记(二)--进阶篇_第4张图片

1.2.6 主从缩容案例

目的:6387、6388下线

1、检查集群情况,获得6387节点ID

aa69bde36b65c2985cadb634ee1616c4e4355717

2、从集群中将4号从节点6388删除

命令:redis-cli --cluster del-node ip:从机端口 从机6388节点ID

redis-cli --cluster del-node 192.168.75.100:6388 aa69bde36b65c2985cadb634ee1616c4e4355717

检查一下,可以发现6388已经被删除
redis-cli --cluster check 192.168.75.100:6387

3、将6387槽位重新分配,本例将所有清出来的槽位都给6381

redis-cli --cluster reshard 192.168.75.100:6381

Docker学习笔记(二)--进阶篇_第5张图片

Docker学习笔记(二)--进阶篇_第6张图片

4、第二次检查集群情况

redis-cli --cluster check 192.168.75.100:6381
4096个槽位都指给6381,它变成了8192个槽位,相当于全部都给6381了,不然要输入3次

5、将6387删除

命令:redis-cli --cluster del-node ip:端口 6387节点ID

redis-cli --cluster del-node 192.168.75.100:6387 987146b1eb2e78155b1885312cc5fd92e4155b79

6、第三次检查集群情况

1.3 补充:将容器设置为开机自启

运行启动容器时指定
docker run -p 3306:3306 --restart=always -d mysql:5.7

restart具体参数值详细信息:
	no 容器退出时,不重启容器;
	on-failure 只有在非0状态退出时才从新启动容器;
	always 无论退出状态是如何,都重启容器;
	
创建时未指定
docker update --restart=always xxx

2. DockerFlie解析


2.1 是什么?

DockerFile是用来构建Docker的文本文件,是由一条条构建镜像所需的指令和参数构成的脚本

官网:官网地址

构建三步骤

​ 1、编写Dockerfile文件

​ 2、docker bulid命令构建镜像

​ 3、docker run依照新镜像有幸容器实例

2.2 DockerFlie构建过程解析

2.2.1 Dockerfile内容基础知识

1、每条保留字指令都必须为大写字母且后面要跟随至少一个参数

2、指令按照从上到下,顺序执行

3、#表示注释

4、每条指令都会创建一个新的镜像层并对镜像进行提交

2.2.2 Docker执行DockerFile大致流程

1、docker从基础镜像运行一个容器

2、执行一条指令并对容器作出修改

3、执行类似docker commit的操作提交一个新的镜像层

4、docker再基于刚提交的镜像运行一个新容器

5、执行dockerfile中的下一条指令直到所有指令都执行完成

2.2.3 小总结

从应用软件的角度来看,Dockerfile、Docker镜像与Docker容器分别代表软件的三个不同阶段,

* Dockerfile是软件的原材料

* Docker镜像是软件的交付品

* Docker容器则可以认为是软件镜像的运行态,也即依照镜像运行的容器实例

Dockerfile面向开发,Docker镜像成为交付标准,Docker容器则涉及部署与运维,三者缺一不可,合力充当Docker体系的基石。

1、Dockerfile,需要定义一个Dockerfile,Dockerfile定义了进程需要的一切东西。Dockerfile涉及的内容包括执行代码或者是文件、环境变量、依赖包、运行时环境、动态链接库、操作系统的发行版、服务进程和内核进程(当应用进程需要和系统服务和内核进程打交道,这时需要考虑如何设计namespace的权限控制)等等;

2、Docker镜像,在用Dockerfile定义一个文件之后,docker build时会产生一个Docker镜像,当运行 Docker镜像时会真正开始提供服务;

3、Docker容器,容器是直接提供服务的。

2.3 DockerFlie常用保留字指令

FROM:基础镜像,当前镜像是基于哪个镜像的,指定一个已经存在的镜像作为模板,第一条必须是FROM

MAINTAINER:镜像维护者的姓名和邮箱地址

RUN:容器在构建时需要运行的命令;有两种格式:shell格式、exec格式;RUN是在docker build时运行

Docker学习笔记(二)--进阶篇_第7张图片
Docker学习笔记(二)--进阶篇_第8张图片

EXPOSE:当前容器对外暴露的端口

WORKDIR:指定在创建容器后,中断默认登录的进来的工作目录,一个落脚点

USER:指定该镜像是以什么样的用户去执行,如果不指定,默认是root

ENV:用来在构建镜像的过程中配置环境变量

VOLUME:数据容器卷,用于数据保存和持久化工作

ADD:将宿主机目录下的文件拷贝进镜像,且会自动处理url和解压tar包

COPY:类似ADD,拷贝文件和目录到镜像中。将从构建上下文目录中 <源路径> 的文件/目录复制到新的一层的镜像内的 <目标路径> 位置

CMD:指定容器启动后要干的事

Docker学习笔记(二)--进阶篇_第9张图片

​ 注意:Dockerfile 中可以有多个 CMD 指令,但只有最后一个生效,CMD 会被 docker run 之后的参数替换

​ 和RUN之间的区别:CMD是在docker run时运行;RUN是在docker build时运行

ENTRYPOINT:也是用来指定一个容器启动时要运行的命令

​ ENTRYPOINT可以和CMD一起用,一般是变参才会使用 CMD ,这里的 CMD 等于是在给 ENTRYPOINT 传参。

​ 当指定了ENTRYPOINT后,CMD的含义就发生了变化,不再是直接运行其命令而是将CMD的内容作为参数传递给ENTRYPOINT指令,他两个组合会变成“”

Docker学习笔记(二)--进阶篇_第10张图片

2.4 案例

2.4.1 自定义镜像mycentosjava8

1、要求:Centos具备vim+ifconfig+jdk8

JDK下载的镜像地址

2、编写

​ 准备编写Dockerfile文件(D大写)

FROM centos
#FROM centos:centos7
#实际操作时,centos最新版有问题,这里改成centos7就可以执行成功了
MAINTAINER xie

ENV MYPATH /usr/local
WORKDIR $MYPATH

#安装vim编辑器
RUN yum -y install vim
#安装ifconfig命令查看网络IP
RUN yum -y install net-tools
#安装java8及lib库
RUN yum -y install glibc.i686
RUN mkdir /usr/local/java
#ADD 是相对路径jar,把jdk-8u171-linux-x64.tar.gz添加到容器中,安装包必须要和Dockerfile文件在同一位置
ADD jdk-8u171-linux-x64.tar.gz /usr/local/java/
#配置java环境变量
ENV JAVA_HOME /usr/local/java/jdk1.8.0_171
ENV JRE_HOME $JAVA_HOME/jre
ENV CLASSPATH $JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH
ENV PATH $JAVA_HOME/bin:$PATH

EXPOSE 80

CMD echo $MYPATH
CMD echo "success--------------ok"
CMD /bin/bash

3、构建

docker build -t 新镜像名字:TAG .

2.4.2 虚悬镜像

1、是什么?

仓库名、标签都是的镜像,俗称dangling image

[root@centos100 test]# docker images
REPOSITORY              TAG       IMAGE ID       CREATED         SIZE
<none>                  <none>    931a26959578   5 seconds ago   72.8MB

2、写一个案例

2.1、vim Dockerfile

from ubuntu
CMD echo 'action is success'

2.2、docker build .

3、查看所有虚悬镜像

docker image ls -f dangling=true

4、删除

docker image prune

2.4.3 自定义镜像myUbuntu

1、要求:Ubuntu+vim+ifconfig+jdk8

2、编写Dockerfile文件

from ubuntu
maintainer xie
env MYPATH /usr/local
workdir $MYPATH

run apt-get update
run apt-get install -y vim
run apt-get install -y net-tools
run mkdir /usr/local/java
add jdk-8u171-linux-x64.tar.gz /usr/local/java

env JAVA_HOME /usr/local/java/jdk1.8.0_171
env JRE_HOME $JAVA_HOME/jre
env CLASSPATH $JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH
env PATH $JAVA_HOME/bin:$PATH

expose 80
cmd echo $MYPATH
CMD echo "success--------------ok"
CMD /bin/bash

3、构建

docker build -t myubuntu:1.8 .

3. Docker微服务实战


3.1 通过IDEA创建一个普通的微服务模块

yml配置

server:
port: 6001

创建一个简单的Controller

@RestController
public class OrderController {
 @Value("${server.port}")
 private String port;
 Random random = new Random();

 @RequestMapping("/order/docker")
 public String helloDocker() {
     return "hello docker " + "\t" + port + random.nextInt(1000000);
 }

 @RequestMapping(value = "/order/index", method = RequestMethod.GET)
 public String index() {
     return "端口号:" + port + "\t" + random.nextInt(1000000);
 }
}

其余部分都是springboot自动生成的代码

之后通过maven打包,上传到centos上

3.2 通过Dockerfile发布微服务部署到Docker中

1、编写Dockerfile文件

# 基础镜像使用java
FROM java:8
# 作者
MAINTAINER xie
# VOLUME 指定临时文件目录为/tmp,在主机/var/lib/docker目录下创建了一个临时文件并链接到容器的/tmp
VOLUME /tmp
# 将jar包添加到容器中并更名为xie_docker.jar
# test-0.0.1-SNAPSHOT.jar为打包好的jar文件
ADD test-0.0.1-SNAPSHOT.jar xie_docker.jar
# 运行jar包
RUN bash -c 'touch /zzyy_docker.jar'
ENTRYPOINT ["java","-jar","/zzyy_docker.jar"]
#暴露6001端口作为微服务
EXPOSE 6001

2、构建镜像

docker build -t xie_docker:1.8 .

3、运行容器

docker run -d -p 6001:6001 xie_docker:1.8

4、访问测试

使用curl 127.0.0.1:6001/order/index可以测试连接

也能直接使用浏览器访问

4. Docker网络


4.1 是什么

Docker不启动时,默认的网络情况有

​ nes33

​ lo

​ virbr0

Docker启动后,会多出来一个docker0

4.2 常用的基本命令

查看网络

docker network ls

查看网络源数据

docker network inspect xx网络名字

新建网络

docker network create xx网络名字

删除网络

docker network rm xx网络名

4.3 能干啥

容器间的互联和通信以及端口映射

容器IP变动时,可以通过服务名直接网络通信而不受影响

4.4 网络模式

1、总体介绍

Docker学习笔记(二)--进阶篇_第11张图片

2、容器实例内默认网络IP生产规则

docker容器内部的ip是有可能会发生改变的

3、案例说明

3.1 before

Docker 服务默认会创建一个 docker0 网桥(其上有一个 docker0 内部接口),该桥接网络的名称为docker0,它在内核层连通了其他的物理或虚拟网卡,这就将所有容器和本地主机都放到同一个物理网络。Docker 默认指定了 docker0 接口 的 IP 地址和子网掩码,让主机和容器之间可以通过网桥相互通信。

# 查看 bridge 网络的详细信息,并通过 grep 获取名称项
docker network inspect bridge | grep name

说明

1 Docker使用Linux桥接,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址,称为Container-IP,同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的Container-IP直接通信。

2 docker run 的时候,没有指定network的话默认使用的网桥模式就是bridge,使用的就是docker0。在宿主机ifconfig,就可以看到docker0和自己create的network(后面讲)eth0,eth1,eth2……代表网卡一,网卡二,网卡三……,lo代表127.0.0.1,即localhost,inet addr用来表示网卡的IP地址

3 网桥docker0创建一对对等虚拟设备接口一个叫veth,另一个叫eth0,成对匹配。
3.1 整个宿主机的网桥模式都是docker0,类似一个交换机有一堆接口,每个接口叫veth,在本地主机和容器内分别创建一个虚拟接口,并让他们彼此联通(这样一对接口叫veth pair);
3.2 每个容器实例内部也有一块网卡,每个接口叫eth0;
3.3 docker0上面的每个veth匹配某个容器实例内部的eth0,两两配对,一一匹配。
	通过上述,将宿主机上的所有容器都连接到这个内部网络上,两个容器在同一个网络下,会从这个网关下各自拿到分配的ip,此时两个容器的网络是互通的。

Docker学习笔记(二)--进阶篇_第12张图片

3.2 host

直接使用宿主机的 IP 地址与外界进行通信,不再需要额外进行NAT 转换。

docker run -d --network host --name tomcat83 billygoo/tomcat8-jdk8

说明

容器将不会获得一个独立的Network Namespace, 而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡而是使用宿主机的IP和端口。

Docker学习笔记(二)--进阶篇_第13张图片

3.3 none(一般)

docker run -d --network none --name tomcat84 billygoo/tomcat8-jdk8

禁用网络功能,只有lo标识(就是127.0.0.1表示本地回环)

3.4 container

新建的容器和已经存在的一个容器共享一个网络ip配置而不是和宿主机共享。新创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。

docker run -d -p 8085:8080 --name tomcat85 billygoo/tomcat8-jdk8
docker run -d -p 8086:8080 --network contoiner:tomcat85 --name tomcat86 billygoo/tomcat8-jdk8

会报错:Error response from daemon: network contoiner:tomcat85 not found
相当于tomcat86和tomcat85公用同一个ip同一个端口,导致端口冲突
本案例用tomcat演示不合适。。。

docker run --name alpine1 -it alpine /bin/sh
docker run -it --network container:alpine1 --name alpine2 alpine /bin/sh

Docker学习笔记(二)--进阶篇_第14张图片

Docker学习笔记(二)--进阶篇_第15张图片

假如关闭了alpine1,此时alpine2只剩下了lo

3.5 自定义网络

案例:

使用前

docker run -d -p 8081:8080 --name tomcat81 billygoo/tomcat8-jdk8
docker run -d -p 8082:8080 --name tomcat82 billygoo/tomcat8-jdk8
上述成功启动后使用exec进入容器内部
此时,使用ip是可以ping通的,但是按照服务名不能ping通

使用后

1、新建自定义网络

[root@centos100 ~]# docker network create xie_docker
18f2f2b3ccd5807bbcee3e6d9a7f46b94835fe48eb43745826e41ce170424c8b
[root@centos100 ~]# docker network ls
NETWORK ID     NAME         DRIVER    SCOPE
a4f9a806ff66   bridge       bridge    local
c42dec6263e3   host         host      local
9c9907fd4f93   none         null      local
18f2f2b3ccd5   xie_docker   bridge    local

2、新建容器加入到上一步创建的网络中

docker run -it -p 8081:8080 --network xie_docker --name tomcat81 billygoo/tomcat8-jdk8 /bin/bash
docker run -it -p 8082:8080 --network xie_docker --name tomcat82 billygoo/tomcat8-jdk8 /bin/bash

此时,通过互相ping可以ping通

自定义网络本身就维护好了主机名和ip的对应关系(ip和域名都能通)

5. Docker-compose容器编排


5.1 是什么

Docker-Compose是Docker官方的开源项目,负责实现Docker容器集群快速编排

Compose 是 Docker 公司推出的一个工具软件,可以管理多个 Docker 容器组成一个应用。你需要定义一个 YAML 格式的配置文件docker-compose.yml,写好多个容器之间的调用关系。然后,只要一个命令,就能同时启动/关闭这些容器

5.2 能干啥

docker建议我们每一个容器中只运行一个服务,因为docker容器本身占用资源极少,所以最好是将每个服务单独的分割开来但是这样我们又面临了一个问题?

如果我需要同时部署好多个服务,难道要每个服务单独写Dockerfile然后在构建镜像,构建容器,这样累都累死了,所以docker官方给我们提供了docker-compose多服务部署的工具

例如要实现一个Web微服务项目,除了Web服务容器本身,往往还需要再加上后端的数据库mysql服务容器,redis服务器,注册中心eureka,甚至还包括负载均衡容器等等。。。。。。

Compose允许用户通过一个单独的docker-compose.yml模板文件(YAML 格式)来定义一组相关联的应用容器为一个项目(project)。

可以很容易地用一个配置文件定义一个多容器的应用,然后使用一条指令安装这个应用的所有依赖,完成构建。Docker-Compose 解决了容器与容器之间如何管理编排的问题。

5.3 去哪下载

官网

官网下载

安装步骤

curl -L "https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
chmod +x /usr/local/bin/docker-compose
//查看是否安装完成
docker-compose --version

卸载步骤

sudo rm /usr/local/lib/docker/cli-plugins/docker-compose

5.4 Compose核心概念

一文件:docker-compose.yml

两要素:

​ 服务:一个个应用容器实例,比如订单微服务、库存微服务、mysql容器、nginx容器或者redis容器

​ 工程:由一组关联的应用容器组成的一个完整业务单元,在docker-compose.yml 文件中定义。

5.5 Compose使用的三个步骤

1、编写Dockerfile定义各个微服务,并构建出对应的镜像文件

2、使用docker-compose.yml定义一个完整的业务单元,安排好整体应用中的容器服务

3、最后,执行docker-compose up命令来启动并运行整个应用程序,完成一键部署上线

5.6 Compose常用命令

Compose常用命令
docker-compose -h                           # 查看帮助
docker-compose up                           # 启动所有docker-compose服务
docker-compose up -d                        # 启动所有docker-compose服务并后台运行
docker-compose down                         # 停止并删除容器、网络、卷、镜像。
docker-compose exec  yml里面的服务id          # 进入容器实例内部  docker-compose exec docker-compose.yml文件中写的服务id /bin/bash
docker-compose ps                      # 展示当前docker-compose编排过的运行的所有容器
docker-compose top                     # 展示当前docker-compose编排过的容器进程
 
docker-compose logs  yml里面的服务id     # 查看容器输出日志
docker-compose config     # 检查配置
docker-compose config -q  # 检查配置,有问题才有输出
docker-compose restart   # 重启服务
docker-compose start     # 启动服务
docker-compose stop      # 停止服务

5.7 Compose编排服务

编写Docker-Compose.yml文件

version: "3"

services:
  microService:
    image: zzyy_docker:1.6
    container_name: ms01
    ports:
      - "6001:6001"
    volumes:
      - /app/microService:/data
    networks: 
      - atguigu_net 
    depends_on: 
      - redis
      - mysql
 
  redis:
    image: redis:6.0.8
    ports:
      - "6379:6379"
    volumes:
      - /app/redis/redis.conf:/etc/redis/redis.conf
      - /app/redis/data:/data
    networks: 
      - atguigu_net
    command: redis-server /etc/redis/redis.conf
 
  mysql:
    image: mysql:5.7
    environment:
      MYSQL_ROOT_PASSWORD: '123456'
      MYSQL_ALLOW_EMPTY_PASSWRD: 'no'

      MYSQL_DATABASE: 'db2021'
      MYSQL_USER: 'zzyy'
      MYSQL_PASSWORD: 'zzyy123'
    ports:
       - "3306:3306"
    volumes:
       - /app/mysql/db:/var/lib/mysql
       - /app/mysql/conf/my.cnf:/etc/my.cnf
       - /app/mysql/init:/docker-entrypoint-initdb.d
    networks:
      - atguigu_net
    command: --default-authentication-plugin=mysql_native_password #解决外部无法访问
 
networks: 
   atguigu_net: 

执行docker-compose up -d

[root@centos100 testpackage]# docker-compose up -d
Creating testpackage_mysql_1 ... done
Creating testpackage_redis_1 ... done
Creating ms01                ... done

测试

关停docker-compose stop

[root@centos100 testpackage]# docker-compose stop
Stopping ms01                ... done
Stopping testpackage_redis_1 ... done
Stopping testpackage_mysql_1 ... done

6. Docker轻量级可视化工具Portainer


6.1 是什么

Portainer 是一款轻量级的应用,它提供了图形化界面,用于方便地管理Docker环境,包括单机环境和集群环境。

6.2 安装

官网安装

1、安装命令

docker run -d -p 8000:8000 -p 9000:9000 --name portainer \
    --restart=always \
    -v /var/run/docker.sock:/var/run/docker.sock \
    -v portainer_data:/data \
    portainer/portainer-ce:2.9.3

2、第一次登录需创建admin,访问地址:xxx.xxx.xxx.xxx:9000

3、设置admin用户和密码后首次登陆

4、选择local选项卡后本地docker详细信息展示

7. Docker容器监控之CAdvisor+InfluxDB+Granfana


7.1 原生命令

docker stats

问题

通过docker stats命令可以很方便的看到当前宿主机上所有容器的CPU,内存以及网络流量等数据,一般小公司够用了。。。。
但是,
docker stats统计结果只能是当前宿主机的全部容器,数据资料是实时的,没有地方存储、没有健康指标过线预警等功能

7.2 是什么

容器监控3剑客

​ CAdvisor

Docker学习笔记(二)--进阶篇_第16张图片

​ InfluxDB

Docker学习笔记(二)--进阶篇_第17张图片

​ Granfana

Docker学习笔记(二)--进阶篇_第18张图片

7.3 使用

1、新建目录

2、新建三件套的docker-compose.yml

version: '3.1'
 
volumes:
  grafana_data: {}
 
services:
 influxdb:
  image: tutum/influxdb:0.9
  restart: always
  environment:
    - PRE_CREATE_DB=cadvisor
  ports:
    - "8083:8083"
    - "8086:8086"
  volumes:
    - ./data/influxdb:/data
 
 cadvisor:
  image: google/cadvisor
  links:
    - influxdb:influxsrv
  command: -storage_driver=influxdb -storage_driver_db=cadvisor -storage_driver_host=influxsrv:8086
  restart: always
  ports:
    - "8080:8080"
  volumes:
    - /:/rootfs:ro
    - /var/run:/var/run:rw
    - /sys:/sys:ro
    - /var/lib/docker/:/var/lib/docker:ro
 
 grafana:
  user: "104"
  image: grafana/grafana
  user: "104"
  restart: always
  links:
    - influxdb:influxsrv
  ports:
    - "3000:3000"
  volumes:
    - grafana_data:/var/lib/grafana
  environment:
    - HTTP_USER=admin
    - HTTP_PASS=admin
    - INFLUXDB_HOST=influxsrv
    - INFLUXDB_PORT=8086
    - INFLUXDB_NAME=cadvisor
    - INFLUXDB_USER=root
    - INFLUXDB_PASS=root

3、启动docker-compose文件

docker-compose up -d

4、查看三个服务容器是否启动

5、测试

浏览cAdvisor收集服务,http://ip:8080/

浏览influxdb存储服务,http://ip:8083/

浏览grafana展现服务,http://ip:3000

你可能感兴趣的:(Docker,docker,学习,容器,数据库)