docker run -p 3307:3306 --name mysql-master --privileged=true
-v /root/mysql-master/log:/var/log/mysql
-v /root/mysql-master/data:/var/lib/mysql
-v /root/mysql-master/conf:/etc/mysql/conf.d
-e MYSQL_ROOT_PASSWORD=root
-d mysql:5.7
[mysqld]
## 设置server_id,同一局域网中需要唯一
server_id=101
## 指定不需要同步的数据库名称
binlog_ignore_db=mysql
## 开启二进制日志功能
log_bin=mall_mysql_bin
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M
## 设置使用的二进制日志格式(mixed、statement、row)
binlog_format=mixed
## 二进制日志过期清理时间。默认值为0;表示不自动清理。
expire_logs_days=7
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave复制中断
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062
docker restart mysql-master
docker exec -it 容器ID /bin/bash
# 创建了一个slave用户,登陆密码为123456
CREATE USER 'slave'@'%'IDENTIFIED BY '123456'
# 授予了一定的权限
GRANT REPLICATION SLAVE,REPLICATION CLIENT ON *.* TO 'slave'@'%';
docker run -p 3308:3306 --name mysql-slave --privileged=true
-v /root/mysql-slave/log:/var/log/mysql
-v /root/mysql-slave/data:/var/lib/mysql
-v /root/mysql-slave/conf:/etc/mysql/conf.d
-e MYSQL_ROOT_PASSWORD=root
-d mysql:5.7
[mysqld]
## 设置server_id,同一区域网需要唯一
server_id=102
## 指定不需要同步的数据库名称
binlog_ignore_db=mysql
## 开启二进制日志功能,以备slave作为其他数据库实例的Master时使用
log_bin=mall_mysql_slave1_bin
## 设置二进制日志使用内存大小
binlog_cache_size=1M
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed
## 二进制日志过期时间。默认值为0,表示不自动清理.
expire_logs_days=7
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库不一致
slave_skip_errors=1062
## relay_log配置中继日志
relay_log=mall_mysql_relay_bin
## log_slave_updates表示slave将复制事件写进自己的二进制文件
log_slave_updates=1
## slave设置为只读(具有super权限的用户除外)
read_only=1
docker restart mysql-slave
# 在mysql中执行
show master status;
docker exec -it mysql-slave /bin/bash
change master to master_host="宿主机ip",master_user='slave',master_password='123456',master_port=3307,master_log_file='mall-mysql-bin.000001',master_log_pos=617,master_connect_retry=30
show slave status \G;
start slave;
# 如果显示connecting建议运行以下操作
firewall-cmd --query-port=3306/tcp
# 如果是no
firewall-cmd --add-port=3306/tcp
点击查看
关闭防火墙+启动docker后台服务
systemctl stop firefalld
systemctl start docker
docker run -d --name redis-node-1 --net host --privileged=true -v /root/data/redis/share/redis-node-1:/data redis:latest --cluster-enabled yes --appendonly yes --port 6381
docker run -d --name redis-node-2 --net host --privileged=true -v /root/data/redis/share/redis-node-2:/data redis:latest --cluster-enabled yes --appendonly yes --port 6382
docker run -d --name redis-node-3 --net host --privileged=true -v /root/data/redis/share/redis-node-3:/data redis:latest --cluster-enabled yes --appendonly yes --port 6383
docker run -d --name redis-node-4 --net host --privileged=true -v /root/data/redis/share/redis-node-4:/data redis:latest --cluster-enabled yes --appendonly yes --port 6384
docker run -d --name redis-node-5 --net host --privileged=true -v /root/data/redis/share/redis-node-5:/data redis:latest --cluster-enabled yes --appendonly yes --port 6385
docker run -d --name redis-node-6 --net host --privileged=true -v /root/data/redis/share/redis-node-6:/data redis:latest --cluster-enabled yes --appendonly yes --port 6386
这个地方–net host可以看后面Docker网络的解释
进入docker-node-1并为6台机器构建集群关系
# 进入容器
docker exec -it redis-node-1 /bin/bash
# 构建主从关系
redis-cli --cluster create 139.155.56.240:6381 139.155.56.240:6382 139.155.56.240:6383 139.155.56.240:6384 139.155.56.240:6385 139.155.56.240:6386 --cluster-replicas 1
–cluster-replicas 1表示为每个master创建一个slave节点。【相当于是一种创建策略】
链接进入6381作为切入点,查看集群状态
cluster info
cluster nodes
对这个错误的分析,是因为key在被hash之后,其对应的卡槽数超过了这个节点的上的能够存储的范围,所以它会直接报错。这主要是因为刚才登陆方式有问题,主要有以下两种登陆方式
# 登陆方式1:非集群的方式登陆
redis-cli -p 6381
# 登陆方式2:集群的方式的登陆
redis-cli -p 6381 -c
检查集群的信息
redis-cli --cluster check 127.0.0.1:6381
容错切换迁移
主从容错简单来说是指当master宕机之后,slave能够顺利的成为master顶替原来宕机的master的位置。
# 停止6381
docker stop redis-node-1
# 进入6382查看集群状态
docker exec -it redis-node-2 /bin/bash
# 进入redis客户端
redis-cli -p 6382 -c
# 查看集群情况
cluster nodes
三主三从——>四组四从。扩容一个基本的思考是之前slot已经分配好了,所以现在新放进来一个怎么分配这个slot。
新建6387、6388两个节点+后台启动+查看是否一共是8个节点
docker run -d --name redis-node-7 --net host --privileged=true -v /root/data/redis/share/redis-node-7:/data redis:latest --cluster-enabled yes --appendonly yes --port 6387
docker run -d --name redis-node-8 --net host --privileged=true -v /root/data/redis/share/redis-node-8:/data redis:latest --cluster-enabled yes --appendonly yes --port 6388
进入6387容器实例内部
docker exec -it redis-node-7
将新增的6387节点(空槽号)作为master节点加入原集群
# 6387 就是要将作为master新增节点
# 6381 就是原来集群里面的领路人,相当于6387拜拜6381的码头从而找到组织加入集群
redis-cli --cluster add-node ip:6837 ip:6381
检查集群情况第1次
redis-cli --cluster check 127.0.0.1:6381
重新分派槽号⭐️
# 新的节点进入集群必须重新分配slot
redis-cli --cluster reshard IP地址:端口号
检查集群情况第2次
分析上面slot分配的情况,简单来说,设置了4096,所以三个主机各自的分配出来一些节点给第四个节点,如果全部重新分配的成本太高了,所以第四个节点的slot会呈现出一段一段的情况,最终实现大家的slot的个数都是4096。
为主节点6387分配从节点6388
# 主节点的id需要根据你自己来判断
redis-cli --cluster add-node 127.0.0.1:6388 127.0.0.1:6387 --cluster-salve --cluster-master-id 02e58802c8acb191cc51a81c028e4e023f58c8f0
检查集群情况第3次
redis-cli --cluster check 127.0.0.1:6381
redis-cli --cluster del-node IP:从机端口 从机6388节点ID
# 本例将清出来的槽号都给6381
redis-cli --cluster reshard 127.0.0.1:6381
redis-cli --cluster check 127.0.0.1:6381
redis-cli --cluster del-node IP:端口 6387节点ID
redis-cli --cluster check 127.0.0.1:6381
FROM —— 基础镜像,当前新镜像基于哪个镜像的,指定一个已经存在的镜像作为模版,第一条必须是FROM;
MATINTAINER —— 镜像维护者的姓名和邮箱地址;
RUN —— 容器构建时需要运行的命令,有两种格式shell格式和exec格式,Run是docker build时运行;
EXPOSE —— 当前容器暴露的端口;
WORKDIR —— 指定在创建容器后,终端默认登陆的进来工作目录,一个落脚点;
USER —— 指定该镜像以什么样的用户去执行,如果都不指定,默认是root;
ENV —— 用来构建环境变量,这个环境变量可以在后续的任何RUN指令中使用,这就如同在命令前面指定了环境变量前缀一样;
ADD —— 将宿主机目录下的文件拷贝进镜像且会自动处理URL和解压tar压缩包,相当于COPY+解压;
COPY —— 讲宿主机的文件拷贝进入容器中
VOLUME —— 容器卷,用于数据持久化
CMD —— 指定容器启动后的要干的事情,注意和RUN的区别,CMD是在docker run时运行而RUN是docker build时候运行。
ENTRYPOINT —— 也是用来制定一个容器启动时要运行的命令,类似于CMD指令,但是ENTRYPOINT不会被docker run 后面的命令覆盖,而这些命令行参数会被当作参数送给ENTRYPOIINT指令指定的程序
编写Dockerfile
FROM centos:centos7
MAINTAINER [email protected]
ENV MYPATH /usr/local
WORKDIR $MYPATH
# 安装vim编辑器
RUN yum update -y
RUN yum -y install vim
# 安装ifconfig命令查看网络IP
RUN yum -y install net-tools
# 安装java8及lib库
RUN yum -y install glibc.i686
RUN mkdir /usr/local/java
# ADD是相对路径jar,把jdk-8u171-linux-x64.tar.gz添加到容器中,安装包必须要和Dockerfile文件在同一位置
ADD jdk-8u171-linux-x64.tar.gz /usr/local/java
# 配置java环境
ENV JAVA_HOME /usr/local/java/jdk1.8.0_171
ENV JRE_HOME $JAVA_HOME/jre
ENV CLASSPATH $JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib:$CLASSPATH
ENV PATH $JAVA_HOME/bin:$PATH
EXPOSE 80
CMD echo $MYPATH
CMD echo "success------------ok"
CMD /bin/bash
自己编写一个配置Go语言开发环境的
FROM centos:centos7
MAINTAINER [email protected]
ENV MY_WORK_PATH /usr/local
WORKDIR $MY_WORK_PATH
# 创建Go的目录
RUN mkdir $MY_WORK_PATH/go
RUN mkdir $MY_WORK_PATH/bin/myproject
ADD go1.19.3.linux-amd64.tar.gz /usr/local
ENV PATH $PATH:/usr/local/go/bin
ENV GOPATH $MY_WORK_PATH/bin/myproject
EXPOSE 80
CMD echo $MYPATH
CMD echo "success------------ok"
CMD /bin/bash
# 注意tag之后还有个空格和.
docker build -t 新镜像的名字:tag .
仓库名、标签都是
FROM ubuntu
CMD echo "dangling image test"
# 运行上面这个Dockerfile
docker build .
查询所有虚悬镜像
docker image ls -f dangling=true
删除所有虚悬镜像
docker image prune
# 遇到有不懂的命令的时候建议使用该命令进行查询
docker network --help
docker network ls
docker network inspect xx网络名字
docker network rm xx网络名字
网络模式 | 命令 | 简介 |
---|---|---|
bridge | –network bridge | 为每一个容器、设置IP,并将容器连接到一个docker0。虚拟网桥,默认为该模式 |
host | –network host | 容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口 |
none | –network none | 容器有独立的network namespace,但并没有对其进行任何网络设置,乳分配veth pair和网桥连接、IP等 |
container | –network container:NAME或者容器ID指定 | 新创建的容器不会创建自己的网卡和配置自己的IP,而是和一个指定的容器共享IP、端口范围等 |
我们90%的应用场景都是bridge。简单的理解就是“主机给每一个容器都发了一个口罩”。
首先进行下面的操作,对容器的IP进行查看
docker run -it --name u1 ubuntu
docker run -it --name u2 ubuntu
# 检查后20行,最终的结果如下表所示
docker inspect u1 | tail -n 20
docker inspect u2 | tail -n 20
如果这个时候容器shutdown了,那么重新起来的容器会占用原来停掉的端口。也就是说原来我们在项目中使用固定IP的方式在这种环境里面可能不太适用,最好的方式还是通过服务名获取。docker容器里面的ip是可能会发生变化的。
docker run -d -p 8081:8080 --name tomcat81 镜像名
docker run -d -p 8082:8080 --name tomcat82 镜像名
# 使用下面命令查看当前网卡的具体情况
ip addre
# 注意如果这个使用-p 8083:8080的话会给出警告,因为这里本来就不再涉及到端口映射的问题
docker run -d --network host --name tomcat83 镜像名
docker inspect 容器id
docker run -d -p 8084:8080 --network none --name tomcat84 镜像ID
新建的容器和已经存在的一个容器共享一个网络IP配置而不是和宿主机共享。新建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样的,两个容器除了网络方面,和其他的如文件系统、进程列表等还是隔离的。
命令
# 一种典型的错误如下
docker run -d -p 8085:8080 --name tomcat85 镜像名
docker run -d -p 8086:8080 --network container:tomcat85 --name tomcat86 镜像名
#正确操作如下
docker run -it --name alpine1 alpine /bin/sh
docker run -it --network container:alpine1 --name alpine2 alpine /bin/sh
# 运行结果,验证共用搭桥
# 假如此时关闭alpine1,再看看alpine2
docker-compose是Docker官方的开源项目,负责实现队Docker容器集群的快速编排。只需要定义一个YAML格式的配置文件docker-compose.yaml,写好多个容器之间的调用关系。然后只需要一个命令,就能同时启动/关闭这些命令。
查看官网
在这里只列举常用的几个
docker-compose up -d
docker-compose down
docker-compose config
docker-compose config -q
Portainer是一款轻量级的应用,它提供了图形化界面,用于方便的管理Docker环境,包括单机环境和集群环境。
Portainer官网
docker run -d -p 8000:8000 -p 9000:9000
-name portainer
-v /var/run/docker.sock:/var/run/dcoker/sock
-v /portainer_data:/data
--restart=always
portainer/portainer-ce:latest
通过docker stats命令可以很方便的看到当前宿主机上所有容器的CPU,内存以及网络流量等数据,一般的小公司够用了。但是docker stats统计结果只能是当前宿主机的全部容器,数据资料是实时的,没有地方存储,没有健康指标过线预警等功能。
CAdvisor监控收集+InfluxDB存储数据+Granfana展示数据
version: '2'
services:
influxdb:
image: tutum/influxdb:0.9
environment:
- PRE_CREATE_DB=cadvisor
ports:
- "8083:8083"
- "8086:8086"
volumes:
- /root/mydocker/cig/data/influxdb:/data
cadvisor:
image: google/cadvisor
links:
- influxdb:influxsrv
command:
- storage_driver=influxdb-storage_driver_db=cadvisor-storage_driver_host=influxsrv:8086
ports:
- "8080:8080"
volumes:
- /:/rootfs:ro
- /var/run:/var/run:rw
- /sys:/sys:ro
- /var/lib/docker/:/var/lib/docker:ro
restart: always
grafana:
user: "104"
image: grafana/grafana
links:
- influxdb:influxsrv
command: ['sh', '-c', 'chown 777 /var/lib/grafana']
ports:
- "3000:3000"
volumes:
- /root/mydocker/cig/grafana/grafana_data:/var/lib/grafana
environment:
- HTTP_USER=admin
- HTTP_PASS=admin
- INFLUXDB_HOST=influxsrv
- INFLUXDB_POST=8086
restart: always
启动后
分别访问以下端口: