将公司物理机项目改为容器化部署,最终方案是通过容器docker-compose部署使项目可以ip+端口访问,再通过物理机nginx代理进行https域名访问。
可能还有更好的方式,开一个nginx的容器,进行代理,但由于跟物理机80,443端口冲突,暂时没有采用。
可能目前处理不是最好的方式,不过容器化已经运用到项目,后续要在不断学习中优化,加油! 过程中参考很多经验的博主的文章,不断成长不断学习
以 community_backend 社区项目为例
技术栈
community_backend
--configs
--...
--cmd
----main.go
--go.mod
--Dockerfile
服务在 /cmd/main.go 下,build 的时候使用命令 go build /cmd/main.go
我们把 Dockerfile 建立在项目的根目录下,然后写入以下的文件
# 使用 golang:alpine作为编译使用的容器, 并且将其命名为build
FROM golang:alpine as build
# FROM golang:1.18.10-alpine as build
# 安装gcc等其他编译工具
# RUN apk add build-base
# --no-cache 选项用于不将软件包的索引缓存到镜像中,以减小镜像大小。
# ca-certificates 包是一个包含各种根证书的集合,用于验证 HTTPS 连接的证书链的有效性。
# 通过安装该包,Docker 镜像将包含一组常见的根证书,以便应用程序可以验证和建立安全的 HTTPS 连接。
RUN apk --no-cache add ca-certificates
# 如果在国内用goproxy
# ENV GOPROXY https://goproxy.cn,direct
# ENV GO111MODULE="on"
# 设定一个工作目录
WORKDIR /go/src/community_backend
# 复制当前文件夹下所有文件到工作目录中
COPY . .
# 编译服务端
# RUN go generate && go env && go build -v -gcflags="all=-N -l" -o vc_community ./cmd/*.go
# 配置 golang 环境
RUN go env -w GO111MODULE=on \
&& go env -w GOPROXY=https://goproxy.cn,https://goproxy.io,direct \
&& go mod tidy \
&& go build -v -gcflags="all=-N -l" -o cmd/vc_community ./cmd/*.go
# ===========================================================
# 多阶段构建运行服务端
# 因为是在alpine里构建的, 所以同样使用alpine镜像作为运行的容器
FROM alpine:latest
# 维护者
LABEL MAINTAINER = "[email protected]"
# 设定一个工作目录
WORKDIR /go/src/community_backend
# 从上一个容器build中复制所有的代码包含可执行文件到当前的工作目录
# COPY --from=build /go/src/community_backend ./
COPY --from=build /go/src/community_backend/cmd ./cmd
COPY --from=build /go/src/community_backend/configs ./configs
COPY --from=build /go/src/community_backend/storage ./storage
# 暴露端口
EXPOSE 8083
# 启动服务端
#ENTRYPOINT ./cmd/vc_community --env=./cmd/env.toml
CMD cd cmd && ./vc_community
cd community_backend
// 构建镜像, community-backend 为镜像名字
docker build -t community-backend:v0.1 .
// 运行
docker run -it -p "8083:8083" --rm community-backend:v0.1
community-Frontend
--src
--vue.config.js
--nginx_docker.conf
--public
--package.json
--Dockerfile
server {
listen 8084;
server_name _;
client_max_body_size 50M;
#listen 443 ssl;
#server_name community.humengxu.com;
#ssl_certificate /etc/nginx/ssl/fullchain.cer;
#ssl_certificate_key /etc/nginx/ssl/humengxu.com.key;
#ssl_session_timeout 5m;
# 指定SSL服务器端支持的协议版本
# ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
#ssl_protocols TLSv1.1 TLSv1.2 TLSv1.3;
# ssl_ciphers ALL:!ADH:!EXPORT56:RC4+RSA:+HIGH:+MEDIUM:+LOW:+SSLv2:+EXP; 指定加密算法
#ssl_ciphers HIGH:!aNULL:!MD5;
# 在使用SSLv3和TLS协议时指定服务器的加密算法要优先于客户端的加密算法
#ssl_prefer_server_ciphers on;
location /v1/ {
proxy_set_header Host $proxy_host;
proxy_set_header X-Real-IP $http_x_real_ip; #$remote_addr;
proxy_set_header X-Forwarded_For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_pass http://177.7.0.11:8083/v1/;
#设置允许跨域
add_header Access-Control-Allow-Origin *;
add_header Access-Control-Allow-Methods "POST, GET, DELETE, OPTIONS";
add_header Access-Control-Allow-Headers "Origin, Authorization, Accept";
add_header Access-Control-Allow-Credentials true;
}
location / {
root /usr/share/nginx/html;
index index.html;
try_files $uri $uri/ /index.html last;
# proxy_pass http://localhost:8084;
}
}
#配置转发
#server {
# listen 80;
# server_name community.humengxu.com;
#
# return 301 https://$server_name$request_uri;
#}
# 声明镜像来源为node:16.14.2,命名为build
FROM node:16.14.2 as build
# 声明工作目录
WORKDIR /community_frontend/
# 拷贝整个前端项目到当前工作目录
COPY . .
# 通过npm下载cnpm
RUN npm install -g cnpm --registry=https://registry.npm.taobao.org
# 使用cnpm进行安装依赖
RUN cnpm install || npm install
# 安装所有的依赖
RUN npm install
# 打包项目,生成的文件保存在./dist下
RUN npm run build
# ===========================================================
# 多阶段构建
#使用nginx
FROM nginx:alpine
LABEL MAINTAINER = "[email protected]"
# 暴露8084端口
EXPOSE 8084
EXPOSE 8085
# 复制打包好的文件到nginx的www目录下
COPY --from=build /community_frontend/dist /usr/share/nginx/html
# 把nginx的默认配置改成我们自己的
COPY --from=build /community_frontend/nginx_docker.conf /etc/nginx/conf.d/default.conf
cd community_frontend
// 构建镜像, backend 为镜像名字
docker build -t community-frontend:v0.1 .
// 运行,--rm 在容器停止后自动删除容器
# docker run -it -p "8084:8084" --rm community-frontend:v0.1
项目结构
-- community_backend
-- community_frontend
-- docker-compose.yaml
关联的mysql和redis都采用云服务,如没有则需要单独构建mysql容器和redis容器提供服务,这里不做单独容器操作。
我们有两个 service,分别是 frontend,backend
在每个 services 里,我们通过 networks 选项给每个容器分配了一个网络,以及对应的 ip 地址。
比如 backend 就分配到了 177.7.0.11,这就是前端的nginx配置的地址。
同时,frontend 依赖 backend,这样可以让容器按顺序 (backend-frontend) 启动,以此来避免不必要的错误。
docker-compose代码片段创建了一个名为 clinicalapi 的自定义网络,并指定了 IP 地址管理的配置。其中,使用默认的 IPAM 驱动程序,并为网络分配了 177.7.0.0/16 的子网。这样,容器可以在该网络中分配 IP 地址,并可以通过该网络进行通信。
version: "3"
networks:
clinicalapi:
ipam:
driver: default
config:
- subnet: '177.7.0.0/16'
services:
frontend:
build:
context: ./community_frontend
dockerfile: ./Dockerfile
container_name: community-frontend
restart: always
ports:
- '8084:8084'
# - '80:80'
# - '443:443'
#volumes:
# - /usr/local/nginx/conf/ssl/humengxu.com:/etc/nginx/ssl
depends_on:
- backend
command: [ 'nginx-debug', '-g', 'daemon off;' ]
networks:
clinicalapi:
ipv4_address: 177.7.0.10
backend:
build:
context: ./community_backend
dockerfile: ./Dockerfile
container_name: community-backend
restart: always
ports:
- '8083:8083'
networks:
clinicalapi:
ipv4_address: 177.7.0.11
完成 docker-compose.yaml 的编写后就可以尝试运行了
// 强制重写build
docker-compose up --build
// 直接运行
docker-compose up
// 后台运行
docker-compose up -d
[a-zA-Z0-9][a-zA-Z0-9_.-]
之外的内容,我上线容器采用了_,需要修改[+] Running 0/0
⠿ Network community_clinicalapi Error 0.0s
failed to create network community_clinicalapi: Error response from daemon: Pool overlaps with other one on this address space
解决:由于更换了目录,启动docker-compose.yml,存在网卡冲突的情况,需要删除网卡和对应网卡的容器即可;如下删除clinical_clinicalapi的网卡
```
docker network ls # 查看docker网卡
docker network inspect <网卡id> # 查看具体信息,找到与subnet冲突的是哪个
docker network rm <网卡id> # 删除冲突的网卡
docker network ls
NETWORK ID NAME DRIVER SCOPE
3b95a7847c0f bridge bridge local
da49214cfad9 chatgpt_default bridge local
e084524662f9 clinical_clinicalapi bridge local
851e84525446 docker-compose_default bridge local
836d22ebeff8 gitlab_default bridge local
20e8d6149527 host host local
0c37e84ee02c ifanaticfire_default bridge local
74099f10338f none null local
```
以上均是由步骤总结
从git clone 代码仓库 -> 通过Dockerfile打镜像,跑容器-> 再通过docker-compose整合前后端容器,并运行;
按照如上部署已经完整的将go+vue项目部署到容器中国,不过还有如下问题:
通过 -v 挂载证书,通过-p 映射端口也是可以的,存在docker中有多个nginx的情况,就代理转发一下, 参考地址:Docker多nginx方案:https://juejin.cn/post/6847902222760558599#heading-11
docker run -it -p 443:443 -p 80:80 -v /usr/local/nginx/conf/ssl/humengxu.com:/etc/nginx/ssl --rm community-frontend:v0.1
虚拟主机的配置,用于在一台服务器上托管多个网站或应用程序。
虚拟主机允许通过同一个IP地址和端口来访问多个域名或应用程序,并根据请求的域名或其他条件来将请求路由到相应的网站或应用程序。
communit_frontend.conf
server
{
listen 443 ssl;
server_name community.humengxu.com;
ssl_certificate /usr/local/nginx/conf/ssl/humengxu.com/fullchain.cer;
ssl_certificate_key /usr/local/nginx/conf/ssl/humengxu.com/humengxu.com.key;
ssl_session_timeout 5m;
# 指定SSL服务器端支持的协议版本
# ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
ssl_protocols TLSv1.1 TLSv1.2 TLSv1.3;
# ssl_ciphers ALL:!ADH:!EXPORT56:RC4+RSA:+HIGH:+MEDIUM:+LOW:+SSLv2:+EXP; 指定加密算法
ssl_ciphers HIGH:!aNULL:!MD5;
# 在使用SSLv3和TLS协议时指定服务器的加密算法要优先于客户端的加密算法
ssl_prefer_server_ciphers on;
location /v1/ {
proxy_set_header Host $proxy_host;
proxy_set_header X-Real-IP $http_x_real_ip; #$remote_addr;
proxy_set_header X-Forwarded_For $proxy_add_x_forwarded_for;
proxy_pass https://community-api.varclear.com/v1/;
#设置允许跨域
add_header Access-Control-Allow-Origin *;
add_header Access-Control-Allow-Methods "POST, GET, DELETE, OPTIONS";
add_header Access-Control-Allow-Headers "Origin, Authorization, Accept";
add_header Access-Control-Allow-Credentials true;
}
location / {
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://1.14.34.33:8084/;
}
}
# 配置转发
server {
listen 80;
server_name community.humengxu.com;
# return 301 https://$server_name$request_uri;
rewrite ^(.*)$ https://${server_name}$1 permanent;
}
制作前端和后端的镜像,然后把制作好的镜像发布
推送默认的dockerhub仓库中(当然可以自建仓库,用阿里云oss等都行)
将docker-compose打包的镜像改名字上传仓库
docker tag clinical-backend:latest firehmx/clinical-backend:v0.1
docker push firehmx/clinical-backend:v0.1
docker tag clinical-frontend:latest firehmx/clinical-frontend:v0.1
docker push firehmx/clinical-frontend:v0.1
接着修改 docker-compose.yml,把 build 参数改为 image,填上我们自己的镜像名字就行了。
services:
frontend:
build:
context: ./community_backend
dockerfile: ./Dockerfile
...
改为
frontend:
image: firehmx/clinical-frontend:v0.1
...
backend:
build:
context: ./community_backend
dockerfile: ./Dockerfile
...
改为
backend:
image: firehmx/clinical-backend:v0.1
...
配置好docker-compose.yml,然后用 docker-compose up 就可以运行这整一个前后端分离项目
因此引出以下知识点,如何清除docker的构建过程中的缓存
Docker 18.09 引入了 BuildKit ,提升了构建过程的性能、安全、存储管理等能力。
docker system df 命令,类似于 Linux上的 df 命令,用于查看 Docker 的磁盘使用情况:
TYPE 列出了 Docker 使用磁盘的 4 种类型:
类型 | 说明 |
---|---|
Images | 所有镜像占用的空间,包括拉取下来的镜像,和本地构建的。 |
Containers | 运行的容器占用的空间,表示每个容器的读写层的空间。 |
Local Volumes | 容器挂载本地数据卷的空间。 |
Build Cache | 镜像构建过程中产生的缓存空间(只有在使用 BuildKit 时才有,Docker 18.09 以后可用)。 |
没清理前:
TYPE TOTAL ACTIVE SIZE RECLAIMABLE
Images 46 18 8.928GB 6.253GB (70%)
Containers 29 6 1.779GB 1.779GB (99%)
Local Volumes 5 5 759.8MB 0B (0%)
Build Cache 176 0 5.59GB 5.59GB
清理后:
TYPE TOTAL ACTIVE SIZE RECLAIMABLE
Images 46 18 8.928GB 6.253GB (70%)
Containers 29 6 1.779GB 1.779GB (99%)
Local Volumes 5 5 759.8MB 0B (0%)
Build Cache 111 0 0B 0B
一键清理 Build Cache 缓存命令:
docker builder prune
如果你希望保留最近一定时间的缓存,删除时长更久的缓存,可以通过添加 --filter 参数实现,例如保留最近10天的缓存示例命令如下:
docker builder prune --filter 'until=240h'
另外,命令 docker system prune 可以用于清理磁盘,删除关闭的容器、无用的数据卷和网络,以及dangling镜像(即无tag的镜像)。
添加参数 docker system prune -a 清理得更加彻底,可以将没有容器使用Docker镜像都删掉。