原文
作者:智驾在这技术团队
链接:https://www.zhihu.com/question/554555533/answer/3081941219
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
公司当前有接近 3000 人的规模,主要业务为汽车配套相关的软硬件开发,其中专门从事软件开发约有 800 人,这其中 Java 开发的约占 70%,余下的为 C/C++ 嵌入式和 C# 桌面程序的开发。
在 Java 开发部分,约 80% 的都是 Java EE 开发,由于公司的业务主要是给外部客户提供软硬件产品和咨询服务,在早期公司和部门更关注的是如何将产品销售给更多的客户、获得更多的订单和尽快回款,对软件开发流程这块没有过多的重视,故早期在软件开发部分不是特别规范化。软件开发基于项目主要采用敏捷开发或瀑布模型,而对于软件部署和运维依旧采用的纯手工方式。
随着公司规模的扩大与软件产品线的增多,上述方式逐渐暴露出一些问题:
在竞争日益激烈的市场环境下,公司需要把有限的人力资源优先用于业务迭代开发,解决上述问题变得愈发迫切。
基于前述原因,部门准备选用网络上开源的系统来尽可能的解决上述痛点,在技术选型时有如下考量点
我们最开始采用的是Jenkins,通过 Jenkins 基本上能解决我们 90% 的问题,但依旧有如下问题影使用体验:
在网络上查找后发现类似的工具有很多,经过初步对比筛选后倾向于 KubeSphere、Zadig 这 2 款产品,它们的基本功能都类似,进一步对比如下:
经过对比,KubeSphere 较为符合我们的需求,尤其是 KubeSphere 的 UI 界面十分美观,故最终选定 KubeSphere 作为部门内部的持续集成与容器化管理系统!
至此,部门内部经历了手工操作->Jenkins->KubeSphere这 3 个阶段,各阶段的主要使用点如下:
KubeSphere 在公司内部的整体部署架构如下图所示,其作为最顶层的应用程序直接与使用人员交互,提供主动/定时触发构建、应用监控等功能,使用人员不必关心底层的 Jenkins、Kubernetes 等依赖组件,只需要与 Gitlab 和 KubeSphere 交互即可。
初始实现
在最初的尝试阶段只规划了 4 套环境:dev(开发环境)、sit(调试环境)、test(测试环境)、prod(生产环境)。
出于简化使用与维护的考虑,计划对每个工程模块只维护一条流水线,通过构建时选择不同的环境参数来实现定制化打包与部署。
KubeSphere 和 Kubernetes 目前在部门是以单机版形式安装的,故对于不同环境的区分主要是通过分配不同端口来实现,具体实现时需要能在 Jenkins 和 Kubernetes 的 yaml 文件中都能动态的获取对应的端口参数和项目名称,参考实现代码如下:
在基于Groovy的script中根据选择环境动态分配相关端口
switch(PRODUCT_PHASE) {
case "sit":
env.NODE_PORT = 13003
env.DUBBO_PORT = 13903
break
case "test":
env.NODE_PORT = 14003
env.DUBBO_PORT = 14903
break
case "prod":
env.NODE_PORT = 15003
env.DUBBO_PORT = 15903
break
}
script中读取参数
print env.DUBBO_IP
shell中读取参数
docker build -f kubesphere/Dockerfile \
-t idp-data:$BUILD_TAG \
--build-arg PROJECT_VERSION=$PROJECT_VERSION \
--build-arg NODE_PORT=$NODE_PORT \
--build-arg DUBBO_PORT=$DUBBO_PORT \
--build-arg PRODUCT_PHASE=$PRODUCT_PHASE .
yaml文件中读取参数
spec:
ports:
- name: http
port: $NODE_PORT
protocol: TCP
targetPort: $NODE_PORT
nodePort: $NODE_PORT
- name: dubbo
port: $DUBBO_PORT
protocol: TCP
targetPort: $DUBBO_PORT
nodePort: $DUBBO_PORT
selector:
app: lucumt-data-$PRODUCT_PHASE
sessionAffinity: None
type: NodePort
运行效果类似下图:
详细内容请参见KubeSphere 使用心得。
基于前述方式搭建的 4 套环境一开始使用较为顺利,但随着项目的推进以及开发人员的增多,同时有多个功能模块需要并行开发与测试,导致原有的 4 套环境不够用。经过一番摸索后,实现了结合 Nacos在 KubeSphere 中动态配置多套环境功能,通过修改 Nacos 中的JSON配置文件可很容易的从 4 套扩展为 16 套甚至更多。
结合项目实际情况以及避免后续再次修改 KubeSphere 流水线,为了实现灵活的配置多套环境,制定了如下 2 个规则:
由于项目中采用 Nacos 作为配置中心与服务管理平台,故决定采用 Nacos 作为端口的配置中心,实现流程如下:
基于上述流程,在具体实现时面临如下问题:
Groovy
代码获取 Nacos
中特定的端口 JSON
配置文件,并能动态解析;Groovy
代码根据输入输入参数动态的获取 Nacos
中对应的 namespace
;YAML
文件,此时需要动态的读取并更新 YAML
文件。由于Jenkins默认不支持JSON、YAML的解析,需要在Jenkins中预先安装Pipeline Utility Steps插件,该插件提供了对JSON、YAML、CSV、PROPERTIES等常见文件格式的读取与修改操作。
JSON
文件设计如下,通过 env、server、dubbo 等属性记录环境和端口信息,通过 project 来记录具体的项目名称,由于配置文件中的 key 都是固定的,后续Groovy
解析时会较为方便,在需要扩展环境时只需要更新此JSON
文件即可{
"portConfig":[
{
"project":"lucumt-system",
"ports":[
{
"env":"dev-1",
"server":12001,
"dubbo":12002
},
{
"env":"dev-2",
"server":12201,
"dubbo":12202
}
]
},
{
"project":"lucumt-idp",
"ports":[
{
"env":"dev-1",
"server":13001,
"dubbo":13002
},
{
"env":"dev-2",
"server":13201,
"dubbo":13202
}
]
}
]
}
Nacos Open Api中可知查询namespace的请求为/nacos/v1/console/namespaces,查询配置文件的请求为/nacos/v1/cs/configs,基于Groovy的读取代码如下:
response = sh(script: "curl -X GET 'http://xxx.xxx.xxx.xxx:8848/nacos/v1/console/namespaces'", returnStdout: true)
jsonData = readJSON text: response
namespaces = jsonData.data
for(nm in namespaces){
if(BUILD_TYPE==nm.namespaceShowName){
NACOS_NAMESPACE = nm.namespace
}
}
response = sh(script: "curl -X GET 'http://xxx.xxx.xxx.xxx:8848/nacos/v1/cs/configs?dataId=idp-custom-config.json&group=idp-custom-config&tenant=0f894ca6-4231-43dd-b9f3-960c02ad20fa'", returnStdout: true)
jsonData = readJSON text: response
configs = jsonData.portConfig
for(config in configs){
project = config.project
if(project!=PROJECT_NAME){
continue
}
ports = config.ports
for(port in ports){
if(port.env!=BUILD_TYPE){
continue
}
env.NODE_PORT = port.server
}
}
动态更新yaml文件
yamlFile = 'src/main/resources/bootstrap-dev.yml'
yamlData = readYaml file: yamlFile
yamlData.spring.cloud.nacos.discovery.group = BUILD_TYPE
yamlData.spring.cloud.nacos.discovery.namespace = NACOS_NAMESPACE
yamlData.spring.cloud.nacos.config.namespace = NACOS_NAMESPACE
sh "rm $yamlFile"
writeYaml file: yamlFile, data: yamlData
详细内容请参见利用 Nacos 与 KubeSphere 创建多套开发与测试环境。
在项目构建时添加审核功能,对于test和prod环境必须经过相关人的审核才能进行后续构建流程,避免破坏相关版本的稳定性。
在 KubeSphere 的容器组页面可以查看 pod 节点的 CPU 和内存消耗,可初步满足对代码潜在性能问题的排查。
在项目构建完成时发送邮件通知给相关人。
部门内部的软件最终都会销售并交付给相关客户,由于客户网络与公司网络不通以及代码保密等要求,无法在客户现场使用原有的 Jenkins 流水线进行部署交付。基于此部门采取折中方案:在公司内部通过 KubeSphere 进行编译打包,导出 Docker 镜像,拷贝到客户处然后基于 Docker 镜像部署运行,具体请参见如下链接:
在使用过程中确实遇到了不少问题,主要通过如下三条途径解决:
根据部门使用经验,90% 的问题可通过官方文档或用户论坛获得答案。
部分同事习惯于原始的手工操作或基于 Docker 部署,导致在推广过程中受到了一定的阻力,部门内部基于充分沟通和逐步替换的方式引导相关同事来慢慢适应。经过约一年的时间磨合,大家都认可了拥抱云原生和 KubeSphere 给我们带来的便利,使用过的同事都说很香!
对我司而言,有如下几个方面的提升:
Jenkins
流水线强制添加各种规范检查和审核流程,实现了软件研发的规范统一,代码质量更高,更利于扩展维护,同时也在一定程序上减少了由于人员流失/变更对项目造成的影响;KubeSphere
的云原生部署结合 Nacos
可以更快速的分配多套环境,有效的实现了开发
、测试
、生产
环境的隔离,在云仿真相关的业务场景中可基于业务场景更方便的对 pod
进行监控与调整,前瞻性的业务研发开展更顺利。结合公司与部门的实际情况,短期的规划依然是完善基于 Jenkins 的 CI/CD 使用来完善打包与部署流程,部门内部在进行全面 web 化,基于此中长期拥抱云原生。
Eclipse RCP
的桌面应用程序通过 Jenkins
实现标准化与自动化的构建;Kubernetes
从单机升级为集群,支持更多 pod
的部署,支持公司内部需要大量 pod
并发运行的云仿真项目;web
项目全部通过 KubeSphere
构建部署,完善其使用文档,挖掘 KubeSphere
在部门业务中新的应用场景(如对设计文档、开发文档、bug 修复的定时与强制检查通知等)。