python pipeline library_持续集成的开源方案攻略 (二) jenkins pipeline

从 Demo 中学习

python pipeline library_持续集成的开源方案攻略 (二) jenkins pipeline_第1张图片

为了方便讲述,我临时糊了个较为简单的 pipeline,效果如上图 (需安装 blue ocean 这个插件)。 准备工作也很简单,安装个 jenkins 2.x,在插件管理中下载 pipeline 相关插件即可。 创建一个 pipeline job 然后贴入如下代码:

library 'qa-pipeline-library'

pipeline{

agent{

label 'devops'

}

}

stages{

stage('环境部署'){

steps{

echo 'deploy'

}

}

stage('拉取测试代码'){

steps{

checkout([$class: 'GitSCM', branches: [[name: '*/release/3.8.2']], doGenerateSubmoduleConfigurations: false, extensions: [[$class: 'LocalBranch', localBranch: 'sage-sdk-test']], submoduleCfg: [], userRemoteConfigs: [[credentialsId: 'gaofeigitlab', url: 'https://gitlab.4pd.io/qa/sage-sdk-test.git']]])

}

}

stage('sage sdk 测试'){

steps{

sh """

pip3 install -i http://pypi.4paradigm.com/4paradigm/dev/ --trusted-host pypi.4paradigm.com 'sage-sdk[builtin-operators]'

pip3 install -r requirement.txt

cd test

python3 -m pytest -n 5

"""

}

}

stage('生成测试报告'){

steps{

allure commandline: 'allure2.13.1', includeProperties: false, jdk: '', results: [[path: 'test/allure-results']]

}

}

}

post{

always{

sendEmail('[email protected]')

}

}

}

pipeline 语法分别指令式和脚本式。 上面是指令式的 demo, 是入门 jenkins pipeline 的首选。 指令式有点想咱们测试领域的关键字驱动一样, 它事先实现了很多有用的指令。所以对新手十分友好,学习成本很低。缺点是跟没有办法在脚本中灵活的应用 groovy 语言,换言之就是在脚本中使用 groovy 是有限制的。 而脚本式相反, 优点是可以在脚本中肆意插入 groovy 代码,怎么都行。 但毕竟学习 groovy 语言有成本,而且不能只用声明式的那些好用的指令。 所以声明式是大部分人的首选。

流程解释

我没打算像官方一样一个指令一个指令的讲起,那样需要太多的篇幅我实在没精力。 所以我打算用另外一种方式来讲解。 指令式 pipeline 很好入门,因为在它的每一个指令几乎都可以 UI 上找到对应的地方,可以说它在流程框架上大致上是保持跟 UI 是一样的。 比如在上面的 demo 中, 在 pipeline{}的基本估计下。我们来屡一下。

最开始的 agent 'devops' 设置任务运行在哪个节点上。对应在 UI 上如下:

python pipeline library_持续集成的开源方案攻略 (二) jenkins pipeline_第2张图片

而最后的 post{} 其实就对应着 UI 上的构建后操作, 负责在任务结束后处理善后工作,比如发邮件,生成报告等等。 post{}下面 也对应着 UI 上的操作有 always, success, failed 等等其他指令, 意思分别是是一直触发这些善后工作。还是只有在成功或者失败的时候触发。 中间的 stages 指令负责执行真正的任务。 stages 下面又有很多个小 stage,负责一个一个阶段的运行。 所以一个指令式的 pipeline 的简述流程是:

pipline{

agent{}

stages{

stage{}

}

post{}

}

这样在 stages 中我们就可以通过一个一个的指令开始执行我们的任务, 比如在上面的 demo 中。 通过在 stage 下的 steps 里执行 checkout 指令。如下:

a49e6c4314a90e5691dbfe8dfe41ad70.png

这就是在用 checkout 指令来从 gitlab 上拉取代码。 又比如下面在执行的 allure 指令, 是为了生成 allure 的测试报告。如下:

f3b99421d29611e89ad9180b72f5f2e9.png

所以这样一看,我们实现一个 jenkins pipeline 其实就比较简单了, 在这样的流程框架下去使用一个又一个指令就可以完成我们的 pipeline 了, 当然这其中还有一些控制流程分歧和其他参数的指令,他们也很重要, 但我再这里就不在一一描述了。 可以移步官方文档:https://jenkins.io/doc/book/pipeline/shared-libraries/

当然 jenkins 上有那么多功能,那么多插件, 每一个插件对应一个指令,这么多指令学习起来太麻烦了。 所以 jenkins 也给我们开发了一个自动生成指令的工具。 如下:

python pipeline library_持续集成的开源方案攻略 (二) jenkins pipeline_第3张图片

python pipeline library_持续集成的开源方案攻略 (二) jenkins pipeline_第4张图片

如上, jenkins 会帮我们生成对应的指令代码。

shared library

基本部分我就不多讲了, 精力实在不够。 接下来就讲如何编写一个共享库。随着 pipeline 流水线技术的成熟,使用 pipeline 脚本的 job 也迅速增加。虽然我们可以做一个尽可能通用的 pipeline 脚本样例,让搭建者只需要修改几个赋值参数就可以在自己的项目中应用,初衷是希望所有人能理解 pipeline 中的过程,但也发现一些比较麻烦的问题,比如有些人不熟悉具体的脚本拿来随意删改导致各种错误,还有就是我们在 pipeline 脚本中增加一些新功能时又需要通知所有的 pipeline 维护人员去修改,过程非常纠结。这时候就意味着我们需要用到 pipline 的共享库功能(Shared Libraries)了,在各种项目之间共享 pipeline 核心实现,以减少冗余并保证所有 job 在构建的时候会调用最新的共享库代码 。

目录结构

Shared Library 通过库名称、代码检索方法(如 SCM)、代码版本三个要素进行定义,库名称尽量简洁,因为它会在脚本中被调用,在编写 Shared Library 的时候,我们需要遵循固定的代码目录结构。

Shared Library 代码目录结构如下:

python pipeline library_持续集成的开源方案攻略 (二) jenkins pipeline_第5张图片

src 目录就是标准的 Java 源目录结构。执行 Pipeline 时,该目录将添加到 classpath 中。

vars 目录托管定义可从 Pipeline 访问的全局脚本 (一般我们可以在这里编写标准化脚本)。 我们在 pipeline 中调用的指令就是在这里定义的, 这是我们最重要的目录。

resources 目录允许 libraryResource 从外部库中使用步骤来加载相关联的非 Groovy 文件。也就是我们的 pipeline 脚本是可以通过一个代码来加载 resource 目录下的文件

定义全局库

这里只介绍全局 Shared Library 的方式,通过 Manage Jenkins » Configure System » Global Pipeline Libraries 的方式可以添加一个或多个共享库。

这些库将全局可用,系统中的任何 Pipeline 都可以利用这些库中实现的功能。并且通过配置 SCM 的方式,可以保证在每次构建时获取到指定 Shared Library 的最新代码。

python pipeline library_持续集成的开源方案攻略 (二) jenkins pipeline_第6张图片

python pipeline library_持续集成的开源方案攻略 (二) jenkins pipeline_第7张图片

动态加载库

从 2.7 版本起,Pipeline: Shared Groovy Libraries plugin 插件提供了一个新的参数 “library”,用于在脚本中加载(non-implicit)库

如果只需要加载全局变量/函数(从 vars/目录中),语法非常简单:

此后脚本中可以访问该库中的任何全局变量。

library 'qa-pipeline-library'

Shared Libraries Demo

我们还是通过一个 demo 开始吧。 注意这里方法名字必须是 call。 这里涉及到了 groovy 语言的委托机制, 所以名字必须是 call。

python pipeline library_持续集成的开源方案攻略 (二) jenkins pipeline_第8张图片

然后在我们的 pipeline 中我们可以向下面这样调用。

python pipeline library_持续集成的开源方案攻略 (二) jenkins pipeline_第9张图片

我们只要在 pipeline 上面使用 library 'qa-pipeline-library' 就可以在下面的 steps 里直接调用 demo 方法了。

如果想要 load 一个文件, 则可以使用

libraryResource 'k8s/template/java.yaml'

python pipeline library_持续集成的开源方案攻略 (二) jenkins pipeline_第10张图片

上面的例子是从共享库中的 resource 目录下加载一个 k8s 的 yaml 文件然后给下面的 agent 使用,用来动态创建 slave pod 来执行 pipeline 任务。 具体 jenkins 与 k8s 集成的内容我会放到下一篇教程讲。这里只是演示一下怎么去加载共享库中的文件.

Shared Libraries 实战

下面让我们看一下我之前开发的发送邮件用的共享库。 它会自己判断 job 的执行状态来发送不同的邮件内容。 并且会自动的获取 allure report 中的测试结果信息。 如下:

/**

* Created by sungaofei on 19/2/8.

*/

@Grab(group = 'org.codehaus.groovy.modules.http-builder', module = 'http-builder', version = '0.7')

import groovyx.net.http.HTTPBuilder

import static groovyx.net.http.ContentType.*

import static groovyx.net.http.Method.*

import groovy.transform.Field

//global variable

@Field jenkinsURL = "http://auto.4paradigm.com"

@Field failed = "FAILED"

@Field success = "SUCCESS"

@Field inProgress = "IN_PROGRESS"

@Field abort = "ABORTED"

@NonCPS

def String checkJobStatus() {

def url = "/view/API/job/${JOB_NAME}/${BUILD_NUMBER}/wfapi/describe"

HTTPBuilder http = new HTTPBuilder(jenkinsURL)

String status = success

http.get(path: url) { resp, json ->

if (resp.status != 200) {

throw new RuntimeException("请求 ${url} 返回 ${resp.status} ")

}

List stages = json.stages

for (int i = 0; i < stages.size(); i++) {

def stageStatus = json.stages[i].status

if (stageStatus == failed) {

status = failed

break

}

if (stageStatus == abort) {

status = abort

break

}

}

}

return status;

}

@NonCPS

def call(String to) {

println("邮件列表:${to}")

def sendSuccess = {

def reportURL = "${jenkinsURL}/view/API/job/${JOB_NAME}/${BUILD_NUMBER}/allure/"

def blueOCeanURL = "${jenkinsURL}/blue/organizations/jenkins/${JOB_NAME}/detail/${JOB_NAME}/${BUILD_NUMBER}/pipeline"

def fileContents = ""

def passed = ""

def failed = ""

def skipped = ""

def broken = ""

def unknown = ""

def total = ""

HTTPBuilder http = new HTTPBuilder('http://auto.4paradigm.com')

//根据responsedata中的Content-Type header,调用json解析器处理responsedata

http.get(path: "/view/API/job/${JOB_NAME}/${BUILD_NUMBER}/allure/widgets/summary.json") { resp, json ->

println resp.status

passed = json.statistic.passed

failed = json.statistic.failed

skipped = json.statistic.skipped

broken = json.statistic.broken

unknown = json.statistic.unknown

total = json.statistic.total

}

println(passed)

emailext body: """

Summary

Jenkins Build

  • Job 地址 : ${BUILD_URL}
  • 测试报告地址 : ${reportURL}
  • Pipeline 流程地址 : ${blueOCeanURL}

测试结果汇总

  • 用例总数 : ${total}
  • pass数量 : ${passed}
  • failed数量 :${failed}
  • skip数量 : ${skipped}
  • broken数量 : ${broken}

""", mimeType: 'text/html', subject: "${JOB_NAME} 测试结束", to: to

}

def send = { String subject ->

emailext body: """

Jenkins Build

  • Job 地址 : ${BUILD_URL}

你可能感兴趣的:(python,pipeline,library)