本文是对 Conductor 文档的简单翻译,建议你认真阅读,如果阅读后你仍然不知道如何使用,可以继续关注本博客,我会在后续的博客中更新 Conductor 实战
Conductor是一个微服务的编排引擎
Conductor,帮助我们协调基于微服务的流程,具有以下功能:
通过点对点任务编排,我们发现随着业务需求和复杂性的增长难以扩展。发布/订阅模型适用于最简单的流程,
但很快就突出了与该方法相关的一些问题:
工作流是使用基于JSON的DSL定义的,包括一组作为工作流的一部分执行的任务。任务是在远程机器上执行的控制任务(fork,条件等)或应用程序任务(例如编码文件)。
系统任务在Conductor服务器的JVM内执行,并由Conductor管理,以实现其可执行性和可扩展性。
名称 | 目的 |
---|---|
DYNAMIC | 基于任务的输入表达式派生的工作任务,而不是静态定义为计划的一部分 |
DECIDE | 决策任务 - 实现案例……开关样式分叉 |
FORK | 分叉一组并行的任务。计划每个集合并行执行 |
FORK_JOIN_DYNAMIC | 与FORK类似,但FORK_JOIN_DYNAMIC不是在并行执行计划中定义的任务集,而是根据此任务的输入表达式生成并行任务 |
JOIN | 补充FORK和FORK_JOIN_DYNAMIC。用于合并一个或多个并行分支* |
SUB_WORKFLOW | 将另一个工作流嵌套为子工作流任务。在执行时,它实例化子工作流并等待它完成 |
EVENT | 在支持的事件系统中生成事件(例如,Conductor,SQS) |
Conductor提供了一个API来创建在与引擎相同的JVM中执行的用户定义任务。有关详细信息,请参阅WorkflowSystemTask接口。
工作人员任务由应用程序实现,并在与Conductor不同的环境中运行。工作人员任务可以用任何语言实现。这些任务通过REST API端点与Conductor服务器通信,以轮询任务发现并执行,并在执行后更新其状态。
工作人员任务由计划中的任务类型SIMPLE标识。
Conductor维护着一个工作人员任务类型的注册表。在工作流程中使用之前必须注册任务类型。
例
{
"name": "encode_task",
"retryCount": 3,
"timeoutSeconds": 1200,
"inputKeys": [
"sourceRequestId",
"qcElementType"
],
"outputKeys": [
"state",
"skipped",
"result"
],
"timeoutPolicy": "TIME_OUT_WF",
"retryLogic": "FIXED",
"retryDelaySeconds": 600,
"responseTimeoutSeconds": 3600
}
领域 | 描述 | 笔记 |
---|---|---|
name | 任务类型 | 唯一 |
retryCount | 任务标记为失败时尝试重试的次数 | |
retryLogic | 重试机制 | 看下面的可能值 |
timeoutSeconds | 以毫秒为单位的时间,在此之后,如果在转换到IN_PROGRESS状态后未完成任务,则将任务标记为TIMED_OUT | 如果设置为0,则不会超时 |
timeoutPolicy | 任务的超时策略 | 看下面的可能值 |
responseTimeoutSeconds | 如果大于0,则在此时间之后未更新状态时,将重新安排任务。当工作人员轮询任务但由于错误/网络故障而无法完成时很有用。 | |
outputKeys | 任务输出的键集。用于记录任务的输出 |
使用基于JSON的DSL定义工作流。
例
{
"name": "encode_and_deploy",
"description": "Encodes a file and deploys to CDN",
"version": 1,
"tasks": [
{
"name": "encode",
"taskReferenceName": "encode",
"type": "SIMPLE",
"inputParameters": {
"fileLocation": "${workflow.input.fileLocation}"
}
},
{
"name": "deploy",
"taskReferenceName": "d1",
"type": "SIMPLE",
"inputParameters": {
"fileLocation": "${encode.output.encodeLocation}"
}
}
],
"outputParameters": {
"cdn_url": "${d1.output.location}"
},
"schemaVersion": 2
}
领域 | 描述 | 笔记 |
---|---|---|
name | 工作流程的名称 | |
description | 工作流程的描述性名称 | |
version | 用于标识架构版本的数字字段。使用递增数字 | 启动工作流程执行时,如果未指定,则使用具有最高版本的定义 |
tasks | 一系列任务定义,如下所述。 | |
outputParameters | 用于生成工作流输出的JSON模板 | 如果未指定,则将输出定义为上次执行的任务的输出 |
inputParameters | 输入参数列表。用于记录工作流程所需的输入 | 可选的 |
tasks工作流中的属性定义要按该顺序执行的任务数组。以下是每项任务所需的强制性最低参数:
领域 | 描述 | 笔记 |
---|---|---|
name | 任务名称。在开始工作流程之前,必须使用Conductor注册为任务类型 | |
taskReferenceName | 别名用于在工作流程中引用任务。必须是独一无二的。 | |
type | 任务类型。SIMPLE用于远程工作人员或其中一个系统任务类型执行的任务 | |
description | 任务描述 | 可选的 |
optional | 对或错。设置为true时 - 即使任务失败,工作流也会继续。任务的状态反映为COMPLETED_WITH_ERRORS | 默认为 false |
inputParameters | JSON模板,用于定义给予任务的输入 | 有关详细信息,请参见“接线输入和输出” |
除了这些参数,需要进行具体的任务类型附加参数记录在这里
当触发新的执行时,客户端会为工作流提供输入。工作流输入是通过${workflow.input…}表达式提供的JSON有效负载。
基于inputParameters工作流定义中配置的模板,为工作流中的每个任务提供输入。 inputParameters是一个JSON片段,其值包含用于在执行期间映射工作流的输入或输出或其他任务的值的参数。
映射值的语法遵循以下模式:
- | - |
---|---|
SOURCE | 可以是任何任务的“工作流程”或引用名称 |
input/output | 指源的输入或输出 |
JSONPath | JSON路径表达式从源的输入/输出中提取JSON片段 |
Conductor支持JSONPath规范并从此处使用Java实现。
例
考虑一个任务,其输入配置为使用来自工作流的输入/输出参数和名为loc_task的任务。
{
"inputParameters": {
"movieId": "${workflow.input.movieId}",
"url": "${workflow.input.fileLocation}",
"lang": "${loc_task.output.languages[0]}",
"http_request": {
"method": "POST",
"url": "http://example.com/${loc_task.output.fileId}/encode",
"body": {
"recipe": "${workflow.input.recipe}",
"params": {
"width": 100,
"height": 100 }
},
"headers": {
"Accept": "application/json",
"Content-Type": "application/json"
}
}
}
}
请将以下内容视为工作流输入
{
"movieId": "movie_123",
"fileLocation":"s3://moviebucket/file123",
"recipe":"png"
}
并且loc_task的输出如下;
{
"fileId": "file_xxx_yyy_zzz",
"languages": ["en","ja","es"]
}
在安排任务时,Conductor将合并工作流输入和loc_task输出中的值,并按如下方式创建任务输入:
{
"movieId": "movie_123",
"url": "s3://moviebucket/file123",
"lang": "en",
"http_request": {
"method": "POST",
"url": "http://example.com/file_xxx_yyy_zzz/encode",
"body": {
"recipe": "png",
"params": {
"width": 100,
"height": 100
}
},
"headers": {
"Accept": "application/json",
"Content-Type": "application/json"
}
}
}
参数:
名称 | 描述 |
---|---|
dynamicTaskNameParam | 任务输入中用于计划任务的值的参数名称。例如,如果参数的值是ABC,则调度的下一个任务是“ABC”类型。 |
例
{
"name": "user_task",
"taskReferenceName": "t1",
"inputParameters": {
"files": "${workflow.input.files}",
"taskToExecute": "${workflow.input.user_supplied_task}"
},
"type": "DYNAMIC",
"dynamicTaskNameParam": "taskToExecute"
}
如果使用输入参数user_supplied_task的值作为user_task_2启动工作流,则Conductor将在计划此动态任务时调度user_task_2。
决策任务类似于case…switch编程语言中的语句。该任务需要3个参数:
参数:
名称 | 描述 |
---|---|
caseValueParam | 任务输入中参数的名称,其值将用作开关。 |
decisionCases | 可以键入值的映射值的caseValueParam值是要执行的任务列表。 |
defaultCase | 在判定案例中找不到匹配值时要执行的任务列表(默认条件) |
例
{
"name": "decide_task",
"taskReferenceName": "decide1",
"inputParameters": {
"case_value_param": "${workflow.input.movieType}"
},
"type": "DECISION",
"caseValueParam": "case_value_param",
"decisionCases": {
"Show": [
{
"name": "setup_episodes",
"taskReferenceName": "se1",
"inputParameters": {
"movieId": "${workflow.input.movieId}"
},
"type": "SIMPLE"
},
{
"name": "generate_episode_artwork",
"taskReferenceName": "ga",
"inputParameters": {
"movieId": "${workflow.input.movieId}"
},
"type": "SIMPLE"
}
],
"Movie": [
{
"name": "setup_movie",
"taskReferenceName": "sm",
"inputParameters": {
"movieId": "${workflow.input.movieId}"
},
"type": "SIMPLE"
},
{
"name": "generate_movie_artwork",
"taskReferenceName": "gma",
"inputParameters": {
"movieId": "${workflow.input.movieId}"
},
"type": "SIMPLE"
}
]
}
}
Fork用于调度并行任务集。
参数:
名称 | 描述 |
---|---|
forkTasks | 任务列表列表。每个子列表计划并行执行。但是,子列表中的任务是以串行方式安排的。 |
例
{
"forkTasks": [
[
{
"name": "task11",
"taskReferenceName": "t11"
},
{
"name": "task12",
"taskReferenceName": "t12"
}
],
[
{
"name": "task21",
"taskReferenceName": "t21"
},
{
"name": "task22",
"taskReferenceName": "t22"
}
]
]
}
执行时,task11和task21被安排在同一时间执行。
Dynamic fork与FORK_JOIN任务相同。除了在运行时使用任务的输入提供要并行的任务列表。当并行的任务数量不固定并根据输入而变化时很有用。
名称 | 描述 |
---|---|
dynamicForkTasksParam | 包含要并行执行的工作流任务配置列表的参数的名称 |
dynamicForkTasksInputParamName | 参数的名称,其值应为带有键的映射,作为分叉任务的引用名称和值作为分叉任务的输入 |
例
{
"inputParameters": {
"dynamicTasks": "${taskA.output.dynamicTasksJSON}",
"dynamicTasksInput": "${taskA.output.dynamicTasksInputJSON}"
}
"type": "FORK_JOIN_DYNAMIC",
"dynamicForkTasksParam": "dynamicTasks",
"dynamicForkTasksInputParamName": "dynamicTasksInput"
}
将taskA的输出视为:
{
"dynamicTasksInputJSON": {
"forkedTask1": {
"width": 100,
"height": 100,
"params": {
"recipe": "jpg"
}
},
"forkedTask2": {
"width": 200,
"height": 200,
"params": {
"recipe": "jpg"
}
}
},
"dynamicTasksJSON": [
{
"name": "encode_task",
"taskReferenceName": "forkedTask1",
"type": "SIMPLE"
},
{
"name": "encode_task",
"taskReferenceName": "forkedTask2",
"type": "SIMPLE"
}
]
}
执行时,Dynamic fork 任务将调度两个类型为“encode_task”的并行任务,引用名称为“forkedTask1”和“forkedTask2”,输入由_ dynamicTasksInputJSON_指定
Dynamic Fork and Join
Join任务必须遵循FORK_JOIN_DYNAMIC
工作流定义必须包含一个Join任务定义,后跟FORK_JOIN_DYNAMIC任务。但是,考虑到任务的动态特性,此Join不需要joinOn参数。在完成之前,连接将等待所有并行分支任务完成。
与FORK不同,FORK可以执行并行流,每个fork按顺序执行一系列任务,FORK_JOIN_DYNAMIC仅限于每个fork一个任务。但是,并行任务可以是子工作流,允许更复杂的执行流。
Join任务用于等待fork任务生成的一个或多个任务的完成。
参数
名称 | 描述 |
---|---|
joinOn | 任务引用名称列表,JOIN将等待完成。 |
例
{
"joinOn": ["taskRef1", "taskRef3"]
}
Fork任务的输出将是一个JSON对象,其中key是任务引用名称,value是fork任务的输出。
子工作流任务允许在另一个工作流中嵌套工作流。
参数
名称 | 描述 |
---|---|
subWorkflowParam | 任务引用名称列表,JOIN将等待完成。 |
例
{
"name": "sub_workflow_task",
"taskReferenceName": "sub1",
"inputParameters": {
"requestId": "${workflow.input.requestId}",
"file": "${encode.output.location}"
},
"type": "SUB_WORKFLOW",
"subWorkflowParam": {
"name": "deployment_workflow",
"version": 1
}
}
执行时,deployment_workflow使用两个输入参数requestId和file执行a 。生成的工作流程完成后,任务标记为已完成。如果子工作流终止或失败,则任务被标记为失败并在配置时重试。
Wait 任务被实现为保持在IN_PROGRESS状态的门,除非标记为外部触发器COMPLETED或FAILED由外部触发器标记。要使用Wait任务,请将任务类型设置为WAIT
参数
没有要求
Wait 任务的外部触发器
任务资源端点可用于将任务的状态更新为终止状态。
Contrib模块提供SQS集成,外部系统可以将消息放入服务器侦听的预配置队列中。当消息到达时,它们被标记为COMPLETED或FAILED。
GET /queue
示例SQS有效负载:
{
"some_key": "valuex",
"externalId": "{\"taskRefName\":\"TASK_REFERENCE_NAME\",\"workflowId\":\"WORKFLOW_ID\"}"
}
HTTP任务用于通过HTTP调用另一个微服务。
该任务需要一个输入参数http_request,该参数作为任务输入的一部分,具有以下详细信息:
名称 | 描述 |
---|---|
URI | 服务的URI。使用vipAddress或包含服务器地址时可以是部分的。 |
method | HTTP方法。其中一个GET,PUT,POST,DELETE,OPTIONS,HEAD |
accept | 根据服务器的要求接受标头。 |
contentType | 内容类型 - 支持的类型是text / plain,text / html和application / json |
headers | 要与请求一起发送的其他http标头的映射。 |
body | 请求正文 |
vipAddress | 使用基于发现的服务URL时。 |
HTTP任务输出
名称 | 描述 |
---|---|
response | JSON主体包含响应(如果存在) |
headers | 响应标题 |
statusCode | 整数状态代码 |
例
任务使用vipAddress输入有效负载
{
"http_request": {
"vipAddress": "examplevip-prod",
"uri": "/",
"method": "GET",
"accept": "text/plain"
}
}
任务使用绝对URL输入
{
"http_request": {
"uri": "http://example.com/",
"method": "GET",
"accept": "text/plain"
}
}
该任务被标记为FAILED无法完成请求或远程服务器返回非成功的状态代码。
注意
HTTP任务当前仅支持Content-Type作为application / json,并且能够解析文本以及JSON响应。目前不支持XML输入/输出。但是,如果无法将响应解析为JSON或Text,则将字符串表示形式存储为文本值。
事件任务提供将事件(消息)发布到Conductor或外部事件系统(如SQS)的功能。事件任务对于为工作流和任务创建基于事件的依赖项非常有用。
参数
名称 | 描述 |
---|---|
sink | 生成的事件的合格名称。例如,导体或sqs:sqs_queue_name |
例
{
"sink": 'sqs:example_sqs_queue_name'
}
使用Conductor作为接收器生成事件时,事件名称遵循以下结构: conductor::
对于SQS,请使用队列的名称而不是URI。Conductor根据名称查找URI。
警告
使用SQS时,将ContribsModule添加到部署中。需要使用AWSCredentialsProvider为Conductor配置模块,以便能够使用AWS API。
给予事件任务的输入可作为有效负载用于已发布的消息。例如,如果消息被放入SQS队列(接收器是sqs),则消息有效负载将是任务的输入。
event_produced 生成的事件的名称。