总第278篇
2018年 第70篇
Oceanus是美团基础架构部研发的统一HTTP服务治理框架,基于Nginx和ngx_lua扩展,主要提供服务注册与发现、动态负载均衡、可视化管理、定制化路由、安全反扒、session ID复用、熔断降级、一键截流和性能统计等功能。本文主要讲述Oceanus如何通过策略抽象、查询、渲染和分组动态更新,实现HTTP请求的定制化路由。
随着公司业务的高速发展,路由场景也越来越复杂。比如:
由于公司早期的业务场景相对比较简单,所以均通过Nginx if指令支持。比如某业务要把来源IP为10.4.242.16的请求转发到后端节点10.4.232.110,其它请求转发到后端节点10.4.232.111和10.4.232.112,就可以进行如下配置:
upstream backend_aaa { server 10.4.232.110:8080 weight=10;}upstream backend_bbb { server 10.4.232.111:8080 weight=10; server 10.4.232.112:8080 weight=10;}location /abc { if($remote_ip = "10.4.242.16") { proxy_pass http://backend_aaa; #路由到backend_aaa集群 } proxy_pass http://backend_bbb; #路由到backend_bbb集群}
上述方式虽然不需要额外开发,性能方面也接近原生的Nginx框架,但是使用场景比较受限,因为if指令仅支持比较简单的condition类型,其官方描述如下:
如果某业务要把IP段10.4.242.16/34的请求转发到10.4.232.110时,if指令勉强还可以支持。但对于上述的复杂业务场景,if指令均无法支持。除此之外,这种方式还存在以下两点不足:
为了解决上述问题,Oceanus开始探索如何实现HTTP流量的定制化路由。
业界调研
通过初步调研,发现业界有一套开源的ABTestingGateway(以下简称AB)框架:
策略调整动态生效:已有策略类型中的策略变更均可以通过HTTP API进行动态管理。
分流策略丰富:支持IP段、UID段等策略,也可以通过新增策略类型对策略库进行扩展。
由于AB框架只支持4种策略类型,对于业务要根据请求Cookie、自定义header控制转发的情况,均需要开发新的策略类型和发布上线。另外,策略类型和业务场景紧密相关,导致AB系统的扩展性极差,很难快速支持新业务的路由需求。
无论是Nginx if指令,还是AB框架,要么需要reload重新加载才能生效,要么无法支持某些业务场景下的分流需求,所以都很难作为解决公司级分流框架的有效手段。针对它们所存在的不足,Oceanus开发了一套应用级、高可扩展的动态分流框架,不仅动态支持各种业务场景的分流需求,而且保证了请求转发的性能,下文将阐述我们如何解决分流机制的几个核心问题。
Oceanus定制化路由的核心设计&实现
关于分流机制,我们主要从以下四个方面来讲述:
策略抽象:合理定义策略结构,适用尽可能多的业务场景。
策略的高效查询:接口粒度关联,应用维度管理。
运行时策略渲染:渲染策略模板,判断是否匹配策略,实现动态路由。
分组动态更新:分组数据增删改,均不需要reload。
以AB框架为例,只支持iprange、uidrange、uidsuffix、uidappoint四种场景,对策略类型和匹配方式太具体化,导致无法支持更多普适性的业务场景。从分流的本质出发,即根据请求特征完成流量的定制化路由。结合Nginx if指令的几个组成部分:条件判断依赖的变量、条件判断要匹配的value、条件表达式、匹配后要执行的proxy_pass,一个策略必须要包含请求特征描述、定制化路由描述以及两者的关系描述。
其中请求特征描述包含特征关键字、关键字的上下文传输方式,定制化路由描述通过Upstream表示,Upstream可以预先设置,也可以动态指定,两者的关系通过泛型表达式表示。那么一个策略就需要包含下面几个属性:
name:策略名,没有实际意义,可以根据业务场景进行定义。
key:分流时依赖的关键字,比如要根据城市地域进行分发路由时,key就是regionid。
passway:关键字在HTTP协议中的传输方式,可以是Parameter、Cookie、header、body中的一种。
condition:表达式模板,支持四则运算/取模、关系运算符、逻辑运算符等。
group:后端服务集群,即匹配策略后,转发请求的目标节点,一般是策略所属应用集群中的部分节点。
category:策略类型,如果为1,表示某个服务的私有策略;如果为2,表示公共策略,主要用于策略数据管理。
switch:策略开关,用于控制当前策略是在线还是离线。
graylist:灰度列表,用于策略变更的线上灰度校验。
其中switch、graylist字段主要用于策略的上下线操作,这里不做过多讨论。下面重点介绍上面的策略定义是如何表述业务场景的:
分流策略分为私有策略和公共策略。私有策略是面向服务的,而且和该服务创建的分组紧密相关。不同服务的私有策略完全独立,可以相同,也可以不同。
一个服务可以配置多个私有策略,也可以关联多个Host的Location,Location之间的策略使用完全独立,一个Location可以启用该服务的一个或者多个私有策略。如果通过Host+location_path直接关联策略数据,不同Location关联同一个私有策略时,会存在大量的数据冗余。所以我们通过服务标识(appkey,唯一标识一个应用服务)关联具体的策略数据,Host+location_path只关联当前Location使用的策略名列表,策略之间支持指定顺序。
公共策略与具体服务无关,策略名全局唯一,可以使用策略名关联策略数据即可。综上,策略的拓扑关系描述如下:
Nginx在解析Location配置时,通过不同的字段区分不同类型的Location,没有记录配置中的Location path。如果要运行时获取,一般有两种方式:一种是根据相关字段逆向还原path,另一种是为框架新增变量。由于Nginx在处理正则Location时,对于是否忽略大小写的情况,并没有做标记,即解析的过程是不可逆的,所以我们选择了第二种方式。在核心模块的变量数组ngx_http_core_variables中新增了内置变量,记录下原始的Location path,变量属性定义如下:
{ngx_string("loc_mod"), NULL, ngx_http_variable_loc_mod, 0, NGX_HTTP_VAR_NOCACHEABLE, 0},{ngx_string("loc_name"), NULL, ngx_http_variable_loc_name, 0, NGX_HTTP_VAR_NOCACHEABLE, 0}
loc_mod和loc_name之间用一个空格符连接,格式和Oceanus管理平台保持一致。
为了保证运行时获取策略数据的高效性,我们通过异步定时拉取,把策略数据全量同步到本地的共享内存中。基于稳定性和灵活性的考虑,我们采用了关系型数据库MySQL存储策略。
更新机制如下图所示:
Oceanus在init_worker阶段随机选择某个worker进程,嵌入timer。
被选中的worker会异步非阻塞地从MySQL定时拉取策略数据。
timer worker把拉取到的策略数据解析,按照策略的拓扑关系,更新到当前共享内存中的写缓存区,完成更新后,切换读写缓存区,保证最新的策略立即生效。
worker进程在处理请求时,从当前共享内存中的读缓存区获取策略数据。
为了解决timer worker和其它worker在读写策略数据时的竞态关系,我们采用了双buffer机制,实现了业务层策略数据的无锁读写。另外,通过设置timer的时间为0,保证在所有worker处理请求前,策略数据已经在共享内存中完成初始化。
查询算法如下图所示:
worker进程从request上下文中获取请求的Host,以及所匹配Location的location_path。
根据Host+location_path,到共享内存中查询所开启的策略名。
如果是公共策略,直接根据策略名去查询策略数据。
如果是私有策略,从request上下文获取Location关联的Upstream,即应用标识appkey,到共享内存读缓存区获取具体的策略数据。
备注:公共策略以"oceanus"开头,区别于私有策略的命名。
查询到请求开启的策略后,Oceanus需要运行时判断是否匹配,以私有策略为例,执行流如下图所示:
在rewrite phase,Oceanus通过rewrite_by_lua_file嵌入回调,触发请求处理,进入分流框架的主流程。
通过上面的策略查询机制获取请求的策略,进行解析,获取策略的key和passway。
根据passway从请求对应的上下文获取key的value。
用3获取到的value渲染策略的condition,把condition中的占位符替换为value。
基于Lua VM,通过load计算condition的结果,即true或false。
从策略中获取condition的value和group数据。
如果condition为true,就用group覆盖请求的Upstream上下文,否则,不做处理。
分组列表的动态化是分流框架的重要一环。更新机制如下图所示:
分组数据使用ZooKeeper存储,变更通过watcher机制实现增量同步。
Oceanus也会定时拉取,进行全量同步。
Oceanus把所有变更都通过本地的HTTP调用同步到Nginx内存。
worker处理变更请求前,会先抢锁,读取共享内存中的消息队列,同步其它worker进行的历史变更。
把这次变更同步到当前worker的Upstream main上下文中,完成当前worker的更新。
把变更封装成消息,加入到共享内存中的队列。
其它worker通过timer或者自己处理变更消息前读取消息队列,完成更新。
Oceanus分流机制已经在美团外卖、酒旅、到店餐饮等多个业务线广泛使用,基础架构部也帮助多个业务部门解决了多个定制化路由的需求,比如服务set化、链路压测、灰度发布、泳道环境建设等等。
目前,Oceanus分流机制只关注了流量转发方向,还不支持更复杂的转发动作,比如根据策略调整请求的Parameter、header、Cookie,也不支持根据请求的URL实现动态路由等,未来我们还将逐一完善这些问题,当然也欢迎大家跟我们一起交流切磋,共同进步。
周峰,美团高级工程师,2015年7月加入美团基础架构部,先后负责统一密钥管理服务、智能反爬服务和HTTP负载均衡,目前主要负责HTTP服务治理Oceanus的相关工作,致力于探索和研究服务的自动化、智能化、和高性能等方向。
ngx_http_rewrite_module
AB框架
扫描下方二维码,加入美团基础架构技术交流群,跟作者零距离交流。如群已满,请加美美的微信(微信号:MTDPtech01),回复:基础架构,美美会自动拉你进群。
---------- END ----------
招聘信息
如果你对大规模分布式环境下的HTTP服务治理、分布式会话链路追踪等系统感兴趣,
诚挚欢迎投递简历至:
zhangzhitong#meituan.com。
也许你还想看
大众点评账号业务高可用进阶之路
UAS:大众点评用户行为系统
海盗中间件:美团服务体验平台对接业务数据的最佳实践