本文根据第16期美团技术线上沙龙OnLine演讲内容整理而成。
前言
性能问题简介
应用性能是产品用户体验的基石,性能优化的终极目标是优化用户体验。当我们谈及性能,最直观能想到的一个词是“快”,Strangeloop在对众多的网站做性能分析之后得出了一个著名的3s定律“页面加载速度超过3s,57%的访客会离开”,可见页面加载速度对于互联网产品的重要性。速度在Google、百度等搜索引擎的PR评分中也占有一定的比例,会影响到网站的SEO排名。“天下武功,唯快不破”,套在性能上面也非常适用。
性能指标
性能优化是个系统性工程,涉及到后端、前端、移动端、系统网络及各种基础设施,每一块都需要做各自的性能优化。当我们系统的分析性能问题时,可以通过以下指标来衡量:
Web端:首屏时间、白屏时间、可交互时间、完全加载时间等。
首屏时间是指从用户打开网页开始到浏览器第一屏渲染完成的时间,是最直接的用户感知体验指标,也是性能领域公认的最重要的核心指标。
首屏时间 = DNS时间 + 建立连接时间 + 后端响应时间 + 网络传输时间 + 首屏页面渲染时间
移动端:Crash率、内存使用率、FPS(Frames Per Second, 每秒传输帧数)、端到端响应时间等。
Native相比于H5在交互体验方面有更多的优势,FPS是体现页面顺畅程度的一个重要指标,另外移动端开发同学还需要关注App进程的CPU使用率、内存使用率等系统性能指标。端到端响应时间是衡量一个API性能的关键指标,比纯后端响应时间更全面,它会受到DNS、网络带宽、网络链路、HTTP Payload等多个因素的影响。端到端响应时间是DNS解析时间、网络传输时间及后端响应时间的总和。
后端:响应时间(RT)、吞吐量(TPS)、并发数等。
后端系统响应时间是指系统对请求做出响应的时间(应用延迟时间),对于面向用户的Web服务,响应时间能很好度量应用性能,会受到数据库查询、RPC调用、网络IO、逻辑计算复杂度、JVM垃圾回收等多方面因素影响。对于高并发的应用和系统,吞吐量是个非常重要的指标,它与request对CPU、内存资源的消耗,调用的外部接口及IO等紧密关联。
影响性能的因素
互联网产品是创意、设计、研发、系统、网络、硬件、运维等众多资源相互交织的集合体,性能受多方面因素影响,犹如一只木桶,木桶能盛多少水,取决于最短的那块木板,也可称之为短板效应。影响产品性能的因素有:
1. 产品逻辑与用户行为
产品逻辑过于复杂、功能交互过于丰富、产品设计过于绚丽、页面元素素材过多等都会影响产品性能。
2. 基础网络
中国的基础网络是世界上最复杂的基础网络,国内的网络运营商众多且各自为政,互联互通成本很高。对于境外业务来说更是要面对国内国际网络交互的情况,再加上GFW的存在,网络延迟、丢包现象非常严重。
3. 代码及应用
开发语言瓶颈、代码质量及系统架构等都会影响系统性能,常见的代码及应用问题有:
- 架构不合理。业务发展超越架构支撑能力而导致系统负荷过载,进而导致出现系统奔溃、响应超时等现象。另外不合理的架构如:单点、无cache、应用混部署、没有考虑分布式、集群化等也都会影响性能。
- 研发功底和经验不足。开发的App、Server效率和性能较低、不稳定也是常见的事情。
- 没有性能意识,只实现了业务功能不注意代码性能,新功能上线后整体性能下降,或当业务上量后系统出现连锁反应,导致性能问题叠加,直接影响用户体验。
- 多数的性能问题发生在数据库上。由慢SQL(详情可以参考美团技术团队博客的经典文章《MySQL索引原理及慢查询优化》)、过多查询等原因造成的数据库瓶颈,没有做读写分离、分库分表等。
4. 移动端环境
移动互联网时代,移动端环境的复杂性对产品的性能影响也很大,比如用户的设备类型、设备性能、操作系统类型、系统版本及网络类型(电信/移动/联通,Wi-Fi/4G/3G/2G)等。
5. 硬件及云环境
硬件的发展遵循着摩尔定律,生命周期一般都很短,服务器老化或其他硬件问题经常会导致应用故障。IDC、机架、服务器、内存、磁盘、网卡等不同硬件和操作系统上运行的应用性能差距可以达到数十倍之多。
关于性能优化这个主题,美团技术团队博客之前也发表过不少系统阐述的文章,比如《常见性能优化策略的总结》 和 《性能优化模式》,可以参考。
境外业务的特点
美团旅行境外业务主要包含商户信息、用户评论、特色美食、出境线路、境外当地玩乐、购物优惠券等6大板块,满足用户行前到行中的出境场景。在覆盖城市上,目前已经100%覆盖全球热门旅游目的地,大家出境游玩时都可以体验使用。根据官方提供的数据,超过30%的自由行游客在出境时会选择使用美团,当前美团已经成为除微信之外,国人在境外最喜欢打开的移动App之一。
境外业务与其他境内业务相比,区别主要表现在以下及方面:
用户在境外访问
境外业务很大一部分流量来自境外访问,国外网络情况十分复杂,一些国家的网络基础设施很差,4G覆盖率很低,从国外访问国内机房,不仅网络链路长,还涉及到跨网跨运营商跨GFW的访问情况,访问延迟、网络丢包等情况非常严重。
大量使用Hybrid实现
由于业务发展很快,业务新增及变更也相对频繁,为适应业务的快速发展,我们大量采用的是H5方式实现,大量使用Hybrid模式。H5相比Native页面需要加载的内容更多,对网络环境的要求更高。
与境外商家对接
除了用户在境外访问,境外业务还会和很多境外的商家、供应商或代理商有合作对接,同样面临着跨国网络访问的问题。
基于以上背景,如何提升产品性能,做到像国内业务一样,其中面临了很多的技术挑战。本文将从网络优化、前端优化、后端优化几个方面来介绍境外业务在性能优化方面的做过的一些事情。
网络优化
网络问题
影响网络性能的问题有很多,常见的网络问题有以下几类:
问题一:DNS问题
DNS问题最容易被大家所忽视,而实际上DNS出问题的概率非常大,DNS问题主要有2类:
一类是DNS解析慢或解析失败,我们统计过一些数据,我们的域名在国内DNS解析耗时大概在30-120ms之间,而国外网络下耗时达到200-300ms左右。在2G/3G等弱网环境下,DNS解析失败非常常见。DNS对于首次网络访问的耗时及网络成功率会有很大的影响。
下图是我们利用页面测速工具(GTmatrix)在加拿大温哥华节点测试的一个页面首次访问时的网络请求情况,可以看出当用户在加拿大第一次访问且运营商LocalDNS无NS缓存记录时,DNS解析耗时2.36s。
另一类常见问题是DNS劫持或失效,乌云(WooYun)上曾报过多起因域名服务商安全漏洞被黑客利用导致网站NS记录被篡改的case。而更多的DNS劫持问题则是来自于网络运营商的作恶,主要有以下几种:
- 本地缓存,各运营商确保网内访问,同时减少跨网结算,运营商在网内搭建了内容缓存服务器,把用户域名强行指向内容缓存服务器。
- 内容劫持,有部分LocalDNS会把部分域名解析指向内容缓存,并替换成第三方广告联盟的广告。
- 解析转发,运营商的LocalDNS还存在解析转发的形象。指运营商自身不进行域名递归解析,而是把域名解析请求转发到其他运营商的递归DNS上,解析请求的来源IP成了其他运营商的IP,从而导致用户请求跨网访问,性能变差。
问题二:网络链路问题
链路过长、请求经过的路由转发跳数过多、跨网访问等都是影响网络传输性能的关键因素。另外网络攻击(主要是DDoS、CC攻击等洪水攻击)流量也影响着网络链路的稳定性。据统计,骨干网上每天有数百G的流量为攻击流量。
问题三:传输Payload大小
移动设备的网络在非Wi-Fi环境下时通常不太稳定,再加上有TCP拥塞策略的限制,数据传输量越大,传的就越慢。我们需要尽量的减少数据传输量。通常的做法有:数据压缩、图片压缩、选择更高效的序列化算法(比如Protocol Buffers)等。
我们在网络优化方面主要做了以下几件事情:
- CDN优化:海外CDN加速、CDN缓存预热。
- DNS Prefetch:DNS预热,刷新移动设备系统/VM的DNS缓存。
- 长连接:“代理长连接”Shark,专线链路优化,并且有效解决了DNS的瓶颈问题。
- 网络链路优化:通过专线和代理,解决公网链路长及网络抖动不稳定的问题。
接下来,我们分别详细阐述一下。
CDN优化
CDN服务的好坏主要取决于节点部署的覆盖程度、带宽以及调度算法。对国内业务而言,使用蓝汛、网宿、帝联等老牌CDN服务商或腾讯云、阿里云、UPYUN等云CDN服务商性能都很好,但这些CDN服务商在境外的节点很少。为了提升境外的静态资源加速效果,我们尝试对接了很多国外的知名CDN服务商。通过智能DNS解析用户的IP来源,如果是境外访问则CNAME到国外CDN,国内访问时仍然走的是国内CDN。
CDN也是一种缓存,是缓存就不得不谈命中率的问题。 如果用户在境外访问时CDN未命中,静态资源从境外回源到国内源站获取,成本非常高。为了提升缓存命中率,我们的做法是在香港搭了一个CDN中间源,在前端资源发布时会调用CDN的push接口把资源预热到中间源,保证当境外边缘节点缓存未命中时无需再回源到国内IDC,只需从中间源获取。
DNS Prefetch
由于DNS的种种问题,腾讯推出了HttpDNS服务,使用HTTP协议向DNS服务器的80端口进行请求,代替传统的DNS协议向DNS服务器的53端口进行请求,绕开Local DNS,避免网络劫持和跨网访问等问题。但HttpDNS需要能够获取CDN边缘节点的IP,这就限制了只有像腾讯、阿里这种有自建CDN的大厂才能实现。
另外W3C也提供了DNS预读的方案,可以通过在服务器端发送 X-DNS-Prefetch-Control 报头,或是在文档中使用值为 http-equiv 的 标签:
的方式来打开浏览器的DNS预读取功能,但是该API功能目前在移动端浏览器内核中实现支持的较少。
我们采取的是一种轻量级的方案,如下:
- 利用App启动时的config接口,下发DNS Prefetch的配置参数:开关、时间间隔、需要进行prefetch的域名列表等。
- 监听App启动、网络变化、定位城市变化、配置文件变化、前后台切换等事件,在独立的线程中执行DNS Prefetch的逻辑。
- 如果开关打开,且上次Prefetch的时间距离当前的时间大于阈值,则刷新DNS,触发操作系统/VM层的缓存功能。
DNS Prefetch上线后境外域名解析时间RT90从350ms下降至250ms左右。
长连接
HTTP请求重度依赖DNS,DNS劫持、移动端网络不稳定使建连失败,以及公网链路质量差等因素,导致移动端的网络成功率一直不高。HTTP 2.0可以通过SSE、WebSocket等方式与服务端保持长连接,并且可以做到请求多路复用,但HTTP 2.0对运维、前端、后端的改造成本非常高。基于此背景美团自研了Shark服务。一种“代理长连接”的模式,主要用于解决移动设备网络通信质量差的问题。
- Shark在国内和境外部署了多个接入点,类似于CDN的就近访问,用户可以就近连接到Shark节点。
- Shark各节点的IP会在App启动时加载到设备,客户端通过“跑马测试”(ping各节点)的方式选择最优节点,建立并保持TCP长连接。
- Shark节点和IDC之间通过专线连接,从而保证了网络链路的质量。
- 客户端Shark的网络层会拦截App内的HTTP请求,通过特定的协议格式将HTTP请求信息转化成TCP包传到Shark节点,Shark节点再将TCP请求“还原”成HTTP,再通过专线请求后端服务。
- 当Shark通道出问题的时候,可以failover到普通的HTTP模式,从而实现高可用。
这种“代理长连接”的模式,对后端业务是无感知的,业务无需做任何改造。另外也巧妙的绕开了DNS、公网质量差等问题,极大的提升了Native API请求的网络成功率。
关于Shark的详情,可以参考之前发表的文章《美团移动网络优化实践》。
Ajax接长连
目前美团大部分的App都接入了Shark SDK基础网络库,Native API(我们内部叫Mobile API,MAPI)的网路请求由Shark SDK统一解决,使用的是自定义的序列化方式(内部称DPObject,比JSON效率高)。但对于H5页面中的Ajax请求,是没法直接享受到Shark带来的“福利”的。先看一下Hybrid模式下一次Ajax请求的过程:
上图可以看出,一次普通的Ajax请求会由WebView的内置浏览器内核来发送接受请求,一般是JSON格式的数据,和PC浏览器的一次HTTP请求过程差别不大,都是要经过DNS、TCP建连以及要面对公网链路差等问题,另外Ajax请求没法复用TCP连接,意味着每次请求都要重新建连。有了MAPI的经验,我们很容易想到,能否像MAPI一样利用长连通道来提升性能呢?
一种方式是在WebView中拦截页面的HTTP请求,在容器层做请求代理并处理序列化反序列化等事情。这种方式对业务比较友好,业务方几乎不需要做什么事情。但WKWebView的限制比较多,所以该方案目前很难推行。另一种方式是通过JsBridge来实现,缺点是对业务侵入性较高,业务方需要手动控制桥API的调用,一期我们选择的是“较笨拙”的方案二。
网络链路优化
用户境外访问
Ajax接长连解决了Hybrid模式下App内的H5场景,而对于App外的入口场景,如M站(针对手机的网站)、微信朋友圈分享等,我们没法使用到Shark长连接,跨网跨国访问的问题依然存在。这种情况下我们的优化主要是“利用专线”:
- 我们的后台应用和数据部署在上海机房,在香港机房(香港IDC是个租用机房,未部署数据和应用,非“异地多活”)内部署了一组SLB(反向代理和七层负载均衡,基于tenginx实现)。
- 利用专线连接上海和香港的机房,解决了GFW拦截过滤、跨境网络访问及公网链路差的问题。
- 当用户在境外访问时,智能DNS会解析出香港机房的IP,请求经香港SLB走专线转发到境内服务器;而当用户在境内访问时,则直接请求到上海的机房。
境外直连对接
另一个场景是,我们和很多的境外供应商有直连对接,通过HttpClient的方式后端发起调用对方的Open API接口,这种场景优化前接口延迟及网络成功率都非常不理想(很多和国外对接的业务应该都遇到过类似的问题),我们的优化方案是:
在香港部署一个正向代理Squid,请求先由内网专线转发到香港的Squid服务器,再从香港机房的网络出口出去。以与香港迪士尼的对接为例,优化前的API接口RT95:9s+(迪士尼接口传输的数据非常多),优化后降到2.3s,效果非常明显。
CDN动态加速
除了专线方案,我们还测试CDN动态加速。
CDN不仅可以用来对静态资源做缓存加速,也可以对动态数据接口起加速作用,原理如下:
用户请求耗时=用户和边缘交互的时间 + 1*RTT(边缘到源站)+ 源站处理时间
HTTP请求中,建连是个非常耗时的事,普通HTTP请求TCP 3次握手要消耗2个RTT时间,如果用户和服务器位置很远,比方说用户在美国,服务在中国,请求走海底光缆的话一次RTT理论值是150ms左右(光波信号传输速度结合物理距离计算得出),实际肯定大于理论值。
CDN动态加速主要在以下几方面起到优化效果:
- 用户与服务器的建连改成与CDN边缘节点建连(就近访问),缩短了建连时间,同时也提升了建连成功率。
- CDN与源站之间通信相比公网网络链路质量有保证。
- CDN节点和源站的连接可复用。
我们实测下来CDN动态加速在部分国家和地区有明显的加速效果,但整体的效果不够明显,所以最终未投入规模使用。
前端优化
前端优化我们主要做了下面几件事情:
- 前后端分离
- 图片优化
- 域名收敛、减少请求
- 离线化
- 首屏Node后端同构渲染
前后端分离
在之前的项目中,页面是“Java直出”的方式,由Java后端项目中通过FTL模板引擎拼装,前端团队会维护另外一个前端的项目,存放相应的CSS和JS文件,最后通过公司内部的Cortex系统打包发布。
这个流程的问题在于前端对于整个页面入口没有控制力,需要依赖后端的FTL拼装,页面的内容需要更改时,前后端同学就要反复沟通协调,整体效率比较差,容易出错,也不方便实现前端相关的优化,前端做模块组件化的成本较高。
前后端分离的关键点在于前端拥有完整独立的开发、测试、部署的流程,与后端完全分离。我们把页面的组装完全放置到了前端项目,后端只提供Ajax的接口用于获取和提交数据。前端页面完全静态化,构建完毕之后连同相应的静态资源通过CI直接发布到CDN。这样的好处有:
- 前后端同学的开发工作解耦,只需要约定好API,两边即可并行开发。
- 后端API可以做到多端复用,比如PC、H5、M站、小程序等。
- 前端主文档HTML页面可以利用CDN加速。
前后端分离架构有诸多的优点,但有一个坑需要注意:SEO的问题,无法提供给搜索引擎可收录的页面,因为主文档HTML基本为空页面,需要搜索引擎蜘蛛拥有执行JavaScript的能力才行,现实是大部分的搜索引擎都不支持。所以对于一些需要搜索引擎引流的页面不推荐用前后端分离。
图片优化
在一些重体验的网页上,图片资源的占比通常较大,一些高清大图动则几十上百K大小。 针对图片这块我们主要做了以下几点优化:
图片尺寸按屏幕大小自适应。原先我们图片的尺寸都是由后端控制,由服务在代码中写死下发给前端,这样带来问题是:
- 不同设备不同大小的屏幕上使用的图片尺寸一样,无法满足所有设备。
- 一些没经验的开发同学经常乱用尺寸,比如我们POI列表页的商户头图只需要200 * 200就够了。
而新手工程师可能使用的是800 * 800的图片,导致页面加载慢、用户流量白白被浪费且客户端还需要做图片压缩剪裁。
美团云的图片服务提供了实时剪裁功能,后端在下发图片URL时不需要指定尺寸,由客户端根据屏幕尺寸做自适应计算,这样可保证每台设备上的图片都“刚好合适”。
CDN加速:前面CDN优化章节已介绍,通过接入境外CDN服务商及CDN预热的方式做CDN加速。
图片压缩:境外业务内部已在全面使用WebP,经测试WebP格式能够优化图片大小25%-50%,清晰度基本没有影响。
懒加载:图片资源通常比较大,选用懒加载可有效缩短页面可交互时间。
域名收敛、减少请求
域名和请求数过多会带来以下问题:
- DNS解析成本高。
- CDN加速一般都是按域名来做配置,过多的域名无形增加了CDN接入的成本。
- 浏览器的并发加载数限制,浏览器对单域名的并发度是有限的,超过限制的请求需要等待串行加载,页面加载速度会变慢。
我们做了以下几件事:
- 去掉一些直接引入的第三方脚本,将脚本直接打包到我们的代码中(可以利用CDN)。
- 所有静态资源共用一个域名。
- 将一些尺寸较小的脚本和CSS构建过程中内联到主文档中。
通过域名收敛/减少请求数,我们商品详情页的页面请求数从8个减少到4个、域名数也减少一半,页面完全加载时间下降了约1000ms。
离线化
离线化可以减少网络请求,加速页面加载速度。另外当用户网络不稳定或断网时也可以访问已被缓存的页面和资源,我们先后使用了2种离线化方案:
AppCache(HTML Application Cache API),在前端项目构建流程中,通过分析页面资源依赖关系,自动生成资源manifest文件,这样就能够确保页面及资源发生变更时,manifest文件内容同步更新。当浏览器监测到manifest文件有更新时,会自动重新下载manifest里面的文件。AppCache的一个缺点是缓存文件会越来越多,缓存不容易清理。AppCache未来会逐步被Service Worker所取代,无论从灵活性还是可扩展性而言,SW都更胜一筹。
目前在使用的是公司平台自研的离线包框架,相比于AppCache,离线包框架在资源更新,离线配置,内存管理等方面都做了很大的改善。另外AppCache对于用户第一次加载页面是没有加速效果的,因为只有第一次访问之后才会把资源缓存下来。而离线包框架则可以做到真正的预加载,它会监听APP正常启动事件,当APP启动后即可开始加载更新离线资源。
Node服务端同构渲染
前面介绍了前后端分离的架构,HTML主文档可以利用CDN加速,另外前后端同学很好的解耦开了,前端可以更方便的做组件化沉淀。但这种架构除了SEO时的问题还有另外一个问题,先看一下前后端分离下的一个页面加载过程:
当遇到页面引入的外部依赖很多时,这种架构性能可能还不如”Java直出”:
同构渲染,结合了Java直出和前后端分离的优势:
- 通过在Java API之前加入Node层,Node由前端同学来维护,这样仍然可以做到前后端解耦,后端同学只需要写Ajax返回JSON,甚至只需要通过RPC接口。
- 缩短并优化了前端串行请求的链路,首屏数据可以更早的展示。
- 相比于服务端,移动端设备的性能较弱,页面在服务端渲染比在前端渲染会快很多。配合上Ajax长连等网络优化技术,Node同构首屏后端渲染提升了首屏加载速度。
Node同构和一开始的Java freemark后端渲染Java直出的方式对比,最大的区别在于:Node项目可由前端同学来维护,用的是前端工程师熟悉的JS语言。另外前端生态较好,React、Vue等框架都提供了丰富的渲染模板供前端工程师选择。
后端优化
后端优化的思路相对比较比较通用,和境外业务的特点关系性并不大,文中的前言部分“影响性能的因素”章节有简单描述,本文将不对各种后端优化手段做详细介绍, 只挑几件我们做过的事情做下简单介绍:
1. 硬件升级
硬件问题对性能的影响不容忽视,早期的时候,我们的一个DB集群经常有慢SQL报警,业务排查下来发现SQL都很简单,该做的索引优化也都做了。后来DBA同学帮忙定位到问题是硬件过旧导致,将机械硬盘升级成固态硬盘之后报警立马消失了,效果立竿见影!
2. 缓存化
缓存可以称的上是性能优化的利器,使用缓存时需要考虑缓存命中率、缓存更新、数据一致性、缓存穿透及雪崩、Value过大等问题,可以通过mutiGet将多次请求合并一次、异步访问等方式来提升缓存读取的性能。
3. 产品逻辑优化
业务逻辑优化经常会容易被忽略,但效果却往往比数据库调优、JVM调优之类的来的更明显。
举个例子,我们的商家系统有一个商家导出历史订单的功能,接口经常超时。排查下来是由于功能上默认是导出商家的全部历史订单,数据量过大导致。而实际业务上几个月之前已完成的订单对商家来说并没有什么意义,如果是要看统计数据我们有专门的统计功能。后来和PM商量后在导出时增加了时间段选择项,默认只会导出最近3个月的订单,超时问题顺利解决。
再比如,12306春运抢火车票的场景,由于访问的人多,用户点击“查票”之后系统会非常卡,进度条非常慢,作为用户,我们会习惯性的再去点“查票”,可能会连续点个好几次。假设平均一个用户点5次,则后端系统负载就增加了5倍!而其中80%的请求是重复请求。这个时候我们可以通过产品逻辑的方式来优化,比如,在用户点击查询之后将“按钮置灰”,或者通过JS控制xx秒只能只能提交一次请求等,有效的拦截了80%的无效流量。
4. 服务化
我们做服务化最基础的是按业务做服务拆分,避免跨业务间的互相影响,数据和服务同时拆分。同一个业务内部我们还按计算密集型/IO密集型的服务拆分、C端/B端服务拆分、核心/非核心服务拆分、高频服务单独部署等原则做拆分。
5. 异步化
异步化可以利用线程池、消息队列等方式实现。使用线程池的时候一定要注意核心参数的设置,可以通过监控工具去观测实际创建、活跃、空闲的线程数,结合CPU、内存的使用率情况来做线程池调优。
另一种是通过NIO实现异步化,一切网络IO皆可异步:RPC框架、Servlet 3.0提供的异步技术、Apache HttpAsyncClient、缓存异步接口等等。
6. 搜索引擎
复杂查询以及一些聚合计算不适合在数据库中做,可以利用搜索引擎来实现,另外搜索引擎还可以帮我们很好的解决跨库、跨数据源检索的场景。
服务架构
问题背景
美团在上海、北京两地都有机房,以我们的商品服务为例,商品服务会同时被上海和北京的两侧的应用依赖调用。一开始我们的服务只部署在上海机房,由于上海、北京两地机房间地理间隔较远(北京-上海专线ping延迟30ms左右),当北京的应用调服务时就会有较高的延迟,如果一个API内多次跨地域调用则性能会非常差。
为此我们做了如下的缓存双集群加异地模式部署:
- 商品静态信息全缓存,缓存未命中时再查DB。
- DB以主从的方式部署,北京机房也部署了一套从库。
- 缓存数据更新使用Databus,基于binglog数据同步的方式,保障DB和Redis数据的“准实时”同步。
- 服务、缓存、DB均两地部署,调用方就近访问(RPC、Cache、DAL等基础组件支持就近路由)。
- 缓存更新利用Client提供的双写模式。当DB数据有变更,Databus监听到数据更新后,消费程序通过缓存Client提供的双写功能往两个缓存集群同时写入,服务层读数据时会选择就近的缓存集群。
通过这种双缓存加异地部署的“异地多活”模式(实际是异地只读),提升了我们服务在跨地域场景下调用时的性能。
总结
结合境外业务特点,本文从网络优化、前端优化、后端优化几个角度介绍了境外业务在性能优化上的一些实践,重点篇幅放在了网络优化部分。性能优化是一个系统性工程,需要前端、后端和SRE一起协作才能做好。得益于公司强大的高性能前端框架、BGP网络、高性能应用组件、云平台等基础设施,以及在靠谱的运维保障SRE团队、基础架构团队以及平台团队支持下,我们境外业务的性能优化取得了阶段性的成果,后续还要继续努力。
作者简介
- 云霜,美团后台开发工程师,美团旅行境外度假业务交易后台组技术负责人,2012年加入原大众点评。
招聘信息
最后,打一波广告,美团旅行境外度假业务正在招人,欢迎志同道合的朋友加入我们(简历传送门:yunshuang.tao#dianping.com),加入美团旅行,一起来做改变世界的事。