用故事讲述淘宝网架构成长的危机与机遇

    全球系统架构师大会于8月10日-12日在深圳万科国际会议中心举行。在10日下午的演讲中,来自淘宝技术大学的校长赵超讲述淘宝的业务和架构是怎么互相影响,从一台单机系统发展到现在世界前列规模的过程。载演讲中主要描述了淘宝几次大的架构变迁的前因后果,包括业务的驱动、架构的选型、变迁的过程、新技术对业务的推动,以及在这个过程中走过的弯路和犯过的错误。

用故事讲述淘宝网架构成长的危机与机遇_第1张图片
全球系统架构师大会现场报道

  淘宝网的现状

  淘宝网从03年开始建立的,大概从9年前开始讲起。03年淘宝网开始创立,现在看到的是发展的曲线图,红色是成交量,蓝色的是PV,下面对应的是版本,1.0到1.5的版本,2005年开始2.0的版本,目前4.0的版本马上上线了。炒股的同学如果看到这个线很开心,曲线有规律。

用故事讲述淘宝网架构成长的危机与机遇_第2张图片
▲淘宝技术大学的校长赵超

  2010年的线开始,红色的线对应的左边的数据是4000亿交易额。2010年淘宝网的交易额4000亿,折算成每天超过了当天香港的零售品的销售总额。09年的时候是2000,2010年4000,2008年的是1000,可以推算一下2011年大概多少,2012年大概多少。2011年底一天的销售额超过了上海当天的零售品销售总额。如果常看K线图的看到这个一定开心的要死。

  另外一条线叫PV,作为技术人员对商业价值不太敏感,但是对PV很敏感,PV带来的是对网站的压力,网站压力带来是对你的压力。PV的上涨趋势跟成交量趋势不一样,趋势慢一点,这是我们技术人员最愿意看到的,最好PV不要涨。这个数据说明了背后的情况,成交转化率提升的。蓝色线原来高于红色线,后来越来越低。原来100人过来1个人买了,现在可能100人过来90个人买了,这是我希望看到的,这是总体的情况。

  马云的战略眼光成就了淘宝

  那个时候,那个年代,2003年的时候,电子商务方面有三个公司很强大,B2B是阿里巴巴,B2C是亚马逊,C2C是eBay,03年的时候eBay正忙着收购易趣。马云看到了C2C的发展可能会颠覆B2B,C2C是后起之秀,在B2B和B2C后起来,美国的eBay和中国的易趣发展很迅猛,老马看到危机了,也要做这个网站。正好03年eBay在忙着收购易趣,网站发展慢了一点,这是进入的良机。

  淘宝网创业的八大金刚

  创业者如果要创业,老马要做淘宝就是做一次创业,如果要做创业首先要做什么?看合伙人、看团队。老马做淘宝挑了一个团队,这个团队是什么样的组成结构?

  8个人。对外宣称10个人,另外两个一个是老马,一个是他的秘书,8个里面有3个开发人员,三丰、多龙(音)、虚竹,还有UED的二当家,三位运营人员,小宝、阿柯和破天,总经理是财神。一开始不需要有很多角色、测试人员,服务人员也不需要,运维开发人员也可以充当了,前端不用提了,这是老马挑的创业团队。

  另外,还有外面传很神奇的东西,网上有一个段子,给他50万他买房子会怎么样,没有这个时候吹牛,这很扯。那时候老马不缺50万,就是在老马的房子里做这个事情,是一个花园里。这伙人关在小区里面写代码,每天早上9点到晚上1、2点。

  如果有人知道淘宝网的发布时间点,是03年5月10日上线的,进入花园是4月7日,一个月时间进入电子商务网站,在eBay和易趣打火热的时候做这个事情,第一要求就是很快做出来,一个月时间内做出一个商业网站出来上线运营,你是团队的CTO,你觉得怎么做?有些人说抄一个。淘宝网刚开始确实抄很多,花2000美金买了一个MALT架构网站,一个网站把原代码卖给你值2000美金,没有的话几百美金,我们买的最贵的。系统架构上来看很精典的架构是LAMP,这个架构很大的好处是比较灵活一点,语言很强大,都能做,其他的东西比较简单应用,开发也很快,比较方便,这样一个架构的网站做出来。买过来这个网站不是买下来就马上可以用了。

  作为商业网站除了主站的系统之外,还需要什么。就像你现在做一个微博,跟他配套的还要有一些东西,至少需要一个后台,要管理它。买了这个东西之后,还需要进行改造,做一个后台管理的系统,同时还需要一个论坛来配套。论坛几乎是前些年所有网站的标配,用户在这里玩还要交流,又搭建了一个论坛。


  淘宝网面临几近疯狂的改造过程

  除了一些网站系统之外,还有商业产品方面的改造。这个系统是拍卖的系统,现在买一个东西叫拍下来,为什么不叫买下来?eBay、易趣都是从拍卖起家的。eBay上个月发的月报交易量是40%,在座的有谁买过拍卖的系统。这个团队做了一个决定,拍卖的方式不合理,增加了一口价。为了增加商品数做了一个海报商品,看看感兴趣的人多不多,手上没货,看有没有感兴趣的。这种交易方式没有了,随着商品数的增长不需要了,交易方式做了改动。

  上面对大家都是小儿科了,现在都能做出来,最有技术含量的是做了读写分离。原来系统并不会想着支持这么大的商业网站,数据量、规划不是很大,但是淘宝一开始想着做得很大,数据库只是单库很有问题,做了读写分离,增加了容量。另外,稳定性也有了更大的保障。淘宝第一个版本是2003年5月10号上线的,页面如PPT所示。回忆一下那段岁月,上面有一个诺基亚的手机,一个诺基亚8390拍卖价格起价6000元。

  淘宝网迎来天时地利与人和

  这个版本上线之后,随着淘宝网运营人员、市场人员,他们很强大的市场运作能力,正好天时地利。一方面eBay和易趣正打着火热,忙着不可开交,而且eBay收购易趣之后,要求易趣网站用美国的系统,就像卓越被亚马逊替代后流失了很多客户到淘宝来了。大的系统上改层层审批,而淘宝网随时改,论坛上有人叫的话一个小时内马上可以搞定。而易趣需要几个月的时间上一个功能。

  另一个天时,04年的春天,在中华大地发生一件很悲剧的事情——非典,大家都不愿意去商场了,上淘宝买东西。

  在这种状况下,老天都在保佑马云,系统发展非常快,数据量、业务量不断增长。一开始部署在一台单机服务器上,流量增长后,把发邮件功能部署在一台机器上,后来再增加机器出来。

  淘宝网快速成长引发的危机

  03年、04年MySQI撑不住了,数据存储的引擎很大缺点会锁表,一读的话把表锁住了,读的量一上来经常会锁掉,然后重启。MySQI撑不住了,换Oracle,除了Oracle强大之外还有一个原因是阿里巴巴那些年03、04年Oracle人才积累达到非常强大的水平。那时Oracle给全球的研发人员发一个称号“ACE”,那时全球三百多位,那时中国十来位,而阿里巴巴有三位。阿里巴巴在Oracle方面能力非常强大。

  换了Oracle有一个问题,PHP跟Oracle很不搭的东西,PHP一个用户访问过来建立一个连接切掉一个连接,而Oracle提供的连接数量非常有限的,因为有连接池的功能。怎么用PHP来连接Oracle?我们就抄袭别人看,eBay用的太贵,没有用。找了一个日本的,但是上了一个当,总重启。中间件也撑不住了。

  存储原来放在服务器本身的硬盘上,这个硬盘的支撑能力比较薄弱,存储也撑不住了。

  Oracle换回MySQL不可能,PHP和Oracle又不搭,那有些同学说换开发语言。一个网站到04年夏天的时候已经运行到一年多,而且发展速度非常迅猛,里面的商品数千万级别,用户数几百万,功能从发布商品、浏览、拍卖,各种功能都有了,这时突然跟你说换一种开发语言,是一个很大的悲剧,很底下的几个人,原来只有四五位开发人员,对PHP比较擅长,老马交给你艰巨任务把开发人员换掉怎么换?


  接下来做了一个脱胎换骨

  从PHP迁移到Java,有一个问题要解决,如何选择开发团队?把一个网站彻底脱胎换骨改掉,语言变掉。有商业头脑的人说外包出去,外包给了一个团队,SUN团队。SUN是最懂Java的,让他们来做很合适,还有一个不为人知的原因,因为eBay系统刚刚从PHP迁移到Java,请SUN的人做的,SUN的人不仅更懂Java,而且更懂eBay,怎么迁移?怎么快速重构这样一个系统?

  把管会员用户信息的模块单独部署在某个集成上,然后替换掉。我们做一个member1.taobao.com,而member下线,把其他的交易一个个替换掉,要不要再替换回来呢?我们没有替换回来,直接在线上运行,member1.taobao.com,导致另外一家很强大的互联网公司也是这么来做的。

  现在看到的是架构框架。阿里巴巴自己做了MVC框架,控制层用了EJB,当时SUN的人鼓吹EJB很好。搜索引擎是为了减轻数据库的压力。搜索引擎一开始是在服务器的本地硬盘上做,后来用NAS的存储。

  要改变、要发展,围绕着三个点做改变

  一个是性能、一个是容量、一个是成本。为了这几个点进行优化。一开始用一个Oracle数据库,大概推算一下,一个Oracle数据库容纳多少数据,支撑多少访问量,差不多到亿的级别满了不够用了,淘宝绝对不是想承载一个亿的数据,所以进行了分库的处理。一个Oracle切成两个数据库的存储。接着在Java做分库路由的控制。接着缓存,淘宝用缓存几乎用到极致,淘宝商品详情全部在缓存里面取的,每天有几十亿的流量,数据库里面肯定都接不住。

  还用到了CDN,后面会有一个话题讲淘宝双十一,很重要的角色是CDN,淘宝双十一已经达到了873G每秒,中国最大的CDN服务商,上市说明书里面支撑500多个G,淘宝是873G。一开始Weblogic没交钱,后来要交钱,很贵,就开始用Jboss。SUN的人走了后把EJB丢掉了。

  进展到这个版本叫做2.1,有分库、加入CDN,做了一些架构方面的处理。再往后发展会怎样呢?就像人一样,每一步不一样,当大到一定程度以后新的问题出来了。2.1版本里面存储问题非常严重。最大的问题还是存储,永远不够,我们用了IOE之后,相当长一段时间比较稳定,花那么多钱是有效果的。

  挑战最大的不是数据库的存储,而是文件存储,见证TFS的诞生

  淘宝上有很多图片文件,非常多。2010年的时候大概有280多亿的图片数量,现在应该超过1000亿的图片数量。前几天我看到有人公布,腾讯空间上的图片数量更加恐怖,图片数量非常大。

  一开始用的低端的存储,低端不行用中端的,再用高端,越来越贵,一扩容增加十几万的成本。再往上扩,集群网络不够用了,实在没地方扩展了怎么办?06年的时候,淘宝网决定开发一个分布式的文件存储系统,非常幸运的是07年初的时候,在硅谷一家伟大的公司公布了一篇论文,GFS的存储体系,论文公布出来之后,两周之内淘宝出来一套淘宝网的文件存储系统,叫TFS,事情神奇的不是谷歌雪中送炭,神奇的是也有一家也开发了TFS。

  淘宝和谷歌有一些不一样的,谷歌存放文件名索引的东西反而成为瓶颈,扩容能力有限制,因为文件名有意义。但是淘宝文件名不需要有什么意义。因为淘宝上面存储的图片取名字没有意义的。还有交易快照,原来淘宝拍下商品记下ID号,跟原来商品关联的,原来的商品不能修改,修改交易出问题了,那时存储有限。后来存储方面有TFS了,交易弄下来之后,把商品拍一个快照出来,作为文件存储下来,每一笔交易包含图片、信息号。

  原来商品的图片不敢太大,淘宝灰蒙蒙的压缩非常严重,而现在可以很大的图片。以前不方面做得非常大,一方面存储不够,一方面跟网络有关。这是TFS的故事。

  还有一个故事是性能的问题。刚才说到缓存,一开始淘宝网用页面端的缓存,把页面分成几个片断,商品页面上有卖家的信息,不会变的,作为一个文件存储在硬盘上去,这是页面端ESI的缓存。后来发现数据也必须十月缓存,商家的信息每个商品都要用,数据库里取每一天是几百亿取数据的访问量,这么多的访问量如果不用缓存是撑不住的。淘宝自己研究了KV的缓存系统,淘宝网自己写了一个缓存系统,淘宝商品详情可以放进去。比如说验证码,每天生成一万个验证码进去,用户随机取。用数据库的缓存memcached出来了,参照了它的方案,有了内存的方案叫Tair,是自己缓存系统,为什么淘宝不用memcached的东西,因为淘宝要用这些东西的时候太早了,还没有任何人给我们,只好自己创造,走自主研发的道路。

  TFS和Tair借鉴开源,淘宝图片不需要文件名,源数据量是比较小的,容量理论上讲比GFS还大一些。不需要文件名就不需要文件夹的结构,查找文件的时候算法很简单了。所以效率理论上来说,也是高于GFS的。

  现在看到的是2.2版本的系统,上面的架构是一样的,下面做了一些分布式的存储、缓存、数据库。搜索引擎做了扩展,原来多机器上放一份数据,后来放了多份数据,搜索引擎做了备份扩展。这个阶段称之为2.2的版本。


  淘宝网迎来了第二个危机

  这样的系统,有了缓存、数据库的分库,又有了搜索引擎,这些东西支撑能力很强,自己做了分布式的缓存、存储,接下来问题会出在哪里?流量还是一直往上涨,原来估数据存储3到5年,2.0确实撑到3到5年,再下来出现很难解决的问题,例如Oracle的连接数已经到了极限了,再加机器加不了了。原来有一万台机器,上面再加应用加不了了,因为Oracle的连接池支撑不了了。还有人的问题,发展了五六年,工程师几百人,几百工程师维护同样一套代码,做过的话,大家会深有体会,改一段代码不知道在哪改,可能代码只有一行,但是找到它需要两天。有一些菜鸟过来,只能写一些代码,发布一些商品,各种参数都有,原来方法里面三个参数,再过来一个人加一个参数,再过来加一个参数,过来十个,就十个了。后面的人怎么维护?

  很多代码宕到本机,看代码到底在哪里?命名方式不一样,找到一个很合适的地方,写很合适的代码,加一个参数应该不会影响别人,但很费时间。系统的可维护性非常差。

  还有一个压力是新业务,要做新业务怎么办?07、08年淘宝网对新的业务进行冲击,那时做了淘宝的机票系统,机票系统不需要发布商品,去哪儿的几位很清楚,商品完全不一样,需要第三方买它的数据,需要做一个还是怎样?我是机票系统的项目经理,做了很正确的决定,另外起一个系统,获取机票信息、创建订单甚至评价还要有,各种各样的功能都要有。系统很奇怪,有淘宝网用户的东西,想用主张评价不行,自己做一个评价。交易的过程跟淘宝不一样,查看我已买到的东西跟主站合不到一块,另外一张皮出来了。在做彩票、保险其他各种各样的东西,起了一个系统出来,有一半的主站完成,但是不敢放在主站里面,放在里面添乱的。主站已经乱七八糟了,再加一个就完蛋了。这个时间问题很严重,称之为第二个危机。

  接下来大家怎么克服这个问题?

  这时大家想到可以做服务化的东西,接下来做的事情第一个就是服务化,淘宝商品内幕信息,发商品要用、查找商品要用、搜索引擎要用、后台维护要用,每一份都有一个出来,架构师说可以独立拿出来,把内幕的东西变成服务,最早不是通过服务来启用的,而是通过一个加包来做,淘宝的数据非常大的。淘宝的用户信息前后台都要用,又拿出来做成淘宝的UIC,淘宝用户信息中心,开始慢慢走服务化的道路。服务化不是一下子做出来的,各种各样的都有。

  再往后面做了应用透明伸缩和数据的透明伸缩。我们把商品的应用、交易的应用、评价的应用、店铺的应用全部分割开来,之后可以切开,每个团队管一个应用,上面应用的透明伸缩,下面是数据量在Oracle里面再切做分库、分表,把数据也做了透明伸缩。比如说淘宝的数据在线二三十个亿,不在线四五十个亿,放在数据库里面切,切成很多份。把应用和数据全部切这么多份,不是简单切就能成功的。切成这么多份联合起来运作怎么办?需要中间加一些东西:中间件。数据切成2048个库存,应用程序只要在中间件取就行了。应用之间互相调用的时候还需要实时调用的中间件。一个商品应用可能需要调用户的信息、物流的信息、评价的信息,这些系统之间的调用该怎么调用呢?不用管哪台机器上调用,也不用去哪个集群里面调用,去找中间件。淘宝开发了高速访问框架。能提供什么服务都注册到框架上去,需要什么服务去框架里查找需要什么服务,不同时期的版本都在上面。取服务的时候给你找负载最低的机器给你,这是中间件的系统。

  说了数据的中间件和应用调用的中间件,还有一个是消息通用的中间件。刚才人人网和腾讯微博都讲消息通知,也是很恐怖的事情。用户在银行里付款的时候,银行通知到淘宝,会有一些问题,银行都是国企,系统不太好恭维,银行网关不保障系统能扣款成功,扣款成功不保障给支付宝发消息,发消息了不保障能发到,发到了不保障不再发一条。

  淘宝切分这么多之后面临这个问题,通知到用户系统、银行系统、旺旺、甚至通知到警察系统。系统能发什么东西,注册下来系统需要什么消息就注册,一旦有消息拿过来就行了。这是消息的中间件。中间件本身的流量比业务层的流量还要高一点,一个请求有很多的消息、很多实时的调用。

  Session的框架。用户在消息系统登陆了,交易系统怎么办?要解决Session的问题,可以用集中式的Session的控制集群。

  基于这些之后,各种模块都有了做一些开放平台,把数据开放出去给其他人调用。有了这些模块可以做到上层业务的百花齐放。做了这些之后再做淘宝商城很方便。用户信息有了、评价模块有了,还需要什么?只需要搭积木上面加一个皮。像聚划算、易淘都是很快能开发出来的,就是基于底下这么多的服务,才能达到这样快速灵活的开发。这个系统架构如PPT所示。UIC、Forest基础业务服务,往上一层TC、IC、SC,核心业务服务。再往上业务系统,交易业务、商品业务这些系统。中间HSF实时调用,右边是Notify,左边是TOP。

  说了这么多,很多同学觉得是不是淘宝发展很顺呢?不是的,有很多弯路在里面,比如说一开始的存储,NAS作为数据库的存储,数据协助的延迟非常严重,淘宝用了戴尔和EMC合作的低端存储替换还不行,用终端替换还不行,直到最后被逼着使用了EMC的存储。

  04、05年淘宝用Ajax,我们觉得很好,对用户来说就觉得很奇怪。新老业务的统一,新业务和老的系统合不到一起很奇怪的问题。服务华的粒度是一个问题,切分很多服务,到最后也被害了一下。

  用Ajax的时候,做了一个这种页面,可以按Enter做多选,翻页可以用滚动条翻页,有些新的技术。让卖家管理商品非常方便,但是卖家看到就傻掉了,不会用,这是Ajax最早期的尝试,现在习惯了。

  新业务和老业务无法融合,在已买到的宝贝,有机票、保险、彩票,隶属于不同的系统,合不掉一块。系统做服务化了,开始分成很多个应用,不同应用之间有一些调用关系,这是最初设计比较理想的调用关系。

  中间蓝色是中心,上面是M,应用的。数据库切成主要的系统,切了之后每个团队都想把系统再切,切了大概两三百个应用,他们之间的交易关系现在为止搞不清楚了,要用几个系统,没人搞得清楚。如果线画全,页面全是黑线了。在座各位做服务化切分的力度一定要把握好,不然最后会坑掉,一旦死掉一个,影响到哪个都不知道了。

你可能感兴趣的:(用故事讲述淘宝网架构成长的危机与机遇)