淘宝从百万到千万级并发的14次服务端架构演进之路

# 概述
本文以淘宝为例,介绍从一百个并发到千万级并发情况下服务端的架构的演进过程,同时列举出每个演进阶段会遇到的相关技术,让大家对架构的演进有一个整体的认知,文章最后汇总了一些架构设计的原则 。
# 基本概念
在介绍架构之前,为了避免部分读者对架构设计中的一些概念不了解,下面对几个最基础的概念进行介绍:
分布式
系统中的多个模块在不同服务器上部署,即可称为分布式系统,如Tomcat和数据库分别部署在不同的服务器上,或两个相同功能的Tomcat分别部署在不同服务器上
高可用
系统中部分节点失效时,其他节点能够接替它继续提供服务,则可认为系统具有高可用性
集群
一个特定领域的软件部署在多台服务器上并作为一个整体提供一类服务,这个整体称为集群 。
如Zookeeper中的Master和Slave分别部署在多台服务器上,共同组成一个整体提供集中配置服务 。
在常见的集群中,客户端往往能够连接任意一个节点获得服务,并且当集群中一个节点掉线时,其他节点往往能够自动的接替它继续提供服务,这时候说明集群具有高可用性
负载均衡
请求发送到系统时,通过某些方式把请求均匀分发到多个节点上,使系统中每个节点能够均匀的处理请求负载,则可认为系统是负载均衡的
正向代理和反向代理
系统内部要访问外部网络时,统一通过一个代理服务器把请求转发出去,在外部网络看来就是代理服务器发起的访问,此时代理服务器实现的是正向代理 。
当外部请求进入系统时,代理服务器把该请求转发到系统中的某台服务器上,对外部请求来说,与之交互的只有代理服务器,此时代理服务器实现的是反向代理 。
简单来说,正向代理是代理服务器代替系统内部来访问外部网络的过程,反向代理是外部请求访问系统时通过代理服务器转发到内部服务器的过程 。
# 架构演进
单机架构
以淘宝作为例子,在网站最初时,应用数量与用户数都较少,可以把Tomcat和数据库部署在同一台服务器上 。
浏览器往www.taobao.com发起请求时,首先经过DNS服务器(域名系统)把域名转换为实际IP地址10.102.4.1,浏览器转而访问该IP对应的Tomcat 。
如下图所示:
 

淘宝从百万到千万级并发的14次服务端架构演进之路

文章插图
 
 
随着用户数的增长,Tomcat和数据库之间竞争资源,单机性能不足以支撑业务
第一次演进:Tomcat与数据库分开部署
第一次演进没有什么特别的,将 Tomcat 和数据库分别独占服务器资源,显著提高两者各自性能 。如下图所示:
 
淘宝从百万到千万级并发的14次服务端架构演进之路

文章插图
 
随着用户数的增长,并发读写数据库成为瓶颈
第二次演进:引入本地缓存和分布式缓存
第二次架构演进引入了缓存,在Tomcat服务器上增加本地缓存,并在外部增加分布式缓存,缓存热门商品信息或热门商品的html页面等 。
通过缓存能把绝大多数请求在读写数据库前拦截掉,大大降低数据库压力 。其中涉及的技术包括:使用memcached作为本地缓存,使用redis作为分布式缓存,还会涉及缓存一致性、缓存穿透/击穿、缓存雪崩、热点数据集中失效等问题 。
演进之后,如下图所示:
 
淘宝从百万到千万级并发的14次服务端架构演进之路

文章插图
 
 
缓存抗住了大部分的访问请求,随着用户数的增长,并发压力主要落在单机的Tomcat上,响应逐渐变慢
第三次演进:引入反向代理实现负载均衡
在多台服务器上分别部署Tomcat,使用反向代理软件(Nginx)把请求均匀分发到每个Tomcat中 。
此处假设Tomcat最多支持100个并发,Nginx最多支持50000个并发,那么理论上Nginx把请求分发到500个Tomcat上,就能抗住50000个并发 。
其中涉及的技术包括:Nginx、HAProxy,两者都是工作在网络第七层的反向代理软件,主要支持http协议,还会涉及session共享、文件上传下载的问题 。
一起来看看使用反向代理之后的架构图:
 
淘宝从百万到千万级并发的14次服务端架构演进之路

文章插图
 
 
反向代理使应用服务器可支持的并发量大大增加,但并发量的增长也意味着更多请求穿透到数据库,单机的数据库最终成为瓶颈
第四次演进:数据库读写分离


推荐阅读