淘宝从百万到千万级并发的14次服务端架构演进之路( 二 )


把数据库划分为读库和写库,读库可以有多个,通过同步机制把写库的数据同步到读库 。
对于需要查询最新写入数据场景,可通过在缓存中多写一份,通过缓存获得最新数据 。
其中涉及的技术包括:Mycat,它是数据库中间件,可通过它来组织数据库的分离读写和分库分表,客户端通过它来访问下层数据库,还会涉及数据同步,数据一致性的问题 。
读写分离之后的架构图:
 

淘宝从百万到千万级并发的14次服务端架构演进之路

文章插图
 
 
业务逐渐变多,不同业务之间的访问量差距较大,不同业务直接竞争数据库,相互影响性能
第五次演进:数据库按业务分库
数据库按业务分库,把不同业务的数据保存到不同的数据库中,使业务之间的资源竞争降低,对于访问量大的业务,可以部署更多的服务器来支撑 。
这样同时导致跨业务的表无法直接做关联分析,需要通过其他途径来解决,但这不是本文讨论的重点,有兴趣的可以自行搜索解决方案 。
分库之后的架构图如下所示:
 
淘宝从百万到千万级并发的14次服务端架构演进之路

文章插图
 
 
随着用户数的增长,单机的写库会逐渐会达到性能瓶颈
第六次演进:把大表拆分为小表
比如针对评论数据,可按照商品ID进行hash,路由到对应的表中存储 。
针对支付记录,可按照小时创建表,每个小时表继续拆分为小表,使用用户ID或记录编号来路由数据 。
只要实时操作的表数据量足够小,请求能够足够均匀的分发到多台服务器上的小表,那数据库就能通过水平扩展的方式来提高性能 。其中前面提到的Mycat也支持在大表拆分为小表情况下的访问控制 。
这种做法显著的增加了数据库运维的难度,对DBA的要求较高 。数据库设计到这种结构时,已经可以称为分布式数据库 。
但是这只是一个逻辑的数据库整体,数据库里不同的组成部分是由不同的组件单独来实现的 。
比如分库分表的管理和请求分发,由Mycat实现,SQL的解析由单机的数据库实现,读写分离可能由网关和消息队列来实现,查询结果的汇总可能由数据库接口层来实现等等,这种架构其实是MPP(大规模并行处理)架构的一类实现 。
目前开源和商用都已经有不少MPP数据库,开源中比较流行的有Greenplum、TiDB、Postgresql XC、HAWQ等,商用的如南大通用的GBase、睿帆科技的雪球DB、华为的LibrA等等 。
不同的MPP数据库的侧重点也不一样,如TiDB更侧重于分布式OLTP场景,Greenplum更侧重于分布式OLAP场景 。
这些MPP数据库基本都提供了类似Postgresql、Oracle、MySQL那样的SQL标准支持能力,能把一个查询解析为分布式的执行计划分发到每台机器上并行执行,最终由数据库本身汇总数据进行返回 。
此外,也提供了诸如权限管理、分库分表、事务、数据副本等能力,并且大多能够支持100个节点以上的集群,大大降低了数据库运维的成本,并且使数据库也能够实现水平扩展 。
我们来看拆分小表之后的架构图:
 
淘宝从百万到千万级并发的14次服务端架构演进之路

文章插图
 
 
数据库和Tomcat都能够水平扩展,可支撑的并发大幅提高,随着用户数的增长,最终单机的Nginx会成为瓶颈
第七次演进:使用LVS或F5来使多个Nginx负载均衡
 
淘宝从百万到千万级并发的14次服务端架构演进之路

文章插图
 
 
由于瓶颈在Nginx,因此无法通过两层的Nginx来实现多个Nginx的负载均衡 。
上图中的LVS和F5是工作在网络第四层的负载均衡解决方案,其中LVS是软件,运行在操作系统内核态,可对TCP请求或更高层级的网络协议进行转发,因此支持的协议更丰富,并且性能也远高于Nginx,可假设单机的LVS可支持几十万个并发的请求转发
F5是一种负载均衡硬件,与LVS提供的能力类似,性能比LVS更高,但价格昂贵 。
由于LVS是单机版的软件,若LVS所在服务器宕机则会导致整个后端系统都无法访问,因此需要有备用节点 。
我们可使用keepalived软件模拟出虚拟IP,然后把虚拟IP绑定到多台LVS服务器上 。
这样浏览器访问虚拟IP时,会被路由器重定向到真实的LVS服务器,当主LVS服务器宕机时,keepalived软件会自动更新路由器中的路由表,把虚拟IP重定向到另外一台正常的LVS服务器,从而达到LVS服务器高可用的效果 。


推荐阅读