浅谈双十一背后的支付宝LDC架构和其CAP分析

本人汤波,superthem.com 圆领超级个体创始人,Github page地址:https://tbwork.github.io/
看到很多人在盗用我的文章,还标记成原创,进行收费,非常令人作呕。
我的所有技术文章全部免费阅读,大家不要花冤枉钱。
请相关转载者立即停止此类行为!

1 背景

本文曾获阿里内网ATA“峰云之巅”奖。未经允许,不得转载。本文曾被大量转载和修改文章标题,给本人带来了极大的伤害。

一年一度的双十一又要来了,自2008年双十一以来,在每年双十一超大规模流量的冲击上,蚂蚁金服都会不断突破现有技术的极限。2010年双11的支付峰值为2万笔/分钟,全天1280万笔支付,这个数字到2017双11时变为了25.6万笔/秒,全天14.8亿笔。在如此之大的支付TPS背后除了削峰等锦上添花的应用级优化,最解渴最实质的招数当数基于分库分表的单元化了,蚂蚁技术称之为LDC(逻辑数据中心)。本文不打算讨论具体到代码级的分析,而是尝试用最简单的描述来说明其中最大快人心的原理。我想关心分布式系统设计的人都曾被下面这些问题所困扰过:

  • 支付宝海量支付背后最解渴的设计是啥?换句话说,实现支付宝高TPS的最关键的设计是啥?
  • LDC是啥?LDC怎么实现异地多活和异地灾备的?
  • CAP魔咒到底是啥?P到底怎么理解?
  • 什么是脑裂?跟CAP又是啥关系?
  • 什么是PAXOS,什么是Quorum法定数量,它们解决了啥问题?
  • PAXOS和CAP啥关系?PAXOS可以逃脱CAP魔咒么?
  • Oceanbase能逃脱CAP魔咒么?

如果你对这些感兴趣,不妨看一场赤裸裸的论述,拒绝使用晦涩难懂的词汇,直面最本质的逻辑。

本文提及的所有关于支付宝和蚂蚁的技术点均为网络采集,未经亲自核实,请谨慎参考。如有涉及关键技术泄露请指明具体细节,并提供证据,比如到底是哪个点侵害了您的哪个权益。尤其是支付宝的公关和法务同学,不要听风就是雨,本文曾被大量转载和修改名称,尤其会携带一些“大厂揭秘”等具有误导性的词汇,请保持理性阅读,过脑分析。按照个人的理解,本文不涉及任何关键技术细节,也不会给贵司带来任何损失和负面作用。

2 LDC和单元化

LDC(logic data center)是相对于传统的(Internet Data Center-IDC)提出的,逻辑数据中心所表达的中心思想是无论物理结构如何的分布,整个数据中心在逻辑上是协同和统一的。这句话暗含的是强大的体系设计,分布式系统的挑战就在于整体协同工作(可用性,分区容忍性)和统一(一致性)。

单元化是大型互联网系统的必然选择趋势,举个最最通俗的例子来说明单元化。我们总是说TPS很难提升,确实任何一家互联网(比如淘宝、携程、新浪)它的交易TPS顶多以十万计量(平均水平),很难往上串了,因为数据库存储层瓶颈的存在再多水平扩展的服务器都无法绕开这个瓶颈,而从整个互联网的视角看,全世界电商的交易TPS可以轻松上亿。这个例子带给我们一些思考:为啥几家互联网的TPS之和可以那么大,服务的用户数规模也极为吓人,而单个互联网的TPS却很难提升?究其本质,每家互联网都是一个独立的大型单元,他们各自服务自己的用户互不干扰。这就是单元化的基本特性,任何一家互联网公司,其想要成倍的扩大自己系统的服务能力,都必然会走向单元化之路,它的本质是分治,我们把广大的用户分为若干部分,同时把系统复制多份,每一份都独立部署,每一份系统都服务特定的一群用户,以淘宝举例,这样之后,就会有很多个淘宝系统分别为不同的用户服务,每个淘宝系统都做到十万TPS的话,N个这样的系统就可以轻松做到N*十万的TPS了。

LDC实现的关键就在于单元化系统架构设计,所以据说在蚂蚁金服内部,LDC和单元化是不分家的,这也是很多同学比较困扰的地方,看似没啥关系,实则是单元化体系设计成就了LDC。

小结:分库分表解决的最大痛点是数据库单点瓶颈,这个瓶颈的产生是由现代二进制数据存储体系决定的(即I/O速度)。单元化只是分库分表后系统部署的一种方式,这种部署模式在灾备方面也发挥了极大的优势。

2.1 系统架构演化史

几乎任何规模的互联网公司,都有自己的系统架构迭代和更新,大致的演化路径都大同小异。最早一般为了业务快速上线,所有功能都会放到一个应用里,系统架构如图1所示。

在这里插入图片描述

这样的架构显然是有问题的,单机有着明显的单点效应,单机的容量和性能都是很局限的,而使用中小型机会带来大量的浪费。
随着业务发展,这个矛盾逐渐转变为主要矛盾,因此工程师们采用了以下架构。

在这里插入图片描述

通过对应用进行水平扩展可以大幅度提高服务器容量,这时候应用代码还是一份,里面五脏俱全,只是应用代码运行在多个服务器实例上。这也是整个公司第一次触碰到分布式,它的理论基础是将多个微机的计算能力团结起来,其效果可以完胜同等价格的中小型机器。随着业务进一步发展,用量到达了百万级,慢慢的大家发现,应用服务器CPU都很正常了,但是还是有很多慢请求,究其原因,是因为单点数据库带来了性能瓶颈。于是程序员们决定使用主从结构的数据库集群,如下图所示。
在这里插入图片描述

其中大部分读操作可以直接访问从库,从而减轻主库的压力。然而这种方式还是无法解决写瓶颈,写依旧需要主库来处理,当业务量量级再次增高时,写已经变成刻不容缓的待处理瓶颈。这时候,分库分表方案出现了。
在这里插入图片描述

分库分表不仅可以对相同的库进行更细的业务拆分,还可以进行对同一张表进行拆分,对表进行拆分的方式叫做水平拆分。原本在同一个库中不同功能表拆分后放到不同的数据库中,这种方式对应的是垂直拆分(按照业务功能进行拆分),此时一般还对应了微服务化。分库分表往往按照用户ID进行散列,不同用户的数据访问请求会在固定的不同数据库实例上进行处理,这种方法做到极致基本能支撑TPS在万级甚至更高的访问量了。然而这种模式下需要每个扩展出的应用都连接所有的数据库实例以保证任意用户的请求在本应用都能进行处理,随着应用扩展的越多,每个数据库实例的连接数也成倍增长,而数据库服务器的连接数量一般是恒定的,因此无法跟着可以无限扩容的应用服务实例增长而同比增长,这种机制是出于对数据库的保护而设计的。事实上即便数据库连接池可以无限增长,应用服务也会花费大量的性能消耗在维护与每个分库的数据库连接池上。比如在16个分库200台水平扩展应用的情况下,若每个应用与数据库的连接池在100个,那么每台应用上的数据库连接数量将高达1600个,每台数据库服务实例上维护的连接数量达20000个。虽然对于任意一台数据库来说不代表同时会有20000个连接在传输数据,但由于系统实际运行时的各种不可预期的复杂调用(比如原先估计同时最多只有200个连接在读写数据——根据数据库服务的容量进行合理计算得出,实际上一旦将最大连接数设置为20000个连接,同时读写的连接数超过200会变得非常常见)和请求流转以及数据库服务器中连接调度的性能消耗,这20000个始终保持存活的连接将逐步成为数据库访问的瓶颈,从而影响整个系统。

Mysql等数据库的主流用法中都是在数据访问期间独占连接,而不是像HTTP2.0那样允许多路复用的纯异步访问,这是由于SQL语句的执行必须要符合顺序性,否则一致性将被破坏。对于那些完全不需要一致性的业务(作者也举不出来例子但应该是存在的),可能可以使用异步执行模式,在那种情况下数据库连接瓶颈的问题或可以得到解决。

从本质上看,这种模式的资源隔离性还不够彻底,总会存在资源间互相污染的情况,这些污染最终会变现为系统的急剧熵增。要彻底让资源进行隔离,就需要按照某种规则将网络访问用户进行分流,让一套服务和数据库为某个特定群体进行服务——就像每个电商平台一样,这样一来凡是来自这个用户的所有请求都会由其对应的应用服务和数据库实例来处理,而不会影响其他的服务和数据库。这样带来另外一个变化就是识别用户分库的逻辑需要往上层移动——从数据库层向上移动到路由网关层。当网关识别到A用户时通过散列算法将其分配到对应的应用服务器(Server-A),最后数据持久化到对应的数据库实例DB-1,因此Server-A也不再需要链接其他的数据库实例了,如此一个单元化的雏形就诞生了。

在这里插入图片描述

如上图所示,但我们把整套系统打包为单元化时,每一类的数据从进单元开始就注定在这个单元被消化,由于这种彻底的隔离性,整个单元可以轻松的部署到任意机房而依然能保证逻辑上的统一。下图为一个三地五机房的部署方式。

在这里插入图片描述

2.2 支付宝单元化架构实践

蚂蚁支付宝应该是国内最大的支付工具,其在双十一等活动日当日的支付TPS可达几十万级,未来这个数字可能会更大,这决定了蚂蚁单元化架构从容量要求上看必然从单机房走向多机房。另一方面,异地灾备也决定了这些IDC机房必须是异地部署的。
整体上支付宝也采用了三地五中心(IDC机房)来保障系统的可用性[7],跟2.1中描述的有所不同的是,支付宝将单元分成了三类(也称CRG架构)[8]:

  • RZone(Region Zone):直译可能有点反而不好理解。实际上就是所有可以分库分表的业务系统整体部署的最小单元。每个RZone连上数据库就可以撑起一片天空,把业务跑的溜溜的。
  • GZone(Global Zone):全局单元,意味着全局只有一份。部署了不可开创副本服务和数据,比如汇率、优惠政策、商品价格、系统配置等。实际情况下,GZone异地也会部署,不过仅是用于灾备,同一时刻,只有一地GZone进行全局服务。GZone一般被RZone依赖,提供的大部分是读取服务。
  • CZone(City Zone):顾名思义,这是以城市为单位部署的单元。同样部署了不可拆分的数据和服务,比如用户账号服务,客户信息服务等。理论上CZone会被RZone以比访问GZone高很多的频率进行访问。CZone是基于特定的GZone场景进行优化的一种单元,它把GZone中有些有着"写读时间差现象"的数据和服务进行了的单独部署,这样RZone只需要访问本地的CZone即可,而不是访问异地的GZone。

"写读时间差现象"是架构师们根据实践统计总结的,他们发现大部分情况下,一个数据被写入后,都会过足够长的时间后才会被访问。生活中这种例子很常见,我们办完银行卡后可能很久才会存第一笔钱;我们创建微博账号后,可能想半天才会发微博;我们下载创建淘宝账号后,可能得浏览好几分钟才会下单买东西。当然了这些例子中的时间差远远超过了系统同步时间。一般来说异地的延时在100ms以内,所以只要满足某地CZone写入数据后100ms以后才用这个数据,这样的数据和服务就适合放到CZone中。

相信大家看到这都会问:为啥分这三种单元?其实其背后对应的是不同性质的数据,而服务不过是对数据的操作集。下面我们来根据数据性质的不同来解释支付宝的CRG架构。当下几乎所有互联网公司的分库分表规则都是根据用户ID来制定的,而围绕用户来看整个系统的数据可以分为以下两类:用户专属型数据和用户间共享型数据。

注:网上和支付宝内部有另外一些分法,比如流水型和状态性,有时候还会分为三类:流水型、状态型和配置型。

(1)用户专属型数据

代表只有用户自己会访问的数据,典型的有用户的订单、用户发的评论、用户的行为记录等。这些数据都是用户行为产生的流水型数据,具备天然的用户隔离性,比如A用户的App上绝对看不到B用户的订单列表。所以此类数据非常适合分库分表后独立部署服务,即按照用户ID散列部署为RZone。

(2)用户共享型数据

代表所有的用户都可能访问的数据。由于数据可能会被所有用户访问,将提供这类数据的服务部署到RZone就变得不合适了,因为RZone可能被分布在全国各地,高频的远程调用并不经济。用户共享型数据又可以进一步分为以下几类:

  • 时间差弱感型数据:这些数据往往对一致性的实时性不敏感,比如上海的某个用户写了一条评论,一般并不会强调广东深圳的另一个用户与上海的其他用户需要同时并立即看到这条评论。其他类似的还有账号、个人博客、商品等。由于对时间差不敏感,这类数据的提供服务往往被部署到CZone中,
  • 时间差敏感型数据:代表这些数据对时间差很敏感,不允许出现过期副本,比如不允许超卖的库存,公共账户余额等。这些数据对应的服务一般会部署为GZone服务,每一次数据访问都会路由到全局唯一的数据库中进行处理。GZone中的服务在多地部署的架构下调用是低效的,幸运的是这种类型的数据在所有业务数据中只占很小的一部分。
  • 低频访问的配置型数据:系统配置是共享型数据中比较常见的一种类型,有些配置是时间差敏感的有些则是弱感的,但即便是时间差弱感型数据,我们常常也并不会因此将其与其他配置分开部署到RZone或者CZone中(特殊情况下有必要也只能部署到RZone或CZone),因为大部分配置数据都是低频访问的,比如运营后台配置的活动数据等,这些更新可能在运动开始前被RZone服务加载后就不再高频访问了,放在GZone更为方便和节约成本。作者在支付宝所搭建的价格工厂用于制定各项业务的收费规则,它也被部署到了GZone中,因为金融产品的收费规则的使用方往往都不是高并发入口,甚至有些是离线业务。

以上只是从数据特性上做了分类,具体的案例场景并不具备必然的参考意义,具体使用什么方式部署,需要结合业务场景进行判断。即便在支付宝的实际应用中,各个系统仍然存在不合理的CRG分类,尤其是CG不分的现象很常见。为了避免过度设计,作者建议共享型数据服务一开始可以优先考虑放到GZone中,当逐步发现瓶颈时再对数据做划分,逐步引入CZone。

3 LDC单元化的异地多活和灾备

3.1 流量挑拨技术探秘简介

单元化后,异地多活从未如此简单——只需要在多地进行单元部署而已。比如上海的两个单元负责用户ID范围为[0019],[4059]的用户服务,而杭州的两个单元为ID为[20~39]和[60,79]的用户服务,这样上海和杭州就是异地双活的。

支付宝对单元化的基本要求是每个单元都具备服务所有用户的能力,以应对不可预期的天灾人祸,即具体的哪个单元服务哪些用户是可以动态配置的。所以异地双活的这些单元还充当了彼此的备份。

发现工作中冷备热备已经被用的很乱了。最早冷备是指数据库在备份数据时需要关闭后进行备份(也叫离线备份),防止数据备份过程中又修改了,不需要关闭即在运行过程中进行数据备份的方式叫做热备(也叫在线备份)[9]。也不知道从哪一天开始,冷备在主备系统里代表了这台备用机器是关闭状态的,只有主服务器挂了之后,备服务器才会被启动;而相同的热备变成了备服务器也是启动的,只是没有流量而已,一旦主服务器挂了之后,流量自动打到备服务器上。本文不打算用第二种理解,因为感觉有点野、、、

为了做到每个单元访问哪些用户变成可配置,支付宝要求单元化管理系统具备流量到单元的可配置以及单元到DB的可配置能力,如下图所示:

在这里插入图片描述

其中spanner是基于nginx自研的反向代理网关,也很好理解,有些请求我们希望在反向代理层就被转发至其他IDC的spanner而无需进入后端服务,如图箭头2所示。那么对于应该在本IDC处理的请求,就直接映射到对应的RZ即可,如图箭头1。进入后端服务后,理论上如果请求只是读取用户专属型数据,那么一般不会再进行路由了。然而对于有些场景来说,A用户的一个请求可能关联了对B用户数据的访问,比如A转账给B,A扣完钱后要调用账务系统去增加B的余额。这时候就涉及到再次的路由,同样有两个结果:跳转到其他IDC(如图箭头3)或是跳转到本IDC的其他RZone(如图箭头4)。

RZone到DB数据分区的访问这是事先配置好的,上图中RZ和DB数据分区的关系为:

RZ0* --> a
RZ1* --> b
RZ2* --> c
RZ3* --> d

下面我们举个例子来说明整个流量挑拨的过程,假设C用户所属的数据分区是c,而C用户在杭州访问了cashier.xxx.com(随便编的)。

(1)首先默认会按照地域来路由流量,具体的实现承载者是全局负载均衡GLSB(Global Server Load Balancing),它会根据请求者的IP,自动将cashier.xxx.com解析为杭州IDC的IP地址(或者跳转到IDC所在的域名)。自己搞过网站的同学应该知道大部分DNS服务商的地址都是靠人去配置的,GLSB属于动态配置域名的系统,网上也有比较火的类似产品,比如花生壳之类(建过私站的同学应该很熟悉)的。

(2)好了,到此为止,用户的请求来到了IDC-1的Spanner集群服务器上,Spanner从内存中读取到了路由配置,知道了这个请求的主体用户C所属的RZ3*不在本IDC,于是直接转到了IDC-2进行处理。

(3)进入IDC-2之后,根据流量配比规则,该请求被分配到了RZ3B进行处理。

(4)RZ3B得到请求后对数据分区c进行访问。

(5)处理完毕后原路返回。

大家应该发现问题所在了,如果再来一个这样的请求,岂不是每次都要跨地域进行调用和返回体传递?确实是存在这样的问题的,对于这种问题,支付宝架构师们决定继续把决策逻辑往用户终端推移。比如,每个IDC机房都会有自己的域名(真实情况可能不是这样命名的):
IDC-1对应cashieridc-1.xxx.com
IDC-2对应cashieridc-2.xxx.com
那么请求从IDC-1涮过一遍返回时会将前端请求跳转到cashieridc-2.xxx.com去(如果是APP,只需要替换rest调用的接口域名),后面所有用户的行为都会在这个域名上发生,就避免了走一遍IDC-1带来的延时。

3.2 灾备机制

流量挑拨是灾备切换的基础和前提条件,发生灾难后的通用方法就是把陷入灾难的单元的流量重新打到正常的单元上去,这个流量切换的过程俗称切流。支付宝LDC架构下的灾备有三个层次:

  • 同机房单元间灾备。
  • 同城机房间灾备。
  • 异地机房间灾备。

(1)同机房单元间灾备

灾难发生可能性相对最高(但其实也很小)。对LDC来说,最小的灾难就是某个单元由于一些原因(局部插座断开、线路老化、人为操作失误)宕机了。从3.1节里的图中可以看到每组RZ都有A,B两个单元,这就是用来做同机房灾备的,并且AB之间也是双活双备的,正常情况下AB两个单元共同分担所有的请求,一旦A单元挂了,B单元将自动承担A单元的流量份额。这个灾备方案是默认的。

(2) 同城机房间灾备

灾难发生可能性相对更小。这种灾难发生的原因一般是机房电线网线被挖断,或者机房维护人员操作失误导致的。在这种情况下,就需要人工的制定流量挑拨(切流)方案了。下面我们举例说明这个过程,如下图所示为上海的两个IDC机房。

在这里插入图片描述

整个切流配置过程分两步,首先需要将陷入灾难的机房中RZone对应的数据分区的访问权配置进行修改;假设我们的方案是由IDC-2机房的RZ2和RZ3分别接管IDC-1中的RZ0和RZ1。那么首先要做的是把IDC2中的数据分区a,b对应的访问权从RZ0和RZ1收回。分配给RZ2和RZ3。即将(如上图所示为初始映射):

RZ0* --> a
RZ1* --> b
RZ2* --> c
RZ3* --> d

变为:

RZ0* --> /
RZ1* --> /
RZ2* --> a
RZ2* --> c
RZ3* --> b
RZ3* --> d

然后再修改用户ID和RZ之间的映射配置。假设之前为:

[00-24] --> RZ0A(50%),RZOB(50%)
[25-49] --> RZ1A(50%),RZ1B(50%)
[50-74] --> RZ2A(50%),RZ2B(50%)
[75-99] --> RZ3A(50%),RZ3B(50%)

那么按照灾备方案的要求,这个映射配置将变为:

[00-24] --> RZ2A(50%),RZ2B(50%)
[25-49] --> RZ3A(50%),RZ3B(50%)
[50-74] --> RZ2A(50%),RZ2B(50%)
[75-99] --> RZ3A(50%),RZ3B(50%)

这样之后,所有流量将会被打到IDC-2中,期间部分已经向IDC-1发起请求的用户会收到失败并重试的提示。
实际情况中,整个过程并不是灾难发生后再去做的,整个切换的流程会以预案配置的形式事先准备好,推送给每个流量挑拨客户端(集成到了所有的服务和spanner中)。

这里可以思考下,为何先切数据库映射,再切流量呢?这是因为如果先切流量,意味着大量注定失败的请求会被打到新的正常单元上去,从而影响系统的稳定性(数据库还没准备好)。

(2) 异地机房间灾备

这个基本上跟同城机房间灾备一致(这也是单元化的优点),不再赘述。

4 LDC单元化架构的CAP分析

4.1 回顾CAP

4.1.1 CAP的定义

CAP原则是指任意一个分布式系统,同时最多只能满足其中的两项,而无法同时满足三项。所谓的分布式系统,说白了就是一件事一个人做的,现在分给好几个人一起干。我们先简单回顾下CAP各个维度的含义[1]:

  • Consistency(一致性),这个理解起来很简单,就是每个操作结束后节点上的同一份数据都是一致的。保证一致性往往有两种方法,一种是要求任何更新都是原子的,即要么全部成功,要么全部失败。由于分布式系统之间无法做到像单机一样对系统资源的全把控能力,保证整个分布式系统的原子性也变得十分奢侈。另外一种一致性保障方法是通过分布式仲裁的方法,比如CouchDB等数据库,当数据更新发现冲突时,将通过预先设置的规则进行分布式仲裁,最终得到一个全局一致的数据。
  • Availability(可用性),这个可用性看起来很容易理解,但真正说清楚的不多。我更愿意把可用性解释为:任意时刻系统都可以提供读写服务。那么举个例子,当我们用事务将所有节点锁住来进行某种写操作时,如果某个节点发生不可用的情况,会让整个系统不可用。对于分片式的NoSQL中间件集群(Redis,Memcached)来说,一旦一个分片歇菜了,整个系统的数据也就不完整了,读取宕机分片的数据就会没响应,也就是不可用了。需要说明一点,对于选择CP的分布式系统来说并不代表可用性就完全没有了,只是可用性没有保障了。为了增加可用性保障,这类中间件往往都提供了"分片集群+复制集"的方案。
  • Partition tolerance(分区容忍性),这个可能也是很多文章都没说清楚的。P并不是像CA一样是一个独立的性质,它依托于CA来进行讨论。参考文献[1]中解释道:“除非整个网络瘫痪,否则任何时刻系统都能正常工作”,言下之意是小范围的网络瘫痪,节点宕机,都不会影响整个系统的CA。我感觉这个解释听着还是有点懵逼,所以个人更愿意解释为"当节点之间网络不通时(出现网络分区),可用性和一致性仍然能得到保障"。按笔者的理解,分区容忍性又分为"可用性分区容忍性"和"一致性分区容忍性"。“出现分区时会不会影响可用性"的关键在于"需不需要所有节点互相沟通协作来完成一次事务”,不需要的话是铁定不影响可用性的,庆幸的是应该不太会有分布式系统会被设计成完成一次事务需要所有节点联动,一定要举个例子的话,全同步复制技术下的Mysql是一个典型案例[2]。"出现分区时会不会影响一致性"的关键则在于出现脑裂时有没有保证一致性的方案,这对主从同步型数据库(MySQL、SQL Server)是致命的,一旦网络出现分区,产生脑裂,系统会出现一份数据两个值的状态,谁都不觉得自己是错的。需要说明的是,正常来说同一局域网内,网络分区的概率非常低,这也是为啥我们最熟悉的数据库(MySQL、SQL Server等)也是不考虑P的原因。

下图为CAP之间的经典关系图:
在这里插入图片描述

还有个需要说明的地方,“分布式系统不可能同时满足CAP“的前提条件是这个分布式系统一定是有读有写的,如果只考虑读,那么CAP很容易都满足,比如一个计算器服务,接受表达式请求,返回计算结果,搞成水平扩展的分布式,显然这样的系统没有一致性问题,网络分区也不怕,可用性也是很稳的,所以可以满足CAP。而对于需要分布式读写的系统则符合CAP约束,分布式读写意味着在A点写入的数据,在B点也可以读取,这样的系统无法在任一时刻同时满足CAP。

4.1.2 CAP分析方法

先说下CA和P的关系,如果不考虑P的话,系统是可以轻松实现CA的。而P并不是一个单独的性质,它代表的是目标分布式系统有没有对网络分区的情况做容错处理。如果做了处理,就一定是带有P的,接下来再考虑分区情况下到底选择了A还是C。所以分析CAP,建议先确定有没有对分区情况做容错处理。
以下是个人总结的分析一个分布式系统CAP满足情况的一般方法:

if( 不存在分区的可能性 || 分区后不影响可用性或一致性 || 有影响但考虑了分区情况-P){if(可用性分区容忍性-A under P))return "AP";else if(一致性分区容忍性-C under P)return "CP";
}
else{  //分区有影响但没考虑分区情况下的容错if(具备可用性-A && 具备一致性-C){return AC;}
}

这里说明下,如果考虑了分区容忍性,就不需要考虑不分区情况下的可用性和一致性了(大多是满足的)。

4.2 水平扩展应用+单数据库实例的CAP分析

让我们再来回顾下分布式应用系统的来由,早年每个应用都是单体的,跑在一个服务器上,服务器一挂,服务就不可用了。另外一方面,单体应用由于业务功能复杂,对机器的要求也逐渐变高,普通的微机无法满足这种性能和容量的要求。所以要拆!还在IBM大卖小型商用机的年代,阿里巴巴就提出要以分布式微机替代小型机。所以我们发现,分布式系统解决的最大的痛点,就是单体单机系统的可用性问题。要想高可用,必须分布式。
一家互联网公司的发展之路上,第一次与分布式相遇应该都是在单体应用的水平扩展上。也就是同一个应用启动了多个实例,连接着相同的数据库(为了简化问题,先不考虑数据库是否单点),如下图所示。

在这里插入图片描述

这样的系统天然具有的就是AP(可用性和分区容忍性),一方面解决了单点导致的低可用性问题,另一方面无论这些水平扩展的机器间网络是否出现分区,这些服务器都可以各自提供服务,因为他们之间不需要进行沟通。然而,这样的系统是没有一致性可言的,当每个实例都可以往数据库insert和update(注意这里还没讨论到事务)时,数据就乱套了。

于是我们转向了让DB去做这个事,这时候"数据库事务"就被用上了。用大部分公司会选择的Mysql/MariaDB来举例,用了事务之后会发现数据库又变成了单点和瓶颈。单点就像单机一样(本例子中不考虑从库模式),理论上就不叫分布式了,如果一定要分析其CAP的话,根据4.1.2的步骤分析过程应该是这样的:

  • 分区容忍性:先看有没有考虑分区容忍性,或者分区后是否会有影响。单台MySQL无法构成分区,要么整个系统挂了,要么就活着。
  • 可用性分区容忍性:假设单节点是分布式的一种特例,并且分区情况下恰好是该节点挂了,这时候没有其他节点提供服务,系统也就不可用了,所以可用性分区容忍性不满足。
  • 一致性分区容忍性:假设单节点是分布式的一种特例,并且分区情况下恰好是该节点挂了,这时候没有其他节点提供服务,也不存在一致性的问题,单点单机的最大好处就是一致性可以得到保障。

因此这样的一个系统,个人认为只是满足了CP。A有但不出色,从这点可以看出,CAP并不是非黑即白的。包括常说的BASE[3](最终一致性)方案,其实只是C不出色,但最终也是达到一致性的,BASE在一致性上选择了退让。

关于分布式应用+单点数据库的模式算不算纯正的分布式系统,这个可能每个人看法有点差异,上述只是我个人的一种理解,是不是分布式系统不重要,重要的是分析过程。其实我们讨论分布式,就是希望系统的可用性是多个系统多活的,一个挂了另外的也能顶上,显然单机单点的系统不具备这样的高可用特性。所以在我看来,广义的说CAP也适用于单点单机系统,单机系统是CP的。说到这里,大家似乎也发现了,水平扩展的服务应用+数据库这样的系统的CAP魔咒主要发生在数据库层,因为大部分这样的服务应用都只是承担了计算的任务(像计算器那样),本身不需要互相协作,所有写请求带来的数据的一致性问题下沉到了数据库层去解决。想象一下,如果没有数据库层,而是应用自己来保障数据一致性,那么这样的应用之间就涉及到状态的同步和交互了,分布式锁就是一个典型的例子。

4.3 水平扩展应用+主从数据库集群的CAP分析

上一节我们讨论了多应用实例+单数据库实例的模式,这种模式是分布式系统也好,不是分布式系统也罢,整体是偏CP的。现实中,技术人员们也会很快发现这种架构的不合理性——可用性太低了。于是如下图所示的模式成为了当下大部分中小公司所使用的架构:

在这里插入图片描述

从上图我可以看到三个数据库实例中只有一个是主库,其他是从库。一定程度上,这种架构极大的缓解了"读可用性"问题,而这样的架构一般会做读写分离来达到更高的"读可用性",幸运的是大部分互联网场景中读都占了80%以上,所以这样的架构能得到较长时间的广泛应用。对于"写可用性"方面主备模式可以采用keepalived[4]等HA(高可用)框架来保证主库的存活性,但实质上这种方式并没有带来性能上的可用性提升,只是保证了宕机情况下的可用性,至少系统不会因为某个实例挂了就都不可用了。该分布式系统可用性勉强达标了,具体的CAP分析如下:

  • 分区容忍性:依旧先看分区容忍性,主从结构的数据库存在节点之间的通信,他们之间需要通过心跳来保证只有一个Master。然而一旦发生分区,每个分区会自己选取一个新的Master,这样就出现了脑裂,常见的主从数据库(MySQL,Oracle等)并没有自带解决脑裂的方案。所以分区容忍性是没考虑的。
  • 一致性:不考虑分区,由于任意时刻只有一个主库,所以一致性是满足的。
  • 可用性:不考虑分区,HA机制的存在可以保证可用性,所以可用性显然也是满足的。

所以这样的一个系统,我们认为它是CA的。我们再深入研究下,如果发生脑裂产生数据不一致后有一种方式可以仲裁一致性问题,是不是就可以满足P了呢。还真有尝试通过预先设置规则来解决这种多主库带来的一致性问题的系统,比如CouchDB,它通过版本管理来支持多库写入,在其仲裁阶段会通过DBA配置的仲裁规则(也就是合并规则,比如谁的时间戳最晚谁的生效)进行自动仲裁(自动合并),从而保障最终一致性(BASE),自动规则无法合并的情况则只能依赖人工决策了。

4.4 LDC单元化架构的CAP分析

4.4.1 战胜分区容忍性

在讨论LDC架构的CAP之前,我们再来想想分区容忍性有啥值得一提的,为啥很多大名鼎鼎的BASE(最终一致性)体系系统都选择损失实时一致性,而不是丢弃分区容忍性呢?

分区的产生一般有两种情况:

  • 某台机器宕机了,过一会儿又重启了,看起来就像失联了一段时间,像是网络不可达一样。
  • 异地部署情况下,异地多活意味着每一地都可能会产生数据写入,而异地之间偶尔的网络延时尖刺(网络延时曲线图陡增)、网络故障都会导致小范围的网络分区产生。前文也提到过,如果一个分布式系统是部署在一个局域网内的(一个物理机房内),那么个人认为分区的概率极低,即便有复杂的拓扑,也很少会有在同一个机房里出现网络分区的情况。而异地这个概率会大大增高,所以蚂蚁的三地五中心必须需要思考这样的问题,分区容忍不能丢!同样的情况还会发生在不同ISP的机房之间(想象一下你和朋友组队玩DOTA,他在电信,你在联通)。为了应对某一时刻某个机房突发的网络延时尖刺活着间歇性失联,一个好的分布式系统一定能处理好这种情况下的一致性问题。

那么蚂蚁是怎么解决这个问题的呢?我们在4.2的备注部分讨论过,其实LDC机房的各个单元都由两部分组成:负责业务逻辑计算的应用服务器和负责数据持久化的数据库。大部分应用服务器就像一个个计算器,自身是不对写一致性负责的,这个任务被下沉到了数据库。所以蚂蚁解决分布式一致性问题的关键就在于数据库!

想必有些读者大概猜到下面的讨论重点了——OceanBase(下文简称OB),中国第一款自主研发的分布式数据库,一时间也确实获得了很多光环。在讨论OB前,我们先来想想Why not MySQL?

首先,就像CAP三角图中指出的,MySQL是一款满足AC但不满足P的分布式系统。试想一下,一个MySQL主从结构的数据库集群,当出现分区时,问题分区内的Slave会认为主已经挂了,所以自己成为本分区的master(脑裂),等分区问题恢复后,会产生2个主库的数据,而无法确定谁是正确的,也就是分区导致了一致性被破坏。这样的结果是严重的,这也是蚂蚁宁愿自研OceanBase的原动力之一。

那么如何才能让分布式系统具备分区容忍性呢?按照老惯例,我们从"可用性分区容忍"和"一致性分区容忍"两个方面来讨论。
(1) 可用性分区容忍性保障机制

可用性分区容忍的关键在于别让一个事务依赖所有节点来完成,这个很简单,别要求所有节点共同同时参与某个事务即可。

(2) 一致性分区容忍性保障机制

老实说,都产生分区了,哪还可能获得实时一致性。但要保证最终一致性也不简单,一旦产生分区,如何在2个分区无法通信的情况下保证只有有一份正确的提议呢?究其根本是要保障所有分区种有且只能有一个大脑,下面我们来看下共识算法PAXOS的核心——Quorum思想是如何解决脑裂问题的。

这里可以发散下,所谓的"脑"其实就是具备写能力的系统,"非脑"就是只具备读能力的系统,对应了MySQL集群中的从库。

下面是两段摘自维基百科的PAXOS定义[5]:

Paxos is a family of protocols for solving consensus in a network of unreliable processors (that is, processors that may fail).

Quorums express the safety (or consistency) properties of Paxos by ensuring at least some surviving processor retains knowledge of the results.

这段话的意思是:PAXOS是在一群不可靠的节点组成的集群中的一类共识机制,而Quorum机制则用来保证。众所周知Paxos算法可以解决分布式系统中的脑裂问题,但其中真正起作用的本质思想是Quorum机制,翻译过来叫做“法定数量机制”,在分布式领域,它往往要求任何一个提议在一个有N个节点的分布式系统中至少被(N/2)+1个系统节点所认可,它才被认为是可信的,这背后的理论基础是少数服从多数——一个群体不可能存在2种对立的多数群体观点。只要多数节点认可并持久化数据,即便整个系统宕机了,在重启后该系统仍然可以通过一次互相通信知道哪个值是合法的——多数节点保留的那个值。这样的设定也巧妙的解决了分区情况下的共识问题,因为一旦产生分区,势必最多只有一个分区内的节点数量会大于等于(N/2)+1。也有一些HA(高可用)方案通过依托于另一个仲裁系统来避免脑裂,比如大家同时Ping一个公共的IP,先成功者继续为脑,然而显然这就又制造了另外一个单点——仲裁系统的高可用谁来保障?

如果你了解过比特币或者区块链,你就知道区块链的基础理论也是Quorum法定数量机制。区块链借助Quorum机制来抵御恶意篡改,分布式应用系统则是借助Quorum来解决分区脑裂问题。不过区块链假设的是网络中存在拜占庭错误,因而法定数量并不是(N/2)+1,具体可搜索相关技术文章。

很多同学肯定听说过这样的描述——PAXOS是唯一能解决分布式一致性问题的解法。这句话越是理解越发觉得诡异,这会让人以为PAXOS逃离于CAP约束了,所以个人更愿意理解为——PAXOS是唯一一种保障分布式系统最终一致性的共识算法(所谓共识算法,就是大家都按照这个算法来操作,大家最后的结果一定相同)。PAXOS并没有逃离CAP魔咒,毕竟达成共识是(N/2)+1的节点之间的事,剩下的(N/2)-1的节点上的数据还是旧的,这时候仍然是不一致的,所以PAXOS对一致性的贡献在于经过一次事务后,这个集群里已经有部分节点保有了本次事务正确的结果(共识的结果),这个结果随后会被异步的同步到其他节点上,从而保证最终一致性。以下摘自维基百科[5]:

另外PAXOS不要求对所有节点做实时同步,实质上是考虑到了分区情况下的可用性,通过减少完成一次事务需要的参与者个数,来保障系统的可用性。

4.4.2 OceanBase的CAP分析

上文提到过,单元化架构中的成千山万的应用就像是计算器,本身无CAP限制,其CAP限制和挑战下沉到了数据库层——蚂蚁自研的分布式数据库OceanBase(本节简称OB)[6]。在OB体系中,每个数据库实例都具备读写能力,具体是读是写可以动态配置(参考2.2部分)。实际情况下大部分时候,对于某一类数据(固定用户号段的数据)任意时刻只有一个单元会负责写入某个节点,其他节点要么是实时库间同步,要么是异步数据同步。OB也采用了PAXOS共识协议,实时库间同步的节点(包含自己)个数至少需要(N/2)+1个,这样就可以解决分区容忍性问题。

下面我们举个马老师改英文名的例子来说明OB设计的精妙之处。假设数据库按照用户ID分库分表,马老师的用户ID对应的数据段在[0-9],由A单元负责数据写入,假如马老师(用户ID假设为000)正在用支付宝APP修改自己的英文名,马老师一开始打错了,打成了Jason Ma,马老师看到修改的按钮还可以点击,立马将名字改成了Jack Ma并重新提交。当第一个请求来到A单元时,突然A单元网络断开了(分区产生了),系统执行了预先配置的灾备策略自动将A单元对数据段[0,9]的写入权限转交给B单元(更改映射),这时候第二个请求便来到了B单元。由于在网络断开前请求已经进入了A,写权限转交给单元B生效后,A和B同时对[0,9]数据段进行写入马老师的英文名。假如这时候不做任何的分区容忍性保障即都允许写入的话就会出现不一致,A单元说我看到马老师设置了Jason Ma,B单元说我看到马老师设置了Jack Ma。而在OB中这种情况永远不会发生——当A单元数据库实例向整个系统提议说我建议把马老师的英文名设置为Jason Ma时,发现没人回应它,由于出现了分区,其他节点对它来说都是不可达的,所以这个提议被自动丢弃,A心里也明白是自己分区了,会有主分区替自己完成写入任务的。同样的,当B单元数据库实例提出将马老师的英文名改成Jack Ma后,大部分节点都响应了,所以B成功将Jack Ma写入了马老师的账号记录中。假如在写权限转交给单元B后A突然恢复了,也没关系,两笔写请求同时要求获得(N/2)+1个节点的事务锁,通过no-wait设计,在B获得了锁之后,其他争抢该锁的事务都会因为失败而回滚。

No-wait设计的思想在于当发现所访问的资源出现竞争时,不等待资源释放,而是直接返回失败。

下面我们分析下OB的CAP:

  • 分区容忍性:OB节点之间是有互相通信的(需要相互同步数据),所以存在分区问题,OB通过仅同步到部分节点来保证可用性。这一点就说明OB做了分区容错。
  • 可用性分区容忍性:OB事务只需要同步到(N/2)+1个节点,允许其余的一小半节点分区(宕机、断网等),只要(N/2)+1个节点活着就是可用的。极端情况下,当5个节点分成2:2:1共3个分区时整个系统就确实不可用了,只是这种情况概率比较低。
  • 一致性分区容忍性:分区情况下意味着部分节点失联了,一致性显然是不满足的。但通过共识算法可以保证当下只有一个值是合法的,并且最终会通过节点间的同步达到最终一致性。

所以OB仍然没有逃脱CAP魔咒,产生分区的时候它变成AP+最终一致性(C)。整体来说,它是AP的,即高可用和分区容忍。

5 结语

个人感觉本文涉及到的知识面确实不少,每个点单独展开都可以讨论半天。回到我们紧扣的主旨来看,双十一海量支付背后技术上大快人心的设计到底是啥?我想无非是以下几点:

基于用户分库分表的RZone设计。每个用户群独占一个单元给整个系统的容量带来了爆发式增长。

  • RZone在网络分区或灾备切换时OB的防脑裂设计(PAXOS)。我们知道RZone是单脑的(读写都在一个单元对应的库),而网络分区或者灾备时热切换过程中可能会产生多个脑,OB解决了脑裂情况下的共识问题(PAXOS算法)。
  • 基于CZone的本地(地理上的本地)读设计。这一点保证了很大一部分有着“写读时间差”现象的公共数据能被高速本地访问。
  • 剩下的那一丢丢不能本地访问只能实时远程访问GZone的公共配置数据,也兴不起什么风,作不了什么浪。大部分瓶颈场景都可以通过优化系统设计来解决,比如对于实时库存数据,可以通过“页面展示查询走应用层缓存”+“实际下单时再校验”的方式减少其GZone调用量。

而这就是蚂蚁LDC的CRG架构,理论上TPS数字可以做到更高,但双十一海量支付的成功不单单是这么一套设计所决定的,还有预热削峰等运营+技术的手段,在此感谢阿里巴巴全体技术给大家带来的一年一度的购物盛宴。

感谢大家的阅读,文中可能存在不足或遗漏之处,欢迎批评指正。

本文为个人留档使用,未经允许,不得转载。

6 参考文献

[1] Practice of Cloud System Administration, The: DevOps and SRE Practices for Web Services, Volume 2. Thomas A. Limoncelli, Strata R. Chalup, Christina J. Hogan.

[2] MySQL 5.7半同步复制技术. https://www.cnblogs.com/zero-gg/p/9057092.html

[3] BASE理论分析; https://www.jianshu.com/p/f6157118e54b

[4] Keepalived; https://baike.baidu.com/item/Keepalived/10346758?fr=aladdin

[5] PAXOS; https://en.wikipedia.org/wiki/Paxos_(computer_science)

[6] OceanBase支撑2135亿成交额背后的技术原理; https://www.cnblogs.com/antfin/articles/10299396.html

[7] 三地五中心,蚂蚁金服金融行业安全最高标准技术开放,光缆挖断业务照样用; https://www.sohu.com/a/255067828_114921

[8] 阿里双11技术详解:容量规划+LDC+弹性架构+大促中控等; https://my.oschina.net/u/4383176/blog/4713897

[9] Backup; https://en.wikipedia.org/wiki/Backup

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/81746.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

PCB走线规则

1、线间距。 这里应该遵循3W规则,所谓3W就是为了减少线间串扰,应保证线间距足够大,当线中心不少于3倍线宽,则可 保持70%的电场不互相干扰。如要达到98%的电场不互相干扰,可使用10W的间距。——这是查阅华为PCB布线规则…

npm 清缓存(重新安装node-modules)

安装node依赖包的会出现失败的情况,如下图所示: 此时 提示有些依赖树有冲突,根据提示 “ this command with --force or --legacy-peer-deps” 执行命令即可。 具体步骤如下: 1、先删除本地node-modules包 2、删掉page-loacl…

el-upload 上传附件(拆解步骤)

目录 1. 看elementui /element-plus 官网案例 2. html部分: 把官网上的搬下来,最好加一个按钮,上传到服务器(后端) 3. js 部分: 3.1 首先,先定义一个变量,files 3.2 当上传图片…

机器学习(11)---降维PCA

目录 一、概述1.1 维度1.2 sklearn中的降维算法 二、降维实现原理2.1 PCA与SVD2.2 降维实现2.3 降维过程 三、鸢尾花数据集降维3.1 高维数据的可视化3.2 探索降维后的数据3.3 累积可解释方差贡献率曲线 四、选n_components参数方法4.1 最大似然估计自选超参数4.2 按信息量占比选…

WavJourney:进入音频故事情节生成世界的旅程

推荐:使用 NSDT场景编辑器快速搭建3D应用场景 若要正确查看音频生成的强大功能,请考虑以下方案。我们只需要提供一个简单的指令,描述场景和场景设置,模型就会生成一个扣人心弦的音频脚本,突出与原始指令的最高上下文相…

数组和指针笔试题解析之【数组】

目录 前言: 1.一维数组: 2.字符数组 : 2.1题型一: 2.2题型二: 2.3题型三: 3.二维数组 : 前言: 1.数组名的意义: sizeof(数组名):这里的数组名表示整…

【C++STL基础入门】list的运算符重载和关于list的算法

文章目录 前言一、list运算符1.1 逻辑运算符1.2 赋值运算符 二、list相关算法2.1 查找函数总结 前言 C标准模板库(STL)是一组强大而灵活的工具,用于处理数据结构和算法。其中,std::list是STL中的一个重要容器,它实现了…

小型网络实验组网

路漫漫其修远兮,吾将上下而求索 时隔多日,没有更新,今日一写,倍感教育的乐趣。如果让我每天发无意义的文章,我宁可不发。 实验拓扑 实验要求 (1)内网主机采用DHCP分配IP地址 (2&…

记录本地Nginx发布vue项目

一、前端:vue-cli-service build 二、下载Nginx,并创建目录,放置静态文件 三、在conf目录下nginx.conf文件配置代理服务 server {listen 8787;server_name localhost;location / {root app/dist; #前端dist包地址index index.html…

Tomcat架构设计及组件详解

继Tomcat配置详解(Tomcat配置server.xml详解)Tomcat配置详解(Tomcat配置server.xml详解)_tomcat xml配置https://blog.csdn.net/imwucx/article/details/132166738文章之后,深入的学习tomcat相关知识,对Tom…

基于SSM+Vue的“魅力”繁峙宣传网站

末尾获取源码 开发语言:Java Java开发工具:JDK1.8 后端框架:SSM 前端:采用Vue技术开发 数据库:MySQL5.7和Navicat管理工具结合 服务器:Tomcat8.5 开发软件:IDEA / Eclipse 是否Maven项目&#x…

数据分享|R语言逻辑回归、Naive Bayes贝叶斯、决策树、随机森林算法预测心脏病...

全文链接:http://tecdat.cn/?p23061 这个数据集(查看文末了解数据免费获取方式)可以追溯到1988年,由四个数据库组成。克利夫兰、匈牙利、瑞士和长滩。"目标 "字段是指病人是否有心脏病。它的数值为整数,0无…

无代码和低代码平台:程序员的竞争优势

无代码和低代码平台:程序员的竞争优势 无代码和低代码平台:程序员的竞争优势摘要引言1. 了解无代码和低代码平台1.1 无代码和低代码平台的定义无代码平台低代码平台 1.2 它们如何简化应用程序开发1.3 主要的无代码和低代码工具和供应商无代码平台低代码…

【八大经典排序算法】堆排序

【八大经典排序算法】堆排序 一、概述二、思路解读三、代码实现(大堆为例) 一、概述 堆排序是J.W.J. Williams于1964年提出的。他提出了一种利用堆的数据结构进行排序的算法,并将其称为堆排序。堆排序是基于选择排序的一种改进,通…

蓝牙核心规范(V5.4)10.1-BLE 入门笔记(1)

ble 规范 深入了解蓝牙LE需要熟悉相关的规格。蓝牙LE的架构、程序和协议由一项关键规范完全定义,称为蓝牙核心规范。产品如何使用蓝牙以实现互操作性由两种特殊类型称为配置文件和服务的规范集合所涵盖。图1展示了BLE规范类型及其相互关系。 1.1 蓝牙核心规范 蓝牙核心规范是…

SpringBoot整合Easy-ES实现对ES操作

请确保已有可用的ES&#xff0c;若没有&#xff0c;请移步&#xff1a;Docker安装部署ElasticSearch&#xff08;ES&#xff09; 新建SpringBoot项目 这里是用的springboot版本是2.6.0 引入依赖 <!-- 排除springboot中内置的es依赖,以防和easy-es中的依赖冲突--><…

Redis五大基本数据类型

1、字符串类型 字符串类型相当于 java 中的 String 类型。Redis 中的 String 类型以二进制方式存储&#xff0c;不会做任何的编码转换&#xff0c;因此不仅仅可以存储文本数据、整数、普通的字符串、JSON、xml文件&#xff0c;还可以存储图片、视频、音频。String 存储的种类虽…

插槽指的是什么?插槽的基础用法体验

什么是插槽 插槽(Slot)是 vue 为组件的封装者提供的能力。允许开发者在封装组件时&#xff0c;把不确定的、希望由用户指定的部分定义为插槽。 <template><p>这是MyCom1组件的第1个p标签</p><&#xff01;--通过slot标签&#xff0c;为用户预留内容占位符…

Vue3 Ajax(axios)异步

文章目录 Vue3 Ajax(axios)异步1. 基础1.1 安装Ajax1.2 使用方法1.3 浏览器支持情况 2. GET方法2.1 参数传递2.2 实例 3. POST方法4. 执行多个并发请求5. axios API5.1 传递配置创建请求5.2 请求方法的别名5.3 并发5.4 创建实例5.5 实例方法5.6 请求配置项5.7 响应结构5.8 配置…

jvm的调优工具

1. jps 查看进程信息 2. jstack 查看进程的线程 59560为进程id 产生了死锁就可以jstack查看了 详细用途可以看用途 3. jmap 如何使用dump文件看下 查看 4.jstat 空间占用和次数 5. jconsole可视化工具 各种使用情况&#xff0c;以及死锁检测 6. visualvm可视化工具…