阿里云数据库开源发布:PolarDB HTAP的功能特性和关键技术

简介:在3月2日的阿里云开源 PolarDB 企业级架构发布会上,阿里云 PolarDB 内核技术专家严华带来了主题为《PolarDB HTAP详解》的精彩演讲。在PolarDB存储计算分离架构的基础上,我们研发了基于共享存储的MPP分布式执行引擎,解决了单条SQL执行时无法利用其它节点计算资源、无法发挥共享存储池的IO大带宽的问题,同时提供了弹性计算,弹性扩展的保障,使得PolarDB初步具备了 HTAP 的能力。本议题主要介绍PolarDB HTAP的功能特性和关键技术。

在3月2日的阿里云开源 PolarDB 企业级架构发布会上,阿里云 PolarDB 内核技术专家严华带来了主题为《PolarDB HTAP详解》的精彩演讲。在PolarDB存储计算分离架构的基础上,我们研发了基于共享存储的MPP分布式执行引擎,解决了单条SQL执行时无法利用其它节点计算资源、无法发挥共享存储池的IO大带宽的问题,同时提供了弹性计算,弹性扩展的保障,使得PolarDB初步具备了 HTAP 的能力。本议题主要介绍PolarDB HTAP的功能特性和关键技术。

直播回顾视频:开源PolarDB企业级架构重磅发布-阿里云
PDF下载: 文件下载-阿里云开发者社区

以下根据发布会演讲视频内容整理:

一、背景

很多PolarDB 的用户都有 TP 和 AP 共用的需求,他们白天使用 PolarDB处理高并发的 TP 请求,晚上 TP 流量下降、机器空闲后继续使用 PolarDB 进行 AP 的报表分析。但是,即使这样,依然没有最大化利用空闲机器资源。

因为原生的 PolarDB PG 系统在处理复杂的 AP 查询时会遇到两大挑战:首先,单个 SQL 在原生 PG 执行引擎下只能在单个节点上执行,无论是单机串行还是单机并行,都无法利用其他节点的 CPU memory 等计算资源,只能纵向 Scale Up,不能横向 Scale Out ;其次,PolarDB 底层是存储池,理论上 IO 吞吐是无限大的。而单个 SQL 在原生 PG 执行引擎下只能在单个节点上执行,受限于单个节点的 CPU 和 memory 的瓶颈,无法充分发挥存储侧大 IO 带宽的优势。

为了解决用户实际使用中的痛点,PolarDB 决定做 HTAP。 当前业界HTAP的解决方案主要有以下三种:

① TP 和 AP 在存储计算上都分离,能够实现TP和AP完全隔离,互不影响。但实际使用中会存在一些问题。首先,TP的数据需要导入到AP系统中,会存在一定的延迟,导致时效性不高;其次需要增加冗余的 AP 系统,总成本也会增加;第三,增加了一套 AP 系统后,运维难度也会增加。

② TP 和 AP 在存储计算上都共享,这样可以做到成本最小化,资源利用最大化,但仍然存在两点问题。首先,由于计算共享, AP 查询和 TP 查询同时运行时或多或少会存在相互影响;其次,当 AP 查询比重增大时,系统需要扩计算节点存储,因此需要重分布,导致无法快速弹性Scale Out。

③ TP 和 AP 在存储上共享,在计算上分离。PolarDB 是存储计算分离架构,因此天然支持此方案。

二、原理

基于 PolarDB 存储计算分离的架构。我们研发了分布式 MPP 执行引擎,提供了跨机并行执行、弹性计算弹性扩展的保证,使得 PolarDB 初步具备了 HTAP 的能力。

上图右是 PolarDB HTAP 的架构图。底层是池化了的共享存储,TP 和 AP 共享一套存储数据,在降低成本的同时能提供毫秒级的数据新鲜度,还提供了快速扩容计算节点的能力,这也是 PolarDB HTAP 第一个特性。

上层是读写分离的计算节点。PolarDB 具备两套执行引擎来处理 HTAP 查询,其中单机执行引擎在读写节点上进行处理高并发的 TP 查询,分布式 MPP 执行引擎在只读节点上处理复杂的 AP 查询,TP和 AP 的查询天然进行了物理隔离,解耦了 TP 和 AP 的计算环境,杜绝了 CPU 和 memory 的相互影响,这是 PolarDB HTAP 的第二大特性:TP/AP物理隔离 。

PolarDB HTAP 的第三大特性是 Serverless 弹性扩展,消除了传统 MPP 数据库 coordinate 的单点限制,可以在任何一个只读节点上发起 MPP,可以弹性调整 MPP 节点范围以及单机并行度,同时支持 Scale Out、Scale Up 。此处的弹性调整是及时生效的,并不需要进行数据重分布。

消除倾斜是 PolarDB HTAP 的第四大特性。PolarDB HTAP 在充分考虑 PG BufferPool 亲和性的基础上,能够消除数据倾斜和计算倾斜,实现能者多劳的调度。

PolarDB HTAP 原理的核心是分布式 MPP 执行引擎,它是典型的火山引擎。 AB 两张表先做 join 再做聚合输出,这也是 PG 单机执行引擎的执行流程。

在传统的 MPP 执行引擎中,数据被打散到不同的节点上,不同节点上的数据可能具有不同的分布属性,比如哈希分布、随机分布、复制表分布等。传统的 MPP 执行引擎会针对不同表的数据分布特点,在计划中插入算子来保证上层算子对数据的分布特征无感知。

PolarDB 是共享存储架构,底层共享的数据可以被各个计算节点全量访问。如果使用传统的 MPP 执行引擎,每个 Worker 都会扫描全量数据,会产生重复的数据,同时也没有起到扫描时分治加速的效果,并不算真正意义上的 MPP 引擎。

因此,在在 PolarDB 分布式 MPP 执行引擎中,我们借鉴了火山模型论文的思想,对所有扫描算子进行并发处理,引入了PxScan算子来屏蔽共享存储。PxScan算子将 share-storage 的数据映射为 share-nothing 的数据,通过 Worker之间的协调,将目标表划分为多个虚拟分区数据块,每个 Worker 扫描各自虚拟分区数据块,从而实现了跨机分布式并行scan。

PxScan算子扫描出来的数据会通过 shuffle 算子来重分布,再在每个 Worker 上如同执行单机一样,按照火山模型来执行。

以上就是PolarDB 分布式 MPP 执行引擎的核心:shuffle 算子屏蔽数据分布,PxScan 算子屏蔽共享存储。

传统 MPP 只能在指定节点发起 MPP 查询,因此每个节点上都只能有单个 Worker 扫描一张表。为了支持云原生下 serverless弹性扩展的需求,我们引入了分布式事务一致性保证。

首先,任意选择一个节点作为 coordinator节点,它的 ReadLSN 会作为约定的 LSN,从所有 MPP 节点的快照版本号中选择最小的版本号作为全局约定的快照版本号。通过 LSN 的等待回放和 Global Snaphot 同步机制,确保在任何一个节点发起 MPP 查询时,数据和快照均能达到一致可用的状态。

为了达到 serverless 的弹性扩展,我们还基于共享存储的特点,将 coordinator节点全链路上各个模块需要的外部依赖都放至共享存储上。各个 Worker 节点运行时需要的参数也会通过控制链路从 coordinator 节点同步过来,从而使 coordinator 节点和 Worker 节点全链路无状态化。

基于以上两点设计,PolarDB的弹性扩展具备了以下几大优势:

① 任何节点都可以成为coordinator 节点,解决了传统 MPP 数据库 coordinator 的节点单点问题。

② PolarDB 可以横向 Scale Out (算力弹性扩展),也可以纵向 Scale Up (单机并行度弹性扩展),并且弹性扩展是及时生效的,不需要重分布数据。

③ 允许业务有更多的弹性调度策略,不同的业务阈可以运行在不同的节点集合上。如上图右侧所示,业务域 SQL 1 可以选择 RO1 和 RO2 节点来执行 AP 查询,业务域 SQL 2 可以选择使用RO3 和 RO4 节点来执行 AP 查询。两个业务域使用的计算节点可以实现弹性调度。

倾斜是传统 MPP 固有的问题,其原因主要是数据分布倾斜和数据计算倾斜。数据分布倾斜通常由数据打散不均衡导致,在 PG 中还会由于大对象 toast 表存储引入一些不可避免的数据分布不均衡问题;计算倾斜通常由于不同节点上并发的事务、 buffer 、网络、 IO 抖动导致。倾斜会导致传统 MPP 在执行时的木桶效应。

PolarDB 设计实现了自适应扫描机制。如上图右所示,采用coordinator节点来协调Worker节点询问的工作模式。在扫描数据时,coordinator节点会在内存中创建一个任务管理器,根据扫描任务对 Worker 节点进行调度。coordinator节点内部分为两个线程,data线程主要负责服务数据链路、收集汇总元组,control线程负责服务控制链路、控制每一个扫描算子的扫描进度。

扫描块的 Worker 能够扫描多个数据块,实现能者多劳。比如上图中 RO1 与RO3 的 Worker 都各自扫描了4个数据块, ROI2由于计算倾斜可以扫描更多数据块,因此它最终扫描了 6 个数据块。

PolarDB 自适应扫描机制还考虑了 PG BufferPool 的亲和性,保证每个 Worker 尽量扫描固定的数据块,从而最大化命中BufferPool中的缓存,降低 IO 开销。

三、功能特性

经过持续迭代的研发,目前 PolarDB HTAP 在支持 Parallel Query 上支持的功能特性主要有五大部分:

① 基础算子全支持。不仅包括 scan 类算子、Join类、聚合类,还包括 SubqueryScan、HashJoin 等。

② 共享存储算子优化。包括 shuffle 算子共享、ShareSeqScan 共享、 ShareIndexScan等。其中ShareSeqScan 共享、 ShareIndexScan共享是指在大表 join 小表时,小表采用类似于复制表的机制来减少广播开销,进而提升性能。

③ 分区表支持。不仅包括对Hash/Range/List三种分区方式的完整支持,还包括对多级分区静态裁剪、分区动态裁剪的支持。除此之外,PolarDB 分布式 MPP 执行引擎还支持分区表的Partition Wise Join。

④ 并行度弹性控制。包括全局级别、表级别、会话级别、查询级别的并行度控制。

⑤ Serverless 弹性扩展。不仅包括任意节点发起 MPP、MPP 节点范围内的任意组合,还包括集群拓扑信息的自动维护,以及支持共享存储模式、主备库模式、三节点模式。

既然是 HTAP ,则必然不能缺少对 DML 的 MPP 支持。基于 PolarDB读写分离架构和 HTAP serverless 弹性扩展的设计, PolarDB parallel DML支持一写多读、多写多读两种特性。一写多读是指在 RO节点上有多个读 Worker ,但在 RW节点上只有一个写 Worker ;多写多读是指在 RO 节点上有多个读 Worker ,在 RW节点上也有多个写 Worker 。多写多读场景下,读的并发度和写的并发度是完全解耦的。不同的特性适用不同的场景,用户可以根据自己的业务特点来选择不同的PDML功能特性。

PolarDB 分布式 MPP执行引擎,不仅可以用于 query 和 DML ,还可以用于索引构建加速。ALTP业务中有大量的索引,而索引创建过程大约有 80% 的时间消耗在排序和构建索引页上,20%消耗在写索引页上。如右上图, PolarDB 利用 RO 节点进行数据分布式 MPP 加速排序,采用流程化的技术来构建索引页,采用批量写入技术来提高索引页的写入速度。

目前构建索引加速这一特性中,PolarDB 已经对常用 B 树索引的普通创建以及 B 树索引的在线创建两种功能进行了支持。

通过上图与PolarDB原生的单机并行进行对比,可以看出分布式MPP的优势所在。我们使用线上 PolarDB 16g 和 256g 内存的 16 个 RO 实例,搭建了 1 TB 的 TPCH 环境进行测试对比。相比单机并行,分布式 MPP 并行充分利用了所有 RO 节点的计算资源和底层共享存储 RO 带宽,从根本上解决了前文提到的 HTAP 挑战。在 TPCH 22 条 SQL 中,有 3 条 SQL 加速了 60 多倍,19条 SQL 加速了 10 多倍,平均加速 23 倍。此外,我们也测试了弹性扩大给计算资源带来的变化。通过增加 CPU 总核数,从 16 核增加到 128 核, TPCH 的总运营时间线性提升,每一个 SQL 也呈线性提升,这也验证了 PolarDB HTAP serverless 弹性扩展的特性。

测试中发现,当 CPU 的总核数增加到 256 核时,性能提升并不大。原因是此时 PolarDB 共享存储的 IO 带宽已经打满,成为了瓶颈。这也从侧面说明了 PolarDB 分布式 MPP 执行引擎的计算能力是非常强的。

此外,我们将 PolarDB 的分布式 MPP 与传统数据库的 MPP 进行了对比,同样使用 16g 和 256g 内存的 16 个节点。 1 TB 的 TPCH 数据在保持与传统 MPP 数据库相同的单机并行度为 1 的情况下,PolarDB的性能是传统 MPP 数据库的90%。其中最本质的原因是传统 MPP 数据库的分布默认是哈希分布,当两张表的joinkey 是各自的分布键时,可以不用 shuffle 直接进行 Local Wise Join 。而 PolarDB 底层是共享存储池, PxScan 并行扫描出来的数据等价于随机分布,必须 shuffle 重分布后才能像传统 MPP 数据库一样进行后续的处理。因此, TPCH 涉及到表join时, PolarDB 相比传统 MPP 数据库多了一次网络 shuffle 的开销。

PolarDB分布式 MPP 能够进行弹性扩展,数据不需要重分布。因此在这有限的 16 台机器上执行 MPP 时,PolarDB 还可以继续扩展单机并行度,充分利用机器的资源;当 PolarDB的单机并行度为 8 时,它的性能是传统 MPP 数据库的 5-6 倍;当 PolarDB单机并行度呈线性增加时,PolarDB总的性能也呈线性增加,只需要修改配置参数,即可及时生效。

针对PolarDB HTAP 对构建索引加速特性的支持,我们也进行了性能测试。在 500 GB 的数据量下,当索引的字段有1、2、4个时,分布式 MPP 并行相比单机并行构建索引性能提升了5倍左右;当构建索引的字段增加到8个时,性能提升了4倍左右。

原文链接

本文为阿里云原创内容,未经允许不得转载。 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/511278.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

倒计时 2 天!2022 中国算力大会:移动云邀您共见算力网络,创新发展

7 月 29 日 - 31 日由工业和信息化部、山东省人民政府主办的首届中国算力大会将在泉城济南盛大举行!中国移动受邀承办“算力网络,创新发展” 论坛并设立展区分享行业前瞻洞察,构建开放共赢生态7 月 29 日下午,邀您共话算力精彩&am…

什么是好的错误消息? 讨论一下Java系统中的错误码设计

简介:一个好的Error Message主要包含三个部分:Context: 什么导致了错误?发生错误的时候代码想做什么?The error itself: 到底是什么导致了失败?具体的原因和当时的数据是什么?Mitigation: 有什么解决方案来…

阿里巴巴在开源压测工具 JMeter 上的实践和优化

简介:Apache JMeter 是 Apach 旗下的开源压测工具,创建于 1999 年初,迄今已有超过 20 年历史。JMeter 功能丰富,社区(用户群体)庞大,是主流开源压测工具之一。 作者:灵苒、涧泉 Ap…

普洛斯荣获两项“数据中心绿色等级评估”5A级认证

7月29日,由工业和信息化部及山东省人民政府主办的首届中国算力大会在济南成功举办,会上同时公布了本年度“数据中心绿色等级评估”评审结果。普洛斯常熟东南数据中心B栋及普洛斯怀来数据中心3号楼均荣获“数据中心绿色等级评估”(规划类/基础…

深度解读企业云上办公利器「无影云电脑」

简介:信息化进程高速发展的今天,用户桌面办公的需求正不断发生变化:远程办公,BYOD的需求不断增长;快速交付,高效运维的需求接连上升;数据及网络安全的关注度持续提高;整体办公成本在…

云风:不加班、不炫技,把复杂的问题简单化

小学时跟随母亲去成人大学学习编程,初中开始参加信息学奥赛,高中写出人生中第一个成熟软件——Cview,大学发布开源软件风魂系列,后用于网易开发的《大话西游》《梦幻西游》等热门游戏,离开网易创立简悦科技……随着云风…

Timing:在线自习室快速搭建

通过超低延迟的音视频通信技术、视频连麦、弱网传输算法,快速搭建自习场景,提升自习效率。 客户简介 氪细胞主打产品Timing,是国内最早推出,也是规模最大的在线自习室,是新一代的教育与社交融合平台,主打高…

Nacos2.0的K8s服务发现生态应用及规划

简介:Nacos 是阿里巴巴于 2018 年开源的注册中心及配置中心产品,帮助用户的分布式微服务应用进行服务发现和配置管理功能。随着 Nacos2.0 版本的发布,在性能和扩展性上取得较大突破后,社区开始考虑如何提供更加云原生方向的功能和…

webview 和 React Native 中吸顶效果实现

作者 | 👽来源 | Sharing一、前言 在跨端开发中,离不开一些吸顶的交互场景,可以参考淘宝或是京东类电商 app 中一些 tab ,在整个容器滑动的过程中,吸顶效果非常的连贯和丝滑的,当然这些 tab 可能是用 nativ…

AHPA:开启 Kubernetes 弹性预测之门

简介:阿里巴巴云原生团队和阿里达摩院决策智能时序团队合作开发 AHPA 弹性预测产品,该产品主要出发点是基于检测到的周期做“定时规划”,通过规划实现提前扩容的目的,在保证业务稳定的情况下,让你真正实现按需使用。 …

Kubernetes 在科技革命中的演变

作者 | Anthony Spiteri仅在一两年前,对于那些希望通过向现代数据平台转型走在前沿的企业来讲,容器化可是热门词汇。Kubernetes,也被称为 K8s,当时还不成熟,仅处于起步阶段,对更广泛的IT界来说仍然有些陌生…

在阿里巴巴,我们如何先于用户发现和定位 Kubernetes 集群问题?

简介:本文整理自阿里云高级研发工程师彭南光(光南) 在 KubeCon China 2021 大会的演讲实录,分享了阿里巴巴是如何通过自研通用链路探测定向巡检工具 KubeProbe 应对大规模集群的稳定性挑战的。关于阿里云云原生团队在本次 KubeCon 上分享的全部内容沉淀于…

“虎力全开”采购季,存储产品已就位

简介:两百多年前,有个叫吴锡麒的少年,在“江南三月听莺天,买酒莫论钱”。如今又逢暮春三月,一年一度的开年大促——阿里云上云采购季也拉开了序幕。 两百多年前,有个叫吴锡麒的少年,在“江南三月…

武汉高性能计算大会2022举办,高性能计算生态发展再添新动力

武汉高性能计算大会2022会上,华为重磅发布了鲲鹏高性能计算解决方案,为了进一步推进高性能产业的生态繁荣,武汉高性能计算产业联盟成立启动,长江欧拉生态创新中心签约并揭牌,首批鲲鹏科研创新使能计划成员也正式亮相。…

学信网:研究生云复试平台快速搭建上线

通过覆盖全球的音视频通信服务,支撑学信网视频面试稳定运行和效率提升。 案例简介 研究生复试工作碰到疫情,各大院校先后发布复试流程调整通知,将复试工作从线下搬到了线上,这也是历史上的第一次。要在短期内完成视频面试系统的…

企业深入使用微服务后会面临哪些问题?云原生全链路灰度给了新思路

简介:如何落地可灰度、可观测、可回滚的安全生产三板斧能力,满足业务高速发展情况下快速迭代和小心验证的诉求,是企业在微服务化深入过程中必须要面对的问题。在云原生流行的当下,这个问题又有了一些新的思路与解法。 作者&#…

40 张图 详解 Docker 容器监控

作者 | 飞向星的客机来源 | CSDN博客前言在企业中,通常业务是不允许随意停止的,否则将给企业带来巨大的经济损失。运维工程师要保证业务正常运行,就必须利用工具时刻监控业务的运行状态,容器中的业务也不例外。除了容器自身的监控…

Spring Cloud Gateway 突发高危漏洞,下一代云原生网关恰逢其时?

简介:Log4j2 的漏洞刚告一段落,Spring 官方在 2022 年 3 月 1 日发布了 Spring Cloud Gateway 的两个 CVE 漏洞:分别为 CVE-2022-22946(严重性:Medium)与 CVE-2022-22947(代码注入漏洞&#xff…

云小蜜 Dubbo3.0 实践:从微服务迁移上云到流量治理

简介:阿里云-达摩院-云小蜜对话机器人产品基于深度机器学习技术、自然语言理解技术和对话管理技术,为企业提供多引擎、多渠道、多模态的对话机器人服务。17 年云小蜜对话机器人在公共云开始公测,同期在混合云场景也不断拓展。为了同时保证公共…

解析并执行 shell 命令

‍‍作者 | 闪客来源 | 低并发编程新建一个非常简单的 info.txt 文件。name:flash age:28 language:java在命令行输入一条十分简单的命令。[rootlinux0.11] cat info.txt | wc -l 3这条命令的意思是读取刚刚的 info.txt 文件,输出它的行数。 在上一回中,…