spark SQL优化器catalyst学习

一、Catalyst 概述

  1. Catalyst 是 Spark SQL 的优化器,它负责将 SQL 查询转换为物理执行计划。Catalyst 优化器的目标是生成高效的执行计划,以最小化查询的执行时间。它使用了多种优化技术,包括基于规则的优化、基于代价的优化和动态规划等。
  2. 我们写的SQL语句,会经过一个优化器(catalyst),转化为RDD,交给集群执行。
    select * from table_a
  3. 语法。select * table_a
  4. 词法。selectS * from table_a
  5. AST。abstract syntax tree / 抽象语法树 / 语法树 / syntax tree
    暂时无法在飞书文档外展示此内容
  6. 解析引擎:负责将SQL解析成task。Catalyst的地位类似于Calcite(负责Hive SQL解析优化),Spark SQL独有的Catalyst,解析优化。
  7. MySQL
  8. Hive SQL
  9. Spark SQL
  10. Flink SQL
  11. Doris
  12. Presto
  13. 计算引擎:task是谁来执行。
  14. MySQL
  15. MapReduce
  16. Spark
  17. Tez
  18. Flink
  • Spark on Hive和 Hive on spark的区别?
    • Hive on Spark:Hive是Hive SQL,解析引擎;Spark是计算引擎。
    • Spark on Hive:
      • Hive
        1. 代表是数仓(常见的分层);
        2. 理解:Hive SQL,解析引擎。
      • Spark:代表解析引擎、计算引擎。
      • 含义:通过spark SQL做数仓,层与层的转换。
  • SQL到RDD中间经过了一个Catalyst,它就是SparkSQL的核心,是计对 Spark SQL语句执行过程中的查询优化框架,基于Scala函数式编程结构。
  • RDD的运行流程:RDD->DAGScheduler ->TaskScheduler->worrker,任务会按照代码所示运行,依赖开发者的优化,开发者的会在很大程度上影响运行效率。而SparkSQL的Dataset和SQL并不是直接生成计划交给集群执行,而是经过Catalyst的优化器,这个优化器能够自动帮助开发者优化代码
  • 我们要了解SparkSQL的执行流程,那么理解Catalyst的工作流程是非常有必要的。
    二、 Catalyst 的优化过程
    暂时无法在飞书文档外展示此内容
    Catalyst 的优化过程大致可以分为以下几个阶段:
  1. 解析 ( Parsing ):将 SQL 查询解析为抽象语法树 ( AST )。parser模块目前都是使用第三方类库ANTLR进行实现的。在这个过程汇总,会判断SQL语句是否符合规范,比如select from where等这些关键字是否写对。
    暂时无法在飞书文档外展示此内容
  2. 分析 ( Analysis ):对 AST 进行语义分析,检查查询的合法性和完整性。该模块会遍历整个AST,并对AST上的每个节点进行数据类型绑定以及函数绑定,然后根据源数据信息系catelog对数据表中的字段进行解析,此过程会判断SQL语句的表名,字段名是否真的在元数据库里存在。元数据信息主要包括两部分:表的scheme和基本函数信息。
  3. 表的scheme:
    1. 基本定义。列名,数据类型。
    2. 表的数据格式。json、text
    3. 表的物理位置。
  4. 基本函数
    暂时无法在飞书文档外展示此内容
  5. 优化 ( Optimization ):应用各种优化规则和策略,生成不同的执行计划。主要分为RBO和CBO两种优化策略,其中RBO(Rule-Based Optimizer)是基于规则优化,CBO(Cost-Based Optimizer)是基于代价优化。常见的规则有:
  • 谓词下推predicate Pushdown:将过滤操作下推到join之前进行,之后在进行join的时候,数据量将会显著的减少,join耗时必然降低。
    暂时无法在飞书文档外展示此内容
select*
from table1
inner jointable2
on table1.id = table2.id
where table1.age > 20and table2.cid = 1

上面的语句会自动优化为如下所示:

select*
from 
(select *fromtable1where table1.age > 20
)    a
inner join
(select *fromtable2where table2.cid = 1
)    b
on a.id = b.id

即在资产许那阶段就提前将数据进行过滤,后续的join和shuffle数据量会大大减少。

  • 列值裁剪column pruning:在谓词下推后,可以把表中没有用到的列裁剪掉,这一优化一方面大幅度减少了网络,内存的数据量消耗,另一方面对于劣势存储数据库来说大大提高了扫描效率。
selecta.name,a.age,b.cid
from 
(select *fromtable1where table1.age > 20
)    a
inner join
(select *fromtable2where table2.cid = 1
)    b
on a.id = b.id

上面的语句会自动优化如下图所示:

selecta.name,a.age,b.cid
from 
(select name,agefromtable1where table1.age > 20
)    a
inner join
(select cidfromtable2where table2.cid = 1
)    b
on a.id = b.id

就是提前将需要的列查询出来,其他不需要的列裁剪掉。

  • 常量累加 constant folding:比如计算 x + (100 + 80) -> x + 180,虽然是一个很小的改动,但是意义巨大。如果没有进行优化,每一条结果都需要执行一次100 + 80的操作,然后再与结果相加,优化后就不需要再次执行100 + 80的操作。
select 1 + 1 id
fromtable1

上面的语句会自动优化如下图所示:

select 2 id
fromtable1

就是会提前将1 + 1计算成2,再赋给id列的每行,不用每次都计算一次1+1
4. SparkPlanner模块:

  1. 将优化后的逻辑执行计划(OptimizedLogicalPlan)转换成Physical Plan(物理计划),也就是Spark可以真正的执行的计划。比如join算子,Spark根据不同常见为该算子制定了不同的算法策略,有BroadCastHashJoin,ShuffleHashJoin以及SortMergeJoin等,物理执行假话实际上就是在这些具体实现中挑选一个耗时最小的算法实现。
  2. 具体的实现手段:
    1. SparkPlanner对优化后的逻辑计划进行换算,是生成了多个可以执行的物理计划Physical Plan;接着CBO(基于代价优化)优化策略或根据Cost Model算出每个Physical Plan的代价,并选取最小代价的Physical Plan作最终的Physical Plan。
    2. CostmModel模块:主要根据过去的性能统计数据,选择最佳的物理执行计划,这个过程的优化就是CBO(基于代价优化)
    备注:以上2、3、4步骤结合起来,就是catalyst优化器。
  3. 执行物理计划:最后一句最优的物理执行计划,生成Java字节码,将SQL转化为DAG,以RDD的形式进行操作
  4. 选择 ( Selection ):根据代价模型选择最优的执行计划。
  5. 代码生成 ( Code Generation ):将优化后的执行计划转换为 Spark 代码。
    三、 Catalyst 的优化规则
    Catalyst 提供了许多优化规则,用于改进查询的执行计划。以下是一些常见的优化规则:
  6. 列剪枝 ( Column Pruning ):删除不必要的列,减少数据传输。
  7. 分区剪枝 ( Partition Pruning ):根据分区过滤条件,只读取必要的分区。
  8. 谓词下推 ( Predicate Pushdown ):将过滤条件尽可能地向下推送到数据源,减少数据的读取量。
  9. 聚合优化 ( Aggregation Optimization ):合并相同的聚合操作,避免重复计算。
  10. 连接优化 ( Join Optimization ):选择合适的连接算法,优化连接操作。
    四、 Catalyst 的代价模型
    Catalyst 采用了基于规则的代价模型来评估执行计划的代价。代价模型考虑了以下因素:
  11. 数据量 ( Data Volume ):表的数据大小和分区数。
  12. 计算资源 ( Compute Resources ):CPU、内存和网络带宽等。
  13. I/O 开销 ( I/O Overhead ):数据读取和写入的开销。
  14. 数据倾斜 ( Data Skew ):数据分布不均衡导致的性能问题。
    五、 Catalyst 的代码生成
    Catalyst 将优化后的执行计划转换为 Spark 代码,包括RDD操作和SQL表达式。代码生成过程使用了模板和宏来实现代码的重用和简洁性。
    六、总结
    Spark SQL 的 Catalyst 优化器是一个强大而灵活的优化框架,它采用了多种优化技术和策略,以生成高效的执行计划。了解 Catalyst 的优化过程和规则,可以帮助我们更好地编写高效的 Spark SQL 查询。

以上是一个关于 Spark SQL 优化器 Catalyst 的学习文档,希望对你有所帮助。如果你有任何问题或建议,请随时与我交流。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/20677.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Dijkstra求最短路篇二(全网最详细讲解两种方法,适合小白)(python,其他语言也适用)

前言: Dijkstra算法博客讲解分为两篇讲解,这两篇博客对所有有难点的问题都会讲解,小白也能很好理解。看完这两篇博客后保证收获满满。 第一篇博客讲解朴素Dijkstra算法Dijkstra求最短路篇一(全网最详细讲解两种方法,适合小白)(p…

openstack 中如何检查VLAN 配置: 确保正确配置了两个 VLAN,并且两个 VLAN 之间进行了正确的路由。

在 OpenStack 中检查 VLAN 配置并确保两个 VLAN 之间进行了正确的路由,可以按照以下步骤进行操作: 查看网络配置: 登录到 OpenStack 控制节点上的命令行界面。使用 neutron net-list 命令查看当前存在的网络列表。找到与你关注的 VLAN 相关的…

计网ppt标黄知识点整理第(2)章节——谢希仁版本、期末复习自用

物理层考虑的是怎样才能在连接各种计算机的传输媒体上传输数据比特流,而不是指具体的传输媒体。4 个特性: 机械特性:指明接口所用接线器的形状和尺寸、引线数目和排列、固定和锁定装置等。 电气特性:指明在接口电缆的各条线上出现…

如何在 JS 中快速读取文件

本文翻译自 How to read files quickly in JavaScript,作者:Daniel Lemire, 略有删改。 假设你需要在服务器上使用JavaScript读取多个文件。在像Node.js这样的运行时环境中,JavaScript有多种读取文件的方式。哪一种是最好的呢&…

Linux软件安装包rpm与tgz格式的区别

rpm与tgz的区别 1、Linux软件包的内容分类2、Linux软件包的格式分类 1、Linux软件包的内容分类 Linux应用程序的软件包按内容类别可分为两类: 可执行文件(编译后的二进制软件包) 解包后可以直接运行,看不到源代码。例如&#xff0…

基于Springboot驾校预约平台小程序的设计与实现(源码+数据库+文档)

一.项目介绍 系统角色:管理员、教练、学员 小程序(仅限于学员注册、登录): 查看管理员发布的公告信息 查看管理员发布的驾校信息 查看所有教练信息、预约(需教练审核)、评论、收藏喜欢的教练 查看管理员发布的考试信息、预约考试(需管理…

代码随想录算法训练营Day8|541. 反转字符串II、替换数字、151.翻转字符串里的单词、卡码网:55.右旋转字符串

541. 反转字符串II 1.这道题刚开始把题意理解错了,以为对于任意长度的字符串都只反转[0,k-1]以及[2k,3k-1]区间的值。 2.但实际上是要把一个字符串分成若干长度为2k的小区间,反转前[0,k-1]的字符串,[k,2k-1]保持不变; 3.如果有一个区间字符串…

2024年东北师范CCPC

文章目录 A.Paper WateringB.nIM gAMEE.Checksum A.Paper Watering 思路:题目说有平方和开方两种操作,如果这个数是平方数,那么它开方之后就只能开方,如果平方的话就重复了,反之就有开方和平方两种操作。 代码如下 //…

为了方便看公众号文章,我搭建了个博客,在线看公众号所有历史文章,想看哪天的文章一秒就能找到

公众号没有个网页版的文章列表,只能在电脑和手机客户端看,想看之前的历史文章只能一直往下拉,想找某篇文章非常费劲。 为了方便看公众号文章,我搭建了个博客,博客地址https://sushengbuhuo.github.io/blog &#xf…

通过 SFP 接口实现千兆光纤以太网通信1

基于米联客ARTIX-7 系列开发板及其开发手册。 总体实现框图如下: SFP 接口 SFP 信号定义如下图所示。 Tri Mode Ethernet MAC 设置 由于使用千兆通讯,因此将速率设为 1Gbps。如下图所示。 首先,由于该 IP 需要与 IP 核 1G/2.5G Ethernet …

基于IoTDB 平台的学习和研究

Apache IoTDB(物联网数据库)是一个针对物联网领域的高性能原生数据库,适用于数据管理和分析,并可在边缘计算和云端部署。由于它轻量级的架构、高性能和丰富的功能集,以及与Apache Hadoop、Spark和Flink的深度集成&…

【面试】生成class文件的编译器有哪些?

目录 1. 说明2. javac3. IDE(集成开发环境)中的编译器3.1 Eclipse编译器3.2 IntelliJ IDEA编译器 1. 说明 1.javac和IDE中的编译器是最常用的和主要的。2.这些编译器都能够将Java源代码编译为可在JVM上执行的字节码文件,是实现Java跨平台特性的关键。3.选择编译器时…

数据管理知识体系必知的14张语境关系图

近期对数据管理知识体系中的语境关系图进行了整体学习梳理,总共有14张图,具体如下,供大家参考。应该说语境关系图和环境因素六边形图是各有侧重、互为补充关系。语境关系图是环境因素六边形图的细化,描述了每个知识领域中的细节,相当于数据管理的微观视角, 包括与人员、 …

kali中切换python版本

kali中切换python版本 在日常使用的过程中,可以通过一些工具来做打靶环境,或者工具的启动,都和python关联,而有时存在工具安装,或者运行的时候出现报错,这时候极大可能是因为我们本地的kali中python的版本不…

Android Studio | 小白如何运行别人的安卓项目

目录 Step1:正确地打开项目 Step2:AS 同步时报错 Step3:同步完成后启动 Step4:启动成功 说明:本文简称 Android Studio 为 AS Step1:正确地打开项目 重点:确认好项目的根目录是哪个目录&am…

进程与线程(三)

进程与线程(三) 进程间通信传统间的进程间通信机制无名管道无名管道的特征无名管道的创建父子进程通信测试管道的大小管道读写易出现的问题 有名管道创建有名管道有名管道的写端代码有名管道的读端代码 信号信号的特征产生信号硬件来源软件来源发送信号的…

Linux chmod 命令

Linux chmod 命令 在 Linux 操作系统中,chmod 命令是非常重要的。它可以用于修改文件和目录的访问权限,以及控制用户对系统资源的访问。在这篇博客中,我们将深入探讨 chmod 命令的使用方法,以及如何使用它来管理文件和目录的访问…

什么是主码,什么是候选码,主码的候选码的区别是什么

目录 一、候选码 (Candidate Key) 1.定义 2.特点 二、主码 (Primary Key) 1.定义 2.特点 三、关系和区别 1.关系 2.区别 一、候选码 (Candidate Key) 1.定义 候选码是能够唯一标识数据库表中每一条记录的属性集合。一个表可以有一个或多个候选码。 2.特点 每个候选…

【U-Boot 源码深度解析】000 - 文章链接汇总

【U-Boot 源码深度解析】000 - 文章链接汇总 下载链接 https://ftp.denx.de/pub/u-boot/ 《【U-Boot 源码深度解析】001 - Ubuntu 24.04 虚拟机 及 基础环境搭建》

ORACLE RAC的一些基本理论知识

一 . Oracle RAC 的发展历程 1. Oracle Parallel Server (OPS) 早期阶段:Oracle 6 和 7 Oracle Parallel Server(OPS)是 Oracle RAC 的前身。 通过多个实例并行访问同一个数据库来提高性能。 共享磁盘架构,利用分布式锁管理&am…