Flink-串讲面试题

1. 概念

 

有状态的流式计算框架

可以处理源源不断的实时数据,数据以event为单位,就是一条数据。

2. 开发流程

先获取执行环境env,然后添加source数据源,转换成datastream,然后使用各种算子进行计算,使用sink算子指定输出的目的地,最后调用execute方法执行。

3. flink运行模式

  1. standalone
  2. yarn
  3. k8s

4. flink部署模式(yarn)

  1. session
    1. 先启动集群,再提交job到集群
  2. per-job
    1. 一个job启动一个集群
  3. aplication
    1. 一个job启动一个集群

per-job和application区别:

  • 提交代码位置不一样,单作业模式的main方法在客户端执行,应用模式的main方法在JobManager执行

应用模式是生产上主要提交模式,单作业模式和应用模式都是一个job启动一个集群,所以可以做到资源隔离,而会话模式是多个job分享一个集群,适合小作业共享。

5. 运行时架构

  1. Client
    1. 解析代码,提交作业
  2. JobManager

    1. 管理节点,任务切分分配

    2. dispatcher:将job传递给Jobmaster

    3. resourManager:申请资源

    4. JobMaster:切分任务

    5. Checkpointcoordinator:向数据源注入barrier

  3. TaskManager

    1. 执行任务计算 

    2. 资源最小单位slot ,算子就是我们task任务

6. 基本概念

6.1.task和subtask区别?

一个算子(map,filter,flatmap)就是一个task

算子并行子任务就是subtask 

6.2 task和slot的关系

一个task的子任务不能在一个slot中执行

一个slot中可以执行不同算子的subtask

6.3 并行度的优先级

算子 > 全局env  > 提交命令行  >   配置文件

6.4 算子链路的合并

多个subtask组成一个大的subtask

条件:

  1. 前后算子的并行度一致
  2. forward(数据分区规则)
  3. subtask必须在一个共享槽(.slotSharingGroup("default"), 在一个slot槽中执行)

算子合并优点和缺点 ?

  1. 优点
    1. 节省数据传输IO
  2. 缺点
    1. 如果有subtask计算逻辑复杂会有抢占资源问题

如何禁用算子链?

env.disableOperatorChaining()

如何设置不同的共享槽?

.slotSharingGroup("aa")

6.5 流图转化

产生发送做了什么事情
StreamGraphClientClient代码解析
JobGraphClientJM算子链的合并
ExecutionGraphJMTM并行子任务显示
物理执行图

6.6 per-job模式提交作业流程

  1. 客户端提交代码,解析参数 生成StreamGraph
  2. 由StreamGraph生成jobGraph,主要是做了算子链合并
  3. 封装参数 提交给集群yarn 的RM
  4. yarn找一个NM,启动JM
  5. 启动dispatcher,RM,Jobmaster,生成executionGraph
  6. 向JM的RM申请资源,然后去找Yarn的RM申请资源,创建TM启动slot 
  7. 注册slot,分配任务

7. API

7.1 source

kafkasource(算子状态,保存offset) 

7.2 transform

  1. 单流:map,flatmap,filter
  2. keyby :sum, min, max ,reduce 
  3. 侧输出流
  4. 物理分流算子:shuffle,forwawrd,rebalance(默认),rescale
  5. union(类型要求一致)  connect(可以不一致)

7.3 sink

kafkasink,dorissink, jdbcsink, filesink 

7.4 join

  1. API
    1. windowjoin
    2. interval join :两条实时流去根据范围关联,如果一些迟到特别久的数据关联不上
  2. SQL
    1. 常规join(比如left join ,支持回撤流)
    2. lookupjoin:读取外部系统数据,可以缓存, 适用于数据量小,而且基本不变化的表(比如字典表)
    3. interval join
    4. window tvf函数 :累积函数,滚动,滑动

8. 时间语义

  1. 事件时间:业务数据推动,获取数据中时间戳,推进时间
  2. 处理时间:获取操作系统时间
  3. 摄入时间:数据进入到flink集群的系统时间
  • 共同点
    • 时间不能倒退,单调递增 
  • 区分
    • (处理时间)速度稳定,不能停滞 
    • (事件时间)速度不稳定,可能会停滞

9. WaterMark

9.1 你对watermakr的理解

逻辑时钟,单调递增,解决乱序迟到问题

9.2 水位线传递

  • 一对多:广播水位线
  • 多对一:取最小
  • 多对多:先广播,再取最小

场景题:上游算子发生数据倾斜,某一个subtask没有数据,水位线无法抬升怎么办?

解决办法:
            调用withIdleness()方法,如果某一个subtask没有数据,超过了空闲等待时间,那么放弃使用这个subtask的水位线。

9.3 迟到数据问题如何解决?

  1. 设置乱序时间:针对于迟到时间短的数据
  2. 窗口延迟关闭:迟到中级
  3. 侧输出流:迟到特别长

9.4 水位线注入规则

当前最大时间戳 - 乱序时间  - 1ms

10. 窗口

概念:无界流切分为有界流, 集合中是一个个的桶

10.1 分类

  1. 滑动
  2. 滚动
  3. 会话:按照时间间隔划分窗口

10.2 四大组成

  1. assigner:分配器
  2. trigger :触发窗口计算
  3. evictor:驱逐器,清除窗口数据
  4. 聚合逻辑:增量聚合, 全量聚合(reduce    aggregate)

场景问题:表的字段有mid  timestamp  price   ,要求算当前累积GMV, 5分钟输出一次

解决方案:

  1. 第1种方案:windowtvf函数 Cumulate Windows
  2. 第2种方案:用滚动窗口 1天  ,实现ContinuousEventTimeTrigger,自定义每5分钟输出一次

10.3 核心概念

划分(数据属于哪个窗口)

开一个5s滚动窗口  数据是3s  会落到哪个窗口:0-5   3-8 

结论:窗口的向下取整
                timestamp - (timestamp - offset) % windowSize

生命周期

创建:属于窗口第一条数据到来

销毁:事件时间 >= 窗口长度 +允许迟到时间

左闭右开

        endtime -1ms

10.4 设置乱序时间 和窗口延迟关闭时间 有什么区别?

5s滚动窗口   乱序时间设置2s   销毁时间5s  (7s数据过来时候,时间推进到5s)

5s滚动窗口   窗口延迟关闭2s   销毁时间7s   (7s数据过来时候,时间推进到7s)

结论:

设置乱序时间,并不会影响窗口销毁时间,影响时间推进规则,窗口延迟关闭时间影响窗口的关闭时间。

举个栗子:

10s滚动窗口,设置乱序时间5s,窗口延迟关闭时间5s 

窗口销毁:水位线15s时候销毁, 数据携带20s及以上过来触发窗口销毁

11. 状态

概念:用户定义的一些变量 

状态数据是交由Flink托管的,考虑程序数据的恢复 

11.1 分类

  1. 算子状态:每个subtask
    1. list:恢复状态时候轮询
    2. unionlist:广播
  2. 键控状态:每个key去维护的状态
    1. value  map  list  reduce  aggregate 

11.2 状态后端

本地远端
hashmapTM堆内存hdfs
rocksdbrocksdbhdfs

使用场景:rocksdb存储数据量级别比hashmap大

11.3 状态后端场景选择

企业中大状态场景选用的rocksdb  ,大状态场景优化

举个例子:

用户新老访客修复  1000w用户    1k      ≈  10G

rocksdb支持:增量检查点  、 本地恢复 、预定义选项

11.4 TTL

状态的过期时间是由哪个类设置的:

StateTttlConfig

12. 容错机制

12.1 端到端一致性 (kafka  flink   kafka)

源头:offset可重发

Flink:checkpoint

sink:事务(2pc 预写日志) 幂等 

12.2 checkpoint流程

  1. JM的checkpoint协调器发送命令startcheckpint开始
  2. 定期向数据源注入barrier (特殊事件,不会跳过数据向下游发送)
  3. barrier随数据流过每个subtask 
  4. barrier到每个算子,将本地状态快照到hdfs文件系统,快照完之后acks应答(barrier之前的数据已经进入kafka,预提交)
  5. JM中协调器收到所有算子的acks,标志所有快照做完,向算子分发消息
  6. 正式提交kafka

12.3 barrier

  1. 精确一次性
    1. barrier对齐:等待所有barrier到来,快照,等待的时候将数据缓存不处理
    2. 1.11版本,barrier不对齐,状态数据和缓存数据同时快照
  2. 至少一次
    1. barrier对齐:等待所有barrier到来,快照,数据直接向下游传递,不阻塞在缓存中
    2. 问题:出现意外恢复,状态中有重复数据问题

12.4 savepoint 和checkpoint区别

  1. checkpoint:自动帮我做
  2. savepoint手动:配置文件指定savepoint的路径,取消任务触发保存点停止

场景:程序升级 (算子增加,算子减少)
            增加uid

13. FlinkSql

Flinksql如何转化成底层的api?

使用calcite解析语法树

sql转化  ast语法树   逻辑执行    物理执行     底层api执行 

14. Flink生产经验

14.1 提交任务脚本

bin/flink run 
        -d   后台运行 
        -D   并行度     5
        -D   JM内存     1~4 G   
        -D   TM内存     4~8 G 
        -D   TM的slot个数  3(1~4)  
        -c  主类
        ./jar包
        

如果并行设置为5个,slot个数设置为3个,那么会启动2个TM

14.2 TM内存模型

  1. JVM
    1. 元空间
    2. 执行开销
  2. FLink内存
    1. 堆内:框架内存,task计算内存(分配,剩余内存)
    2. 堆外:框架内存,task计算内存(0)  网络内存(组件之间交互,算子缓存区)  托管内存(状态数据)

14.3 Flink部署多少台机器

FLink充当客户端, ds的worker节点都需要部署 

如果是streampark:需要部署一台

15. Flink和sparkstreaming区别 /Flink优点

Flinksparkstreaming
模型流式微批次
时间丰富处理时间
乱序解决不能解决
窗口多灵活窗口长度必须是批次整数倍
容错机制没有
状态没有

16. Flink的Interval Join的实现原理?Join不上的怎么办?

底层调用的是keyby + connect ,处理逻辑:

(1)判断是否迟到(迟到就不处理了,直接return)

(2)每条流都存了一个Map类型的状态(key是时间戳,value是List存数据)

(3)任一条流,来了一条数据,遍历对方的map状态,能匹配上就发往join方法

(4)使用定时器,超过有效时间范围,会删除对应Map中的数据(不是clear,是remove)

Interval join不会处理join不上的数据,如果需要没join上的数据,可以用 coGroup+join算子实现,或者直接使用flinksql里的left join或right join语法。

17. Flink的keyby怎么实现的分区?分区、分组的区别是什么?

分组和分区在 Flink 中具有不同的含义和作用:

分区:分区(Partitioning)是将数据流划分为多个子集,这些子集可以在不同的任务实例上进行处理,以实现数据的并行处理。

数据具体去往哪个分区,是通过指定的 key 值先进行一次 hash 再进行一次 murmurHash,通过上述计算得到的值再与并行度进行相应的计算得到。

分组:分组(Grouping)是将具有相同键值的数据元素归类到一起,以便进行后续操作(如聚合、窗口计算等)。key 值相同的数据将进入同一个分组中。

注意:数据如果具有相同的 key 将一定去往同一个分组和分区,但是同一分区中的数据不一定属于同一组。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/32331.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

数据结构 | 树的定义及实现

目录 一、树的术语及定义 二、树的实现 2.1 列表之列表 2.2 节点与引用 一、树的术语及定义 节点: 节点是树的基础部分。它可以有自己的名字,我们称作“键”。节点也可以带有附加信息,我们称作“有效载荷”。有效载荷信息对于很多树算法…

【学习FreeRTOS】第5章——FreeRTOS任务挂起与恢复

1.任务的挂起与恢复的API函数 vTaskSuspend() ——挂起任务(类似暂停,可恢复,但删除任务,无法恢复)vTaskResume() ——恢复被挂起的任务xTaskResumeFromISR()—— 在中断中恢复被挂起的任务 1.1.任务挂起函数vTaskSu…

leetcode19. 删除链表的倒数第 N 个结点

题目:leetcode19. 删除链表的倒数第 N 个结点 描述: 给你一个链表,删除链表的倒数第 n 个结点,并且返回链表的头结点。 思路: 让前面的节点比后面的节点先走n1步,因为从链表的尾节点的下一个节点开始&…

【BASH】回顾与知识点梳理(二十二)

【BASH】回顾与知识点梳理 二十二 二十二. Linux 账号管理22.1 Linux 的账号与群组使用者标识符: UID 与 GID使用者账号/etc/passwd 文件结构/etc/shadow 文件结构 关于群组: 有效与初始群组、groups, newgrp/etc/group 文件结构有效群组(effective grou…

传值与传址问题

传值与传址实例 2023年上半年软考真题: 22、设函数foo和hoo的定义如下图所示,在函数foo中调用函数hoo,hoo的第一个参数采用传引用方式(call by reference),第二个参数传值方式(call by value),那么函数foo中的print(a…

go错误集(持续更新)

1.提示以下报错 Build Error: go build -o c:\Users\Administrator\Desktop__debug_bin2343731882.exe -gcflags all-N -l . go: go.mod file not found in current directory or any parent directory; see ‘go help modules’ (exit status 1) 解决办法: go …

Elasticsearch 与 OpenSearch:揭开性能差距

作者:George Kobar, Ugo Sangiorgi 对于任何依赖快速、准确搜索数据的组织来说,强大、快速且高效的搜索引擎是至关重要的元素。 对于开发人员和架构师来说,选择正确的搜索平台可以极大地影响你的组织提供快速且相关结果的能力。 在我们全面的…

opencv实战项目 实现手势跟踪并返回位置信息(封装调用)

OpenCV 是一个基于 Apache2.0 许可(开源)发行的跨平台计算机视觉和机器学习软件库,可以运行在Linux、Windows、Android和Mac OS操作系统上。 需要提前准备opencv 和 mediapipe库 pip --default-timeout5000 install -i https://pypi.tuna.tsi…

拂袖一挥,zipfile秒列zip包内容

使用wxpython列出文件夹中的zip文件及内容 最近在做一个文件管理的小工具,需要列出选择的文件夹下的所有zip压缩文件,并在点击某个zip文件时能够显示其中的内容。为此我使用了wxpython来实现这个功能。 1. 导入需要的模块 首先导入程序需要的模块: import wx import os imp…

设计模式之工厂模式

简单工厂 由一个工厂生产多个产品。 一般工厂 每个产品都有一个单独的工厂专门生产。 抽象工厂 不同工厂生产不同种类的产品,每个工厂生产的同类产品又可以再次分类。比如一个鼠标工厂和一个键盘工厂,他们可以为不同的品牌生产鼠标和键盘。

CTF流量题解http1.pcapng

使用Wireshark工具打开流量文件http1.pcapng,如下图所示。 在过滤检索栏输入http,wireshark自动进行过滤。 选中其中一条记录后,wireshark 下方显示若干信息。 Frame 81: 925 bytes on wire (7400 bits), 925 bytes captured (7400 bits) …

从数据仓库到数据结构:数据架构的演变之路

在上个世纪,从电子商务巨头到医疗服务机构和政府部门,数据已成为每家组织的生命线。有效地收集和管理这些数据可以为组织提供宝贵的洞察力,以帮助决策,然而这是一项艰巨的任务。 尽管数据很重要,但CIOinsight声称&…

DL_20无线串口模块

今日介绍一块最近入手的无线串口模块,40r左右,精简好用,虽然感觉配置波特率啥的并不智能化,但250米的通信距离还是很顶的!它的升级版甚至有1000米的通信距离(空旷地带) 这篇文章不多讲其余话&am…

【C++】开源:abseil-cpp基础组件库配置使用

😏★,:.☆( ̄▽ ̄)/$:.★ 😏 这篇文章主要介绍abseil-cpp基础组件库配置使用。 无专精则不能成,无涉猎则不能通。——梁启超 欢迎来到我的博客,一起学习,共同进步。 喜欢的朋友可以关注一下&#…

什么,你说你不会通过jdbc一次性创建10个数据库???

小朋友你是否有很多问号???????????? 1、在资源文件中建一个文件,填入连接数据库的基本信息。 2、通过反射拿到资源文件。…

数据库新闻速递 -- POSTGRESQL 正在蚕食数据库市场 (翻译)

开头还是介绍一下群,如果感兴趣polardb ,mongodb ,mysql ,postgresql ,redis 等有问题,有需求都可以加群群内有各大数据库行业大咖,CTO,可以解决你的问题。加群请加 liuaustin3微信号 ,在新加的朋友会分到3群&#xff…

机器学习笔记 - 使用 YOLOv5、O​​penCV、Python 和 C++ 检测物体

一、YOLO v5简述 YOLO v5虽然已经不是最先进的对象检测器,但是YOLOv5 使用了一个简单的卷积神经网络 CNN架构(相对YOLO v8来讲,不过v8精度是更高了一些),更易理解。这里主要介绍如何轻松使用 YOLO v5来识别图像中的对象。将使用 OpenCV、Python 和 C++ 来加载和调用我们的…

K8S系列文章之 一键部署K8S环境

部署的原理是基于自动化部署工具 Ansible 实现的,需要提前安装Ansible 并配置下主机节点环境 1. 安装 Ansible 首先ansible基于python2.X 环境,默认centos都已经安装好了python2环境 // 最好更新下库 // yum update yum install -y epel-release yum i…

flask使用cookie (设置cookie与查看cookie内容)

1.flask包cookie的使用 设置cookie app.route(/set_cookie) def set_cookie():resp make_response(Setting cookie)resp.set_cookie(username, John)return resp查看cookie: app.route(/get_cookie) def get_cookie():username request.cookies.get(username)return Welco…

Spring系列四:AOP切面编程

文章目录 💗AOP-官方文档🍝AOP 讲解🍝AOP APIs 💗动态代理🍝初始动态代理🍝动态代理深入🍝AOP问题提出📗使用土方法解决📗 对土方法解耦-开发最简单的AOP类📗…