4、Flink执行模式(流/批)详解(下)

1、执行模式设置

import org.apache.flink.api.common.RuntimeExecutionMode;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;/*** bin/flink run -Dexecution.runtime-mode=BATCH <jarFile>*/
public class _01_RuntimeMode {public static void main(String[] args) throws Exception {StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();//        env.setRuntimeMode(RuntimeExecutionMode.AUTOMATIC);
//        env.setRuntimeMode(RuntimeExecutionMode.BATCH);env.setRuntimeMode(RuntimeExecutionMode.STREAMING);env.execute();}
}

2、流执行模式事件时间定时器案例

import org.apache.flink.api.common.RuntimeExecutionMode;
import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.common.state.ValueState;
import org.apache.flink.api.common.state.ValueStateDescriptor;
import org.apache.flink.api.common.typeinfo.TypeHint;
import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.api.java.tuple.Tuple3;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.TimeCharacteristic;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.KeyedProcessFunction;
import org.apache.flink.util.Collector;import java.text.SimpleDateFormat;
import java.time.Duration;
import java.util.ArrayList;
import java.util.Date;
import java.util.List;/*** 命令行输入的数据* 1,a,1714028400000* 1,b,1714028410000* 1,c,1714028410001* 1,d,1714028420000* 1,e,1714028420001*//*** 元素=>1,a,1714028400000的事件时间为=>1714028400000* 元素=>1,b,1714028410000的事件时间为=>1714028410000* 元素=>1,c,1714028410001的事件时间为=>1714028410001* 元素=>1,d,1714028420000的事件时间为=>1714028420000* 元素=>1,e,1714028420001的事件时间为=>1714028420001* 元素=>2,f,1714028400000的事件时间为=>1714028400000* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028410000* ----------时间格式化-----------* 当前水位线=>292269055-12-03 00:47:04.192,当前定时器的触发时间=>2024-04-25 15:00:10.000* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028420000* ----------时间格式化-----------* 当前水位线=>292269055-12-03 00:47:04.192,当前定时器的触发时间=>2024-04-25 15:00:20.000* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028420001* ----------时间格式化-----------* 当前水位线=>292269055-12-03 00:47:04.192,当前定时器的触发时间=>2024-04-25 15:00:20.001* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028430000* ----------时间格式化-----------* 当前水位线=>292269055-12-03 00:47:04.192,当前定时器的触发时间=>2024-04-25 15:00:30.000* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028430001* ----------时间格式化-----------* 当前水位线=>292269055-12-03 00:47:04.192,当前定时器的触发时间=>2024-04-25 15:00:30.001* 1=>的输出结果为,[a, b, c, d, e],当前系统时间戳为=>2024-04-25 15:41:22.418* 1=>的输出结果为,null,当前系统时间戳为=>2024-04-25 15:41:22.418* 1=>的输出结果为,null,当前系统时间戳为=>2024-04-25 15:41:22.418* 1=>的输出结果为,null,当前系统时间戳为=>2024-04-25 15:41:22.418* 1=>的输出结果为,null,当前系统时间戳为=>2024-04-25 15:41:22.418* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028410000* ----------时间格式化-----------* 当前水位线=>292269055-12-03 00:47:04.192,当前定时器的触发时间=>2024-04-25 15:00:10.000* 2=>的输出结果为,[f],当前系统时间戳为=>2024-04-25 15:41:22.419*/
public class _02_StreamingEventTimeService {public static void main(String[] args) throws Exception {StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();env.setRuntimeMode(RuntimeExecutionMode.STREAMING);env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);DataStreamSource<String> source = env.socketTextStream("localhost", 8888);SingleOutputStreamOperator<String> sourceWithWaterMark = source.assignTimestampsAndWatermarks(WatermarkStrategy.<String>forBoundedOutOfOrderness(Duration.ofSeconds(0)).withTimestampAssigner(new SerializableTimestampAssigner<String>() {@Overridepublic long extractTimestamp(String element, long recordTimestamp) {System.out.println("元素=>" + element + "的事件时间为=>" + element.split(",")[2]);return Long.parseLong(element.split(",")[2]);}}));SingleOutputStreamOperator<Tuple3<Integer, String, Long>> map = sourceWithWaterMark.map(new MapFunction<String, Tuple3<Integer, String, Long>>() {@Overridepublic Tuple3<Integer, String, Long> map(String element) throws Exception {return new Tuple3<>(Integer.parseInt(element.split(",")[0]), element.split(",")[1], Long.parseLong(element.split(",")[2]));}});SingleOutputStreamOperator<Tuple2<Integer, List<String>>> res = map.keyBy(e -> e.f0).process(new KeyedProcessFunction<Integer, Tuple3<Integer, String, Long>, Tuple2<Integer, List<String>>>() {private ValueState<List<String>> state;private final Long DELAY = 10000L;@Overridepublic void open(Configuration parameters) throws Exception {state = getRuntimeContext().getState(new ValueStateDescriptor<>("valueState", TypeInformation.of(new TypeHint<List<String>>() {})));}@Overridepublic void onTimer(long timestamp, KeyedProcessFunction<Integer, Tuple3<Integer, String, Long>, Tuple2<Integer, List<String>>>.OnTimerContext ctx, Collector<Tuple2<Integer, List<String>>> out) throws Exception {Integer currentKey = ctx.getCurrentKey();List<String> value = state.value();System.out.println("当前水位线为=>"+ctx.timerService().currentWatermark()+","+currentKey+"=>的输出结果为,"+value+",当前系统时间戳为=>"+time(System.currentTimeMillis()));state.clear();}@Overridepublic void processElement(Tuple3<Integer, String, Long> input, KeyedProcessFunction<Integer, Tuple3<Integer, String, Long>, Tuple2<Integer, List<String>>>.Context ctx, Collector<Tuple2<Integer, List<String>>> out) throws Exception {List<String> value = state.value();if (value == null) {value = new ArrayList<String>();value.add(input.f1);} else {value.add(input.f1);}state.update(value);long currentWatermark = ctx.timerService().currentWatermark();long timer = input.f2 + DELAY;System.out.println("当前水位线=>" + currentWatermark + ",当前定时器的触发时间=>" + timer);System.out.println("----------时间格式化-----------");System.out.println("当前水位线=>" + time(currentWatermark) + ",当前定时器的触发时间=>" + time(timer));ctx.timerService().registerEventTimeTimer(timer);}@Overridepublic void close() throws Exception {state.clear();}public String time(long timeStamp) {return new SimpleDateFormat("yyyy-MM-dd HH:mm:ss.SSS").format(new Date(timeStamp));}});res.print();env.execute();}
}

3、批执行模式事件时间定时器案例

import org.apache.flink.api.common.RuntimeExecutionMode;
import org.apache.flink.api.common.eventtime.SerializableTimestampAssigner;
import org.apache.flink.api.common.eventtime.WatermarkStrategy;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.common.state.ValueState;
import org.apache.flink.api.common.state.ValueStateDescriptor;
import org.apache.flink.api.common.typeinfo.TypeHint;
import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.api.java.io.TextInputFormat;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.api.java.tuple.Tuple3;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.core.fs.Path;
import org.apache.flink.streaming.api.TimeCharacteristic;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.KeyedProcessFunction;
import org.apache.flink.streaming.api.functions.source.FileProcessingMode;
import org.apache.flink.util.Collector;import java.io.File;
import java.text.SimpleDateFormat;
import java.time.Duration;
import java.util.ArrayList;
import java.util.Date;
import java.util.List;/*** 文件中原始数据** 1,a,1714028400000* 1,b,1714028410000* 1,c,1714028410001* 1,d,1714028420000* 1,e,1714028420001* 2,f,1714028400000*/
/*** 元素=>1,a,1714028400000的事件时间为=>1714028400000* 元素=>1,b,1714028410000的事件时间为=>1714028410000* 元素=>1,c,1714028410001的事件时间为=>1714028410001* 元素=>1,d,1714028420000的事件时间为=>1714028420000* 元素=>1,e,1714028420001的事件时间为=>1714028420001* 元素=>2,f,1714028400000的事件时间为=>1714028400000* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028410000* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028420000* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028420001* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028430000* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028430001* 当前水位线为=>9223372036854775807,1=>的输出结果为,[a, b, c, d, e],当前系统时间戳为=>2024-04-25 15:45:09.309* 当前水位线为=>9223372036854775807,1=>的输出结果为,null,当前系统时间戳为=>2024-04-25 15:45:09.310* 当前水位线为=>9223372036854775807,1=>的输出结果为,null,当前系统时间戳为=>2024-04-25 15:45:09.310* 当前水位线为=>9223372036854775807,1=>的输出结果为,null,当前系统时间戳为=>2024-04-25 15:45:09.310* 当前水位线为=>9223372036854775807,1=>的输出结果为,null,当前系统时间戳为=>2024-04-25 15:45:09.310* 当前水位线=>-9223372036854775808,当前定时器的触发时间=>1714028410000* 当前水位线为=>9223372036854775807,2=>的输出结果为,[f],当前系统时间戳为=>2024-04-25 15:45:09.310*/
public class _03_BatchEventTimeService {public static void main(String[] args) throws Exception {StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();env.setRuntimeMode(RuntimeExecutionMode.BATCH);env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime);env.setParallelism(1);DataStreamSource<String> source = env.readFile(new TextInputFormat(Path.fromLocalFile(new File("event.txt"))), "/Users/***/Desktop/event.txt", FileProcessingMode.PROCESS_ONCE, 10000);SingleOutputStreamOperator<String> sourceWithWaterMark = source.assignTimestampsAndWatermarks(WatermarkStrategy.<String>forBoundedOutOfOrderness(Duration.ofSeconds(0)).withTimestampAssigner(new SerializableTimestampAssigner<String>() {@Overridepublic long extractTimestamp(String element, long recordTimestamp) {System.out.println("元素=>" + element + "的事件时间为=>" + element.split(",")[2]);return Long.parseLong(element.split(",")[2]);}}));SingleOutputStreamOperator<Tuple3<Integer, String, Long>> map = sourceWithWaterMark.map(new MapFunction<String, Tuple3<Integer, String, Long>>() {@Overridepublic Tuple3<Integer, String, Long> map(String element) throws Exception {return new Tuple3<>(Integer.parseInt(element.split(",")[0]), element.split(",")[1], Long.parseLong(element.split(",")[2]));}});SingleOutputStreamOperator<Tuple2<Integer, List<String>>> res = map.keyBy(e -> e.f0).process(new KeyedProcessFunction<Integer, Tuple3<Integer, String, Long>, Tuple2<Integer, List<String>>>() {private ValueState<List<String>> state;private final Long DELAY = 10000L;@Overridepublic void open(Configuration parameters) throws Exception {state = getRuntimeContext().getState(new ValueStateDescriptor<>("valueState", TypeInformation.of(new TypeHint<List<String>>() {})));}@Overridepublic void onTimer(long timestamp, KeyedProcessFunction<Integer, Tuple3<Integer, String, Long>, Tuple2<Integer, List<String>>>.OnTimerContext ctx, Collector<Tuple2<Integer, List<String>>> out) throws Exception {Integer currentKey = ctx.getCurrentKey();List<String> value = state.value();System.out.println("当前水位线为=>"+ctx.timerService().currentWatermark()+","+currentKey + "=>的输出结果为," + value + ",当前系统时间戳为=>" + time(System.currentTimeMillis()));state.clear();}@Overridepublic void processElement(Tuple3<Integer, String, Long> input, KeyedProcessFunction<Integer, Tuple3<Integer, String, Long>, Tuple2<Integer, List<String>>>.Context ctx, Collector<Tuple2<Integer, List<String>>> out) throws Exception {List<String> value = state.value();if (value == null) {value = new ArrayList<String>();value.add(input.f1);} else {value.add(input.f1);}state.update(value);long currentWatermark = ctx.timerService().currentWatermark();long timer = input.f2 + DELAY;System.out.println("当前水位线=>" + currentWatermark + ",当前定时器的触发时间=>" + timer);
//                        System.out.println("----------时间格式化-----------");
//                        System.out.println("当前水位线=>" + time(currentWatermark) + ",当前定时器的触发时间=>" + time(timer));ctx.timerService().registerEventTimeTimer(timer);}@Overridepublic void close() throws Exception {state.clear();}public String time(long timeStamp) {return new SimpleDateFormat("yyyy-MM-dd HH:mm:ss.SSS").format(new Date(timeStamp));}});res.print();env.execute();}
}

4、批执行模式重启策略配置

import org.apache.flink.api.common.RuntimeExecutionMode;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.common.restartstrategy.RestartStrategies;
import org.apache.flink.api.java.io.TextInputFormat;
import org.apache.flink.api.java.tuple.Tuple3;
import org.apache.flink.core.fs.Path;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.source.FileProcessingMode;import java.io.File;public class _05_BatchJobFailRestart {public static void main(String[] args) throws Exception {StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();env.setRuntimeMode(RuntimeExecutionMode.BATCH);env.setParallelism(1);// 设置重试策略RestartStrategies.RestartStrategyConfiguration restartStrategy = RestartStrategies.fixedDelayRestart(3, 5000);env.getConfig().setRestartStrategy(restartStrategy);DataStreamSource<String> source = env.readFile(new TextInputFormat(Path.fromLocalFile(new File("no_order.txt"))), "/Users/hhx/Desktop/no_order.txt", FileProcessingMode.PROCESS_ONCE, 10000);SingleOutputStreamOperator<Tuple3<Integer, String, Long>> map = source.map(new MapFunction<String, Tuple3<Integer, String, Long>>() {@Overridepublic Tuple3<Integer, String, Long> map(String element) throws Exception {return new Tuple3<>(Integer.parseInt(element.split(",")[0]), element.split(",")[1], Long.parseLong(element.split(",")[2]));}});map.print();env.execute();}
}

5、流执行模式重启策略和检查点配置

import org.apache.flink.api.common.RuntimeExecutionMode;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.common.restartstrategy.RestartStrategies;
import org.apache.flink.api.java.tuple.Tuple3;
import org.apache.flink.streaming.api.CheckpointingMode;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;public class _06_StreamJobFailRestartAndCheckpoint {public static void main(String[] args) throws Exception {StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();env.setRuntimeMode(RuntimeExecutionMode.STREAMING);env.setParallelism(1);// 设置 检查点(Checkpoint)env.enableCheckpointing(5000L, CheckpointingMode.AT_LEAST_ONCE);// 设置 重试策略(RestartStrategies)RestartStrategies.RestartStrategyConfiguration restartStrategy = RestartStrategies.fixedDelayRestart(3, 5000);env.getConfig().setRestartStrategy(restartStrategy);DataStreamSource<String> source = env.socketTextStream("localhost",8888);SingleOutputStreamOperator<Tuple3<Integer, String, Long>> map = source.map(new MapFunction<String, Tuple3<Integer, String, Long>>() {@Overridepublic Tuple3<Integer, String, Long> map(String element) throws Exception {return new Tuple3<>(Integer.parseInt(element.split(",")[0]), element.split(",")[1], Long.parseLong(element.split(",")[2]));}});map.print();env.execute();}
}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/3785.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ROM修改进阶教程------如何去除安卓机型系统的开机向导 几种操作步骤解析

在和很多工作室定制化系统中。手机在第一次启动的时候系统都会进入设置向导,虽然可以设置手机的基本配置。但有很多客户需要去除手机的开机向导来缩短开机时间。确保手机直接进入工作状态。那么今天的教程针去除对开机向导的几种方法做个解析。机型很多版本不同。操作也有不同…

配置jupyter的启动路径

jupyter的安装参考&#xff1a;python环境安装jupyter-CSDN博客 1&#xff0c;背景 继上一篇python环境安装jupyter&#xff0c;里面有一个问题&#xff0c;就是启动jupyter&#xff08;命令jupyter notebook&#xff09;之后&#xff0c;页面默认显示的是启动时候的路径。 …

AI 边缘计算平台 - 嘉楠堪智 CanMV K230 开箱

CanMV-K230 开发板采用的是嘉楠科技 Kendryte 系列 AIoT 芯片中的最新一代 SoC 芯片 K230。该芯片采用全新的多异构单元加速计算架构&#xff0c;最新高性能 RISC-V CPU 内置双核玄铁 C908 CPU, 主频高达 1.6GHz&#xff1b;是全球首款支持 RISC-V Vector 1.0 标准的商用 SoC&a…

python中如何用matplotlib写饼图

#代码 import matplotlib.pyplot as plt# 设置绘图的主题风格 plt.style.use(ggplot) # 中文乱码和坐标轴负号的处理 plt.rcParams[font.sans-serif][SimHei] plt.rcParams[axes.unicode_minus]False plt.rcParams[figure.figsize][10,8] # 构造数据 x [0.2515,0.3724,0.3336…

靠这套 Pytest 接口自动化测试框架,击败了99%的人

&#x1f345; 视频学习&#xff1a;文末有免费的配套视频可观看 &#x1f345; 点击文末小卡片 &#xff0c;免费获取软件测试全套资料&#xff0c;资料在手&#xff0c;涨薪更快 Pytest 的下载安装 1、Python3 使用 pip install -U pytest 安装 2、查看 pytest 版本信息 py…

keytool证书工具详解(二)

JDK自带的keytool证书工具详解 一、生成证书 keytool -genkey -alias tomcat -keyalg RSA -keystore D:/tomcat.keystore -keypass 123456 -storepass 123456 -dname "CN=xingming,OU=danwei,O=zuzhi,L=shi,ST=sheng,C=CN" keytool -genkey -alias tomcat -keyalg …

七天速记前端八股文(重点)

for in和正常for循环的区别 在遍历数组时&#xff0c;正常的 for 循环通常比 for...in 循环更适合。虽然 for...in 循环可以用于遍历数组&#xff0c;但它有一些潜在的问题和限制。 下面是一些使用 for 循环相对于 for...in 循环的优势&#xff1a; 顺序遍历&#xff1a;for…

【nodejs状态库mobx之computed规则】

The above example nicely demonstrates the benefits of a computed value, it acts as a caching point. Even though we change the amount, and this will trigger the total to recompute, it won’t trigger the autorun, as total will detect its output hasn’t been …

泛微E9开发 如何自定义流程标题

1、功能背景 主表中有“选择类别”下拉框字段&#xff0c;用户可以根据需求来选择申请类别&#xff0c;一般多个相似流程的申请可以合并成一个&#xff0c;但是为了区分&#xff0c;我们可以通过将标题修改的方式来使整个显示页面更明确。 2、展示效果 3、实现方法 注意&…

吴恩达深度学习笔记:深度学习的 实践层面 (Practical aspects of Deep Learning)1.6-1.8

目录 第一门课&#xff1a;第二门课 改善深层神经网络&#xff1a;超参数调试、正 则 化 以 及 优 化 (Improving Deep Neural Networks:Hyperparameter tuning, Regularization and Optimization)第一周&#xff1a;深度学习的 实践层面 (Practical aspects of Deep Learning)…

SpringCloud使用Nginx代理、Gateway网关以后如何获取用户的真实ip

前言 本文转载自: www.microblog.store,且已获得授权. 一、需求背景 微服务架构使用了Nginx代理转发、并且使用了SpringCloud的Gateway统一控制所有请求&#xff0c;现在有个需求&#xff1a; 做一个日子记录切面&#xff0c;需要记录用户请求的ip地址。 在上述双重背景下…

knife4j 空指针异常

knife4j 空指针异常 一开始正常访问&#xff0c;但是改着改着&#xff0c;就无法访问了&#xff0c;百度了一圈没找到原因&#xff0c;最后对比了之前版本的区别发现这里有问题。最后把这个注解去掉就好了。 只是我本人遇到的问题是这样的&#xff0c;仅供参考

C++对象的初始化和处理

生活中我们买的电子产品都基本会有出厂设置!在某一天我们不用时候也会删除一些自己信息数据保证安全。 C中的面向对象来源于生活&#xff0c;每个对象也都会有初始设置以及对象销毁前的清理数据的设置。 构造函数和析构函数 对象的初始化和清理也是两个非常重要的安全问题 一…

Android Studio布局

文章目录 LinearLayout线性布局排列方向排列位置行列权重 LinearLayout线性布局 从行开始&#xff0c;顶格 排列方向 android:orientation“horizontal”android:orientation“vertical”排列位置 注意layout_width和layout_height的值是match_parent还是wrap_content&…

人工智能路径规划算法:迭代加深搜索

迭代加深搜索&#xff08;Iterative Deepening Search, IDS&#xff09;是一种结合了广度优先搜索&#xff08;BFS&#xff09;和深度优先搜索&#xff08;DFS&#xff09;的搜索策略&#xff0c;它通过重复执行深度限制的深度优先搜索来实现。每次迭代&#xff0c;深度限制增加…

03_Scala变量和数据类型

文章目录 [toc] **变量和数据类型****1.注释****2.变量和常量****3. 标识符的命名规范****4.scala的字符串****5.键盘输入****5.1 StdIn.readLine()****5.2 从文件中读取数据****5.3 Scala向外写数据** 变量和数据类型 1.注释 和Java完全一样 ** ** 2.变量和常量 var name…

如何在Pycharm中使用Git来进行版本管理

推荐视频:git pycharm的使用 连接github_哔哩哔哩_bilibilipycharm git的使用简单介绍 最近应该不会更新技能相关视频了 准备开题, 视频播放量 13042、弹幕量 2、点赞数 208、投硬币枚数 143、收藏人数 343、转发人数 58, 视频作者 呃呃燕, 作者简介 努力入门的计算机双非研究生…

Spark面试整理-解释Spark中的广播变量和累加器

在Apache Spark中,广播变量(Broadcast Variables)和累加器(Accumulators)是两种特殊的共享变量,它们用于不同的用途并有助于优化分布式计算的性能和资源利用。 广播变量(Broadcast Variables) 广播变量用于在所有节点之间高效地分发大数据集,主要用于只读操作。当你有…

Shell脚本学习记录

0.理解Linux文件权限 0.1 Linux安全性 用户的权限是通过创建用户时分配的用户ID(UID)来追踪的&#xff0c;UID是个数值&#xff0c;每个用户都有一个唯一的UID 0.1.1 /etc/passwd文件 Linux系统使用一个专门的文件/etc/passwd来匹配登录名与对应的UID值&#xff0c;该文件包…

请解释什么是PDO,以及它相对于MySQLi的优势是什么?

请解释什么是PDO&#xff0c;以及它相对于MySQLi的优势是什么&#xff1f; PDO&#xff0c;即PHP Data Object&#xff0c;是一个数据库访问层&#xff0c;为PHP访问数据库定义了一个轻量级的、一致性的接口。无论使用哪种数据库&#xff0c;都可以通过一致的函数&#xff08;…