大数据面试题之Flink(2)

Flink中Checkpoint超时原因 

Flink的ExactlyOnce语义怎么保证? 

Flink的端到端ExactlyOnce 

Flink的水印(Watermark),有哪几种? 

Flink的时间语义 

Flink相比于其它流式处理框架的优点? 

Flink和Spark的区别?什么情况下使用Flink?有什么优点? 

Flink backPressure反压机制,指标监控你是怎么做的? 

Flink如何保证一致性? 

Flink支持JobMaster的HA啊?原理是怎么样的? 


Flink中Checkpoint超时原因 

在 Apache Flink 中,Checkpoint 超时是一个常见的问题,它可能由多种因素导致,以下是一些主要的原因及其排查方向:

1、资源限制:

  • TaskManager 资源不足:如果 TaskManager(工作节点)的内存或 CPU 资源不足,可能会导致状态快照的生成和传输变得缓慢,进而引发超时。需要检查资源分配情况,并适当增加资源。
  • 状态大小:状态数据量巨大时,生成和传输快照会非常耗时,导致超时。可以考虑优化状态管理,比如状态分区或减少状态大小。

2、网络问题:

  • 网络延迟或不稳定可能会阻碍状态数据的快速传输,特别是在分布式环境中。检查网络配置,确保网络连接稳定,必要时增加网络带宽。

3、Backend 存储问题:

  • 状态 Backend(如 RocksDB)响应慢或存在网络问题,会影响快照的存储与恢复速度。确保 Backend 正常运行,调整 Backend 相关配置。

4、Checkpoint 配置不当:

  • Checkpoint 间隔设置过长:过长的间隔可能导致单次 Checkpoint 执行时间过长,超出了预期时间。应根据实际情况调整 Checkpoint 间隔。
  • 并行度不足:Checkpoint 的并行度如果设置不合理,可能无法充分利用资源,导致处理缓慢。适当增加 Checkpoint 的并行度。

5、数据倾斜:

  • 数据分布不均可能导致某些 Task 负载过高,影响 Checkpoint 过程。需要分析数据流,尽量均衡数据分配。

6、任务复杂度:

  • 复杂的 DAG(有向无环图)结构和计算密集型任务可能导致 Checkpoint 过程中线程忙于处理数据,没有足够时间参与 Checkpoint。优化任务逻辑,减少计算复杂度。

7、超时时间设置:

  • Checkpoint 的超时时间设置不合理,可能过短,不足以完成 Checkpoint。根据实际需要调整超时时间。

8、版本和 Bug:

  • 使用的 Flink 版本可能存在已知的 bug 影响 Checkpoint 性能。确认是否有已知问题,并考虑升级到稳定版本。

排查 Checkpoint 超时问题时,首先要从日志入手,查看是否有相关错误信息或警告。此外,使用 Flink 提供的 Metrics 和监控工具,如 Flink Web UI,可以帮助定位问题所在。在复杂场景下,可能需要结合代码审查、性能测试和逐步调试来深入分析。

Flink的ExactlyOnce语义怎么保证? 

Apache Flink 通过一系列机制确保在流处理过程中实现 Exactly-Once(恰好一次)语义,即使在出现故障和重启的情况下也能保证每条数据记录被精确处理一次。以下是 Flink 实现 Exactly-Once 的关键机制:

1、状态一致性检查点(Checkpointing):
  周期性保存状态:Flink 定期创建整个应用状态的一致性快照(Checkpoint),这包括所有任务的状态以及输入源(如 Kafka)的读取位置。
  异步执行:Checkpoint 的创建是异步的,不会阻塞数据处理流程。这意味着在生成 Checkpoint 的同时,数据处理可以继续进行。
  协调恢复:当发生故障时,Flink 会从最近成功的 Checkpoint 恢复,跳过已经处理过的数据,避免重复处理。
2、Two-Phase Commit(2PC)协议:
  预提交阶段(Pre-commit):在数据写入外部系统(如数据库、Kafka)之前,先写入临时位置,并记录预提交标记。
  提交阶段(Commit):当所有任务都成功完成预提交,会发出提交指令,将临时数据移动到最终位置,并清除预提交标记。
  失败恢复:如果在提交前发生故障,Flink 可以根据预提交信息回滚并重新尝试,确保数据不丢失也不重复。
3、事务型sink:
Flink 支持事务型sink,这些sink能够与外部系统一起使用两阶段提交协议,确保数据写入外部系统时也遵循 Exactly-Once 语义。
4、水源标记(Watermark):
用于处理乱序事件和实现事件时间(Event Time)语义,确保在窗口聚合等操作中不会因为数据乱序而影响 Exactly-Once 的准确性。
5、端到端一致性:
为了实现端到端的 Exactly-Once,除了 Flink 内部处理外,还需要外部系统(如消息队列)的支持。例如,Kafka 0.10+ 版本提供了事务性生产者,与 Flink 的事务机制相结合,确保整体流程的 Exactly-Once。
综上所述,Flink 通过状态一致性检查点、两阶段提交、事务型sink、水源标记等机制共同作用,实现了流处理的 Exactly-Once 语义,从而保障了数据处理的准确性和可靠性。

Flink的端到端ExactlyOnce 

一、概念解析
端到端Exactly-Once:指的是从数据源的读取、Flink内部的数据处理,到数据写入目标存储系统的整个流程中,每条数据只被精确处理并写入一次。
二、实现机制
1. 数据源(Source)

  • 可重放的数据源:Flink通常对接Kafka、Metaq等持久化的消息队列作为数据源。这些消息队列支持在任务重启时根据当前的消费位点(offset)重新获取数据,从而确保数据的可重放性。

2. 分布式状态快照(Checkpoint)

  • 状态快照:Flink通过定期保存分布式状态快照来记录应用的状态,包括数据源的消费偏移量、中间处理状态等。这些快照是全局一致的,即所有相关的状态都被同时保存。
  • 增量快照:由于全量快照可能占用大量资源,Flink通常进行增量快照,即只保存自上次快照以来的变化部分。

3. 两阶段提交(Two-Phase Commit)

  • 预提交(Pre-Commit):在检查点触发时,Flink会在所有处理节点上执行预提交操作,包括将本地状态写入快照、发送barrier消息等。
  • 提交(Commit):当所有节点都完成预提交并发送确认信息给JobMaster后,JobMaster会发送提交命令,各节点将快照数据从临时位置移动到最终位置,并更新消费偏移量等。
  • 幂等写入:在Sink端,Flink使用幂等写入机制来确保即使数据被重复处理,写入目标存储系统的结果也是一致的。这通常通过设置唯一键、使用事务机制等方式实现。

4. 事务支持

  • Source和Sink的事务支持:为了实现端到端的Exactly-Once,Flink要求Source和Sink都支持事务机制。这样可以在数据读取、处理和写入过程中保持事务的一致性。
  • Kafka作为Source和Sink:Kafka从0.11版本开始支持事务机制,使得与Flink集成实现端到端Exactly-Once成为可能。

三、总结
Flink通过以下方式实现端到端Exactly-Once语义:

  1. 使用可重放的数据源:确保数据在任务重启时可以被重新读取。
  2. 分布式状态快照:定期保存全局一致的状态快照,以便在故障恢复时恢复状态。
  3. 两阶段提交:通过预提交和提交两个阶段确保数据的一致性和完整性。
  4. 幂等写入:在Sink端使用幂等写入机制避免数据重复。
  5. 事务支持:要求Source和Sink都支持事务机制,以保持整个处理流程的一致性。

Flink的水印(Watermark),有哪几种? 

Apache Flink 提供了两种类型的水印(Watermark)生成器,它们允许用户根据数据流的特点定制水印生成策略,以适应不同场景下的事件时间处理需求:

1、周期性水印(Periodic Watermarks):
使用 AssignerWithPeriodicWatermarks 接口实现。这种类型的水印生成器会在固定的周期(默认情况下是每隔200毫秒)自动发出水印。开发者可以通过重写 extractTimestamp() 方法为每个事件分配时间戳,并通过 onPeriodicEmit() 方法定期生成水印。这种方式适用于大多数场景,特别是在事件到达时间相对均匀且乱序程度可接受的情况下。
2、带标记的水印(Punctuated Watermarks):
使用 AssignerWithPunctuatedWatermarks 接口实现。与周期性水印不同,带标记的水印生成器允许在数据流中的特定事件(标记事件)上触发水印的生成。通过重写 extractTimestamp() 为事件分配时间戳,并在检测到特定标记时调用 checkAndGetNextWatermark() 方法生成水印。这种方式更加灵活,特别适合那些可以通过数据本身特征明确指示水印推进时机的场景,比如某些具有明确时间分隔符的数据流。

Flink的时间语义 

1. 事件时间(Event Time)
定义:事件时间是数据本身携带的时间戳,表示数据产生或发生的时间。
应用场景:

  • 适用于需要精确时间控制的场景,如基于时间的窗口操作、事件排序等。
  • 特别适用于处理乱序事件,因为事件时间允许Flink等待迟到的事件,以确保窗口操作的准确性。

机制:

  • 需要使用水印(Watermark)机制来协调事件时间的进度。水印是一种特殊的事件,用于指示在特定时间点之前,所有事件都已到达或应被视为已到达。
  • 通过设置水印,Flink可以延迟窗口的关闭和计算,直到确定所有相关事件都已处理。

优势与劣势:

  • 优势:提供了精确的时间控制和处理乱序事件的能力。
  • 劣势:可能增加延迟和缓存需求,因为需要等待迟到事件。

2. 处理时间(Processing Time)
定义:处理时间是Flink系统内部的时间,表示事件在Flink系统中被处理的时间。
应用场景:

  • 适用于对时间顺序不敏感且需要低延迟处理的场景,如实时监控和警报应用。
  • 在分布式和异步环境下,处理时间无法提供确定性,因为它依赖于事件到达系统的速度和处理速度。

机制:

  • 直接使用执行操作的设备(如服务器)的系统时钟。
  • 无需考虑事件本身的时间戳,仅基于事件到达Flink系统的顺序进行处理。

优势与劣势:

  • 优势:实现简单,延迟低。
  • 劣势:在分布式和异步环境下无法保证确定性,可能受到数据传递速度的影响。

3. 摄入时间(Ingestion Time)
定义:摄入时间是事件进入Flink系统的时间戳,表示数据被Flink系统摄入的时间。
应用场景:

  • 介于事件时间和处理时间之间的折中选择,适用于对事件时间不敏感但需要按顺序处理事件的应用。
  • 不需要设置复杂的水印机制,因此实现相对简单。

机制:

  • 数据在进入Flink系统时,由系统记录其摄入时间。
  • 后续处理过程将基于这个摄入时间进行。

优势与劣势:

  • 优势:实现简单,延迟较低,且不需要考虑事件本身的时间戳。
  • 劣势:计算结果可能不如事件时间准确,因为摄入时间可能受到系统处理速度的影响。

总结
Flink的三种时间语义(事件时间、处理时间、摄入时间)各有其适用场景和优缺点。在实际应用中,可以根据业务需求和数据特性选择最合适的时间语义。通常,事件时间是最常用的时间语义,因为它提供了精确的时间控制和处理乱序事件的能力。然而,在处理低延迟或时间顺序不敏感的应用时,处理时间和摄入时间也是可行的选择。

Flink相比于其它流式处理框架的优点? 

1、真正的流处理引擎:
Flink 设计为原生的流处理引擎,直接在无界数据流上进行处理,而不仅仅是将批处理看作是流处理的特例。这使 Flink 能够提供低延迟和高吞吐量的实时处理能力。
2、事件时间处理与水位线机制:
Flink 强大的事件时间(Event Time)处理模型允许处理乱序事件,并通过水位线(Watermarks)机制来衡量事件处理进度,确保结果的正确性,即使在数据延迟到达的情况下也能提供一致的结果。
3、高吞吐量与低延迟的平衡:
Flink 优化了其架构,能够在保持高吞吐量的同时,达到低延迟的处理要求,这是许多流处理应用场景所必需的。
4、管道化的数据流执行:
数据在 Flink 中以管道化的方式流动,无需等待整个批次完成,减少了处理延迟,提高了效率。
5、高效的状态管理与检查点机制:
Flink 提供了高效的状态管理,支持增量检查点(Incremental Checkpointing),仅保存状态变化的部分,减少资源消耗并加快故障恢复速度。
6、自定义内存管理:
通过自定义的内存管理系统,Flink 能有效管理 JVM 堆内和堆外内存,减少垃圾回收的开销,进一步提升性能。
7、批处理与流处理的统一:
Flink 实现了批处理和流处理的统一,使用同一套代码基础即可处理实时流数据和历史批数据,简化了开发和维护工作。
8、灵活的窗口操作:
Flink 支持滑动窗口、滚动窗口、会话窗口等多种窗口类型,以及丰富的窗口操作,适应不同的业务场景需求。
9、高度可扩展性和容错性:
Flink 架构的分布式特性使其易于扩展以应对大规模数据处理,同时其内置的容错机制保证了处理过程的高可用性。
10、丰富的生态系统与语言支持:
Flink 拥有活跃的社区支持,不断更新和完善的生态系统,同时支持 Java、Scala 以及 Python(通过 PyFlink)等多种编程语言,便于开发者上手和集成现有系统。

Flink和Spark的区别?什么情况下使用Flink?有什么优点? 

1、设计理念:
Flink:面向流的处理框架,基于事件驱动,支持真正的流式计算,可以逐条处理消息。
Spark:使用微批(Micro-batch)来模拟流的计算,数据流以时间为单位被切分为一个个批次,通过分布式数据集RDD进行批量处理,是一种伪实时计算。
2、架构:
Flink:运行时主要包含JobManager、TaskManager和Slot。
Spark:运行时的主要角色包括Master、Worker、Driver、Executor。
3、任务调度:
Flink:根据用户提交的代码生成StreamGraph,经过优化生成JobGraph,然后提交给JobManager处理,JobManager会根据JobGraph生成ExecutionGraph进行调度。
Spark:Spark Streaming连续不断地生成微小的数据批次,构建有向无环图DAG,根据DAG中的action操作形成job,每个job再根据窄宽依赖生成多个stage。
4、时间机制:
Flink:支持事件时间、注入时间、处理时间,同时支持Watermark机制处理迟到的数据。
Spark:主要支持处理时间,使用processing time模拟event time会有误差。
5、容错机制:
Flink:使用两阶段提交协议来保证exactly-once语义。
Spark:基于RDD的容错机制,通过Checkpoint机制来保证数据的一致性。
6、吞吐量与延迟:
Flink:基于事件的逐条处理,容错机制轻量级,能在高吞吐量的同时保持低延迟(毫秒级)。
Spark:基于微批处理,流水线优化好,吞吐量最大,但延迟较高(秒级)。
7、数据处理模式:
Flink:支持有界流和无界流的统一处理,对流和批处理提供了统一的API。
Spark:虽然也支持流处理(通过Spark Streaming),但其核心仍是批处理,流处理是模拟的。
什么情况下使用Flink

  1. 实时流式应用:对于对延迟敏感的实时流式应用,如实时推荐、网络监控等。
  2. 精确的事件处理:需要精确事件时间处理和严格状态管理的场景,如金融交易、实时监控等。
  3. 大规模批处理:虽然Spark在批处理方面表现优异,但Flink也支持大规模数据的离线批处理,如数据清洗、ETL等。
  4. 交互式分析:支持交互式查询和数据探索,适用于数据科学家和分析师。

Flink的优点

  1. 低延迟:Flink基于事件的逐条处理,能够在毫秒级内完成数据处理,满足实时性要求。
  2. 高吞吐量:通过轻量级的容错机制和高效的资源利用,Flink能够在保持低延迟的同时实现高吞吐量。
  3. 状态管理:支持有状态计算的Exactly-once语义,确保数据处理的准确性和一致性。
  4. 统一API:对流和批处理提供了统一的API,简化了开发复杂度。
  5. 高度灵活:支持多种窗口操作、事件时间语义和轻量级的容错处理,满足复杂场景的需求。
  6. 可扩展性:支持多种部署模式和集群环境,可以轻松扩展到成千上万的节点上。
  7. 强大的生态:提供了丰富的库和API,如CEP(复杂事件处理)、Table API、SQL、FlinkML(机器学习库)等,支持多种应用场景。

Flink backPressure反压机制,指标监控你是怎么做的? 

1、Flink Web UI 自带的反压监控面板:
登录 Flink 集群的 Web 用户界面,可以直观地看到各个 Task 的运行状况,特别是反压情况。反压监控面板会显示哪些 Task 或 Operator 遭遇了反压,以及反压的程度。通过观察这些信息,可以初步定位到可能引起反压的组件。
2、Flink Task Metrics:
Flink 提供了丰富的 Metrics 系统,可以通过任务级别的指标来深入分析反压。关键的反压相关指标包括但不限于:

  1. taskmanager.queue.size: 表示输出队列的大小,如果这个值持续增长,可能表明下游消费速度慢于上游产生速度。
  2. taskmanager.data.output.queue.backpressure-duration: 记录了由于输出队列满而导致的阻塞时间。
  3. taskmanager.backpressure.recorded: 表明是否记录了反压事件。
  4. operator.<subtask>.output.queue.length: 特定Operator输出队列长度,可以帮助定位哪个算子产生了反压。
  5. inPoolUsage 和 outPoolUsage: 指示输入和输出缓冲区的使用率,高利用率可能意味着存在反压。

3、日志和堆栈跟踪:
在某些版本的 Flink 中,可以通过堆栈跟踪采样来监控阻塞的比率,从而辅助确定反压的位置。日志中也可能包含关于反压的直接提示或异常信息。
自定义 Metrics 和日志:
对于特定场景,开发者还可以自定义 Metrics 或在代码中添加日志记录点,以获得更细致的监控信息。
4、使用第三方监控工具:
结合 Prometheus 和 Grafana 或其他监控工具,可以更灵活地展示和报警Flink集群的反压指标,实现可视化监控和实时警报。
通过这些手段综合分析,可以有效地识别出引起反压的具体原因,进而采取相应措施,比如调整并行度、优化算子逻辑、增加资源或调整数据倾斜等,以缓解或消除反压现象。

Flink如何保证一致性? 

1、Checkpointing(检查点机制):
Flink 使用检查点机制周期性地对应用状态进行快照,并记录下所有数据源的读取位置。当发生故障时,系统能够从最近的成功检查点恢复,确保状态的一致性和精确一次(exactly-once)的处理语义。检查点的创建是轻量级的,对正常数据处理的干扰降到最低。
2、Exactly-Once Processing(精确一次处理):
通过结合检查点和两阶段提交(2PC)或更现代的轻量级事务协议,Flink 保证了在处理无界或有界数据流时,每个记录只被处理一次,即使在面对节点故障、网络问题或其他异常情况时也是如此。
3、Watermarks(水位线):
用于处理事件时间(Event Time)语义,水位线帮助系统识别处理进度,并允许在乱序事件流中进行窗口聚合等操作,同时保证结果的准确性。通过水位线,Flink 能够在处理迟到事件时,依然维持结果的一致性。
4、State & Fault Tolerance(状态与容错):
Flink 的状态后端负责存储和管理应用状态,支持多种状态一致性级别和持久化策略,确保状态在故障恢复时的正确性。状态管理机制配合检查点,使得状态能够被精确地恢复。
5、Source & Sink Consistency(数据源与接收端一致性):
Flink 支持与外部系统集成时保持端到端的一致性。例如,Flink CDC 使用一致性快照和事务性写入确保数据捕获和同步过程中的一致性。对于数据源和接收端(sink),Flink 提倡使用支持事务或幂等写入的组件,以确保整体处理流程的端到端一致性。
6、两阶段提交与事务性Sink:
在数据输出阶段,Flink 支持事务型sink,这些sink通过两阶段提交保证数据写入的原子性。数据先被预写到一个临时位置,只有当检查点确认完成时,才正式提交到最终位置,从而确保数据写入的精确一次处理语义。

Flink支持JobMaster的HA?原理是怎么样的? 

1、主备JobManager架构:

  • 在HA配置下,Flink集群中会部署一个leader JobManager和多个standby JobManager。这些JobManager在功能上是等价的,任何JobManager都可以承担leader或standby角色。
  • 当leader JobManager崩溃后,standby JobManager会通过选举机制产生一个新的leader JobManager,接管之前的任务和资源管理职责。

2、选举机制:

  • Flink使用选举服务(LeaderElectionService)来从多个候选者中选出一个leader JobManager。选举服务的具体实现可以依赖于分布式协调系统,如ZooKeeper或Kubernetes ConfigMap。
  • 在ZooKeeper实现中,所有参与选举的JobManager都会尝试在ZooKeeper中创建一个临时节点,最先创建成功的成为leader。临时节点在会话断开后被自动删除,其他standby JobManager可以监听该节点,一旦节点被删除就重新参与竞选。
  • 在Kubernetes实现中,选举则是基于Kubernetes ConfigMap和Etcd来完成的。

3、服务发现:

  • 服务发现(LeaderRetrievalService)用于获取当前leader JobManager的地址。客户端(如JobClient)和TaskManager等组件在需要时可以通过服务发现机制获取leader JobManager的地址,并与之建立连接。
  • 当leader JobManager发生变化时,服务发现机制会及时通知相关组件,确保它们能够连接到新的leader JobManager。

4、状态保存与恢复:

  • 为了在leader JobManager切换后能够恢复之前的状态,Flink会将一些关键状态信息保存在共享存储中(如HDFS、S3或ZooKeeper等)。
  • 这些状态信息包括作业图(JobGraphs)、用户代码jar包、已完成的检查点(Completed Checkpoints)等。
  • 新的leader JobManager在启动时,会从共享存储中读取这些状态信息,并恢复之前的作业状态和资源分配。

5、配置选项:

  • Flink提供了丰富的配置选项来支持JobManager的HA配置,包括HA模式(如ZooKeeper、自定义等)、集群ID、存储路径、监听端口范围等。
  • 这些配置选项可以在Flink的配置文件中进行设置,以便根据实际需求进行灵活配置。

综上所述,Flink通过主备JobManager架构、选举机制、服务发现、状态保存与恢复以及丰富的配置选项等机制来支持JobManager的HA配置,从而确保Flink集群的稳定性和任务的连续性。

引用:https://www.nowcoder.com/discuss/353159520220291072

通义千问、文心一言

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/39284.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Flink实现准确和高效流处理的关键问题

时间相关: Watermark 水位线 水位线是插入到数据流中的一个标记,可以认为是一个特殊的数据。水位线主要的内容是一个时间戳,用来表示当前事件时间的进展。水位线是基于数据的时间戳生成的。水位线的时间戳必须单调递增,以确保任务的事件时间时钟一直向前推进,进展。水位线…

香橙派OrangePi AIpro初体验:当小白拿到一块开发板第一时间会做什么?

文章目录 香橙派OrangePi AIpro初体验&#xff1a;当小白拿到一块高性能AI开发板第一时间会做什么前言一、香橙派OrangePi AIpro概述1.简介2.引脚图开箱图片 二、使用体验1.基础操作2.软件工具分析 三、香橙派OrangePi AIpro.测试Demo1.测试Demo1&#xff1a;录音和播音(USB接口…

渲染100农场如何渲染全景图?渲染100邀请码1a12

全景图的制作需要渲染&#xff0c;以国内知名的渲染农场—渲染100为例&#xff0c;我来说下操作过程。 1、进入渲染100官网&#xff0c;点击右上角注册按钮完成注册&#xff0c;记得邀请码一栏填1a12&#xff0c;有30元礼包和2张免费渲染券。 渲染100官网&#xff1a;http://…

构建LangChain应用程序的示例代码:50、如何在检索-生成 (RAG) 应用中利用多模态大型语言模型 (LLM) 处理包含文本和图像的混合文档的示例

多模态 RAG 许多文档包含多种内容类型&#xff0c;包括文本和图像。 然而&#xff0c;大多数 RAG 应用中&#xff0c;图像中捕获的信息往往被忽略。 随着多模态 LLM 的出现&#xff0c;如 GPT-4V&#xff0c;值得考虑如何在 RAG 中利用图像&#xff1a; 选项 1&#xff1a;…

【实战】EasyExcel实现百万级数据导入导出

文章目录 前言技术积累实战演示实现思路模拟代码测试结果 前言 最近接到一个百万级excel数据导入导出的需求&#xff0c;大概就是我们在进行公众号API群发的时候&#xff0c;需要支持500w以上的openid进行群发&#xff0c;并且可以提供发送openid数据的导出功能。可能有的同学…

Android项目框架

Android项目基于Android Studio开发&#xff0c;Android Studio使用Gradle作为项目构建工具。新建工程后可以看到如图所示目录结构&#xff0c;将Android切成Project可以看到完整的Android工程目录结构&#xff0c;如图所示。 图1-2 Android项目目录结构 app目录是一个典型的…

Profibus转Modbus网关在智能化水处理系统优化改造的应用

一、背景 在现代水处理行业中&#xff0c;智能化系统的应用已经成为提高效率和降低成本的关键。特别是在水厂中&#xff0c;罐内压载水处理系统的自动化和监控对于保障水质安全至关重要。而在这一过程中需要将水泵、阀门、传感器等设备连接到中控系统上。 二、方案 在控制器与…

计算机专业课面试常见问题-编程语言篇

目录 1. 程序的编译执行流程&#xff1f; 2. C浅拷贝和深拷贝的区别&#xff1f; 3. C虚函数&#xff1f; …

教你点出现安装错误 - 0x80070643的修复方法

错误代码 0x80070643 通常与 Windows 更新失败有关&#xff0c;但也可能出现在安装其他 Microsoft 软件&#xff08;例如 Microsoft Office 或 Microsoft .NET Framework&#xff09;时。这个错误可能由多种原因造成&#xff0c;比如权限问题、系统文件损坏、以前安装的残留或防…

thinksboard新建table表格

html文件 <div fxFlex fxLayoutAlign"left top" style"display: block"> <!-- <mat-card appearance"raised" style"max-height: 80vh; overflow-y: auto;">--><div><button mat-raised-button (click)&…

MySQL——Where子句之逻辑运算符

where条件子句 作用&#xff1a;检索数据中符合条件的值 搜索的条件由一个或多个表达式组成&#xff01;返回的结果为布尔值 逻辑运算符 运算符语法描述and &&a and b 或 a && b逻辑与&#xff0c;两个为真&#xff0c;结果为真or ||a or b 或 a || b逻辑或…

6个操作简单又好用的实用办公工具

分享6个操作简单又好用的实用办公工具&#xff0c;手机和电脑上的都有&#xff0c;好好使用可以让工作效率翻倍&#xff01; 1.方方格子 一个大型的的【Excel工具箱】&#xff0c;支持32位和64位Office&#xff0c;可直接作为插件使用&#xff0c;功能覆盖非常全面&#xff0c…

Jmeter 入门指南:从零开始学习

JMeter 是一个非常流行的开源工具&#xff0c;用于进行负载测试。它支持多种网络协议&#xff0c;包括 HTTP、FTP、SMTP、JMS、SOAP、JDBC 等&#xff0c;使其成为在多种应用环境中检测性能瓶颈的理想选择。本文将详细介绍如何利用 JMeter 进行高效的接口自动化测试。 创建和执…

黄金小程序开发的市场分析

在当今数字化时代&#xff0c;互联网技术与传统行业的深度融合正催生出一系列新兴商业模式和市场机遇。黄金行业&#xff0c;作为传统贵金属市场的代表&#xff0c;也在这场变革中迎来了新的发展机遇。黄金小程序的开发&#xff0c;正是这一趋势下的重要产物&#xff0c;它不仅…

Wireshark抓包工具使用

Wireshark抓包工具使用 1. Wireshark工具下载2. Wireshark工具基本配置3. Wireshark过滤语法3.1. 根据源IP过滤3.2. 针对特定的域名进行包过滤3.3. 针对特定的图片格式进行包过滤3.4. 针对特定的Host字段进行过滤4. Wireshark抓包文件保存1. Wireshark工具下载 Windows系统下载…

echarts用pictorialBar实现3D柱状图

先看下效果 实现思路 描绘一个普通的柱状图通过象形柱图&#xff08;pictorialBar&#xff09;在柱状图的顶部添加一个图形类型&#xff08;symbol&#xff09;菱形 代码实现 <template><div id"symbolBar"></div> </template> <scrip…

chunk-vendors.js 优化

问题背景 在 App.vue 加入 web-vitals 性能监控指标并打印 import {onLCP, onINP, onCLS, onTTFB} from web-vitals/attribution;// Measure and log LCP as soon as its available. onLCP(console.log); onINP(console.log); onCLS(console.log); onTTFB(console.log);网页的…

Redis 7.x 系列【14】数据类型之流(Stream)

有道无术&#xff0c;术尚可求&#xff0c;有术无道&#xff0c;止于术。 本系列Redis 版本 7.2.5 源码地址&#xff1a;https://gitee.com/pearl-organization/study-redis-demo 文章目录 1. 概述2. 常用命令2.1 XADD2.2 XRANGE2.3 XREVRANGE2.4 XDEL2.5 XLEN2.6 XREAD2.7 XG…

Linux要解压 .rar 文件,你应该使用 unrar 命令

命令 sudo tar -zxf ~/WebDemo.rar -C /usr/local 有一些问题。tar 命令通常用于解压 .tar、.tar.gz 或 .tar.bz2 文件&#xff0c;而不是 .rar 文件。要解压 .rar 文件&#xff0c;你应该使用 unrar 命令。下面是正确的步骤&#xff1a; 首先&#xff0c;安装 unrar&#xff0…

【自用】CentOS7.6 安装 node-RED 4.0.2 教程(各种坑都摆脱的版本)

步骤总览 1.下载安装 nodejs 2.安装并配置 node-RED 3.重启服务器&#xff0c;验证 node-RED 是否安装 and 配置成功 一、下载安装 nodejs 1.下载 nodejs 18 为什么要下载 nodejs 18 呢&#xff1f; 因为 node-RED 4.0.1 支持的最低 nodejs 版本就是 nodejs 18。 当然了&a…