EMQX 跨域集群:增强可扩展性,打破地域限制

跨域集群的概念

提到 EMQX,人们通常首先会想到它的可扩展性。尽管 EMQX 能随着硬件数量的增加几乎实现线性扩展,但在单个计算实例上的扩展能力终究有限:资源总会耗尽,升级成本也会急剧上升。这时,分布式部署就显得尤为重要。通过在多个计算实例上部署 EMQX 集群节点,可以进一步扩展其能力。得益于 EMQX 强大的集群功能,这项任务变得相对简单。

通过分布式部署,我们不再局限于单一地理位置。我们甚至可以在不同大洲的多个数据中心部署 EMQX 集群,这个过程称为跨域集群(Geo-Distribution)。跨域集群的主要优势在于,当客户端分布在世界各地时,可以让它们连接到最近的 EMQX 实例,从而获得更低的延迟和更高的可靠性,提高整体吞吐量。另一个显著的优势是增强了容错性:如果某个数据中心出现故障,影响的只是部分服务,而不是整个系统。

挑战

然而,任何分布式部署都会带来成本,跨域集群尤其如此。

  1. 实例之间通过网络连接,网络速度相对较慢。

    虽然网络速度并不算非常慢,但比起同一实例上 CPU 核心之间的通信还是要慢得多,后者的延迟以纳秒计,网络引入了延迟。实例之间的距离越远,延迟就越高,这是物理定律使然,我们无法改变,因此,需要在某些方面做出妥协。如果我们希望更靠近某些客户端(他们可能在澳大利亚也可能在巴西),那么有些 EMQX 节点之间的距离必然会增加,导致它们之间的通信速度变慢。在这种情况下,延迟可能会达到几十毫秒。

  2. 网络不够可靠。

    数据包会丢失,连接会因网络拥塞、硬件故障、配置错误甚至恶意活动而中断。两个 EMQX 节点之间距离越远,中间需要经过的网络设备和传输电缆就越多,出现故障的几率就越大。虽然其中一些问题可以通过网络协议栈处理,只会表现为有较高的延迟,但有些问题会影响到应用层,带来许多不确定性。在出现这种故障时,EMQX 节点无法判断是某个远程节点宕机,还是网络异常。这就是所谓的部分故障,可能导致可用性降低。

严格来说,当我们谈论延迟时,还需要考虑吞吐量。即使高延迟网络也可以具有很高的吞吐量,但网络的不可靠性通常会影响高吞吐量的实现。在 TCP 连接中,即使是单个数据包丢失也会显著降低吞吐量,因为 TCP 协议栈需要重新传输数据包,并大幅缩小传输窗口。而且,通信双方距离越远,这种情况发生的频率就越高。

更糟糕的是,原始网络吞吐量对许多客户端来说并不重要。相反,通过 MQTT 协议进行的各种操作的吞吐量才是最重要的,例如消息发布的吞吐量或 SUBSCRIBE 操作的吞吐量。这就是共享状态发挥作用的地方,更重要的是,需要协调这种状态的更新。

由于 MQTT 协议的异步特性,客户端相对独立,因而共享状态的问题并不明显,但它依然存在。为了更好地理解这个问题,让我们首先从设置一个基本的跨域 EMQX 集群开始。

一个跨越 12600 公里的集群

EMQX 5 采用了一种新的部署模型,即集群由两种类型的节点组成:核心节点和复制节点。这种设计旨在支持更广泛的部署场景(包括跨域集群),但也存在一些隐患,我们稍后将对此进行探讨。在这个模型中,核心节点负责管理共享状态的关键部分,而复制节点则只复制核心节点的状态更改,不参与状态管理。

为了更好地理解新模型的优势,我们首先以传统的方式部署一个集群。这个“传统”集群由分布在三个大洲的三个核心节点组成:

位置节点名称
法兰克福 (eu-central-1)emqx@euc1.emqx.dev
香港 (ap-east-1)emqx@ape1.emqx.dev
开普敦 (af-south-1)emqx@afs1.emqx.dev

EMQX Geo-Distribution 1

以下是集群的配置片段,我们可以通过该配置片段更好地理解问题的复杂性,并展示说明我们所做的改进:

broker.routing.storage_schema = v1  # 使用 5.4.0 之前的路由表架构

首先,集群从启动到开始运行所需的时间就暗示这不是个好的方式。日志显示,某些 mria 初始化步骤需要整秒才能完成。

15:11:42.654445 [notice] msg: Starting mria, mfa: mria_app:start/2
15:11:42.657445 [notice] msg: Starting shards, mfa: mria_app:start/2
15:11:47.253059 [info] msg: Setting RLOG shard config, mfa: mria_config:load_shard_config/2, shard: '$mria_meta_shard', tables: ['$mria_rlog_sync',mria_schema]
15:11:48.714293 [info] msg: Setting RLOG shard config, mfa: mria_config:load_shard_config/2, shard: emqx_common_shard, tables: [bpapi,emqx_app,emqx_banned,emqx_trace]
15:11:50.188986 [info] msg: Setting RLOG shard config, mfa: mria_config:load_shard_config/2, shard: emqx_cluster_rpc_shard, tables: [cluster_rpc_commit,cluster_rpc_mfa]
15:11:51.662162 [info] msg: Setting RLOG shard config, mfa: mria_config:load_shard_config/2, shard: emqx_cluster_rpc_shard, tables: [cluster_rpc_commit,cluster_rpc_mfa]
...

为什么会这样?这些节点之间的距离其实并不算远。从 ping 时间中可以看出这一点。

v5.7.0(emqx@euc1.emqx.dev)> timer:tc(net_adm, ping, ['emqx@afs1.emqx.dev']).
{161790,pong}
v5.7.0(emqx@euc1.emqx.dev)> timer:tc(net_adm, ping, ['emqx@ape1.emqx.dev']).
{202801,pong}

确实,数据包从法兰克福到开普敦再返回需要大约 160 毫秒,到香港再返回需要大约 200 毫秒。这是因为 mria 在底层使用 mnesia,而 mnesia 是一个分布式数据库。每个初始化步骤本质上都是一个数据库事务,而每个事务都需要在大多数节点之间进行协调。而每个协调步骤都需要在参与节点之间进行多次往返。在这种情况下,共享状态是数据库模式,这种协调对于确保集群中所有节点的模式一致性是必要的。

考虑到这一点,让我们看看这如何影响单个操作的性能:SUBSCRIBE

延迟的影响

经过几分钟的等待,集群启动成功并可以正常工作了。我们将利用 mqttx-cli 测量连接集群并订阅单个主题所需的时间。

$ mqttx bench sub -h ape1.emqx.dev --count 1 --topic t/mqttx/%i [9:14:29 AM]| Start the subscribe benchmarking, connections: 1, req interval: 10ms, topic: t/mqttx/%i ✔  success  [1/1] - Subscribed to t/mqttx/1 [9:14:30 AM]| Created 1 connections in 0.89s

几乎需要一秒的时间,这显然比 160 或 200 毫秒长。要找到原因,我们需要了解 MQTT 客户端和 Broker 如何进行连接和订阅:

  1. 客户端与 EMQX 建立连接并发送 CONNECT 数据包。

    数据包包含客户端 ID 属性,而规范规定,一个 Broker 在集群中只能有一个具有该 ID 的客户端。这里的关键是“只有一个”。如果多个客户端尝试同时使用相同的客户端 ID 连接到不同的节点,就会产生冲突,应该加以解决。Broker 必须对所有连接的客户端有一个强一致性的视图,这意味着所做的任何更改都必须与大多数节点协调。此外,强一致性是通过全局锁来实现的,而全局锁需要获取操作和释放操作。因此,集群节点必须依次与大多数节点进行两轮通信才能完成这些操作。如果运气不好,集群节点需要与最远的节点进行协调,这个操作将花费两次往返该节点的时间。

  2. 客户端发送 SUBSCRIBE 数据包。

    这个操作相对简单。EMQX 只需要向大多数节点通知该节点上的某人订阅了 t/mqttx/1,以便稍后可以将消息路由到正确的位置。这种类型的更改不需要复杂的协调,因为不可能发生冲突。然而,仍然需要与集群其他节点进行一次往返通信。

总体而言,这个操作应该花费大约 600 毫秒,但由于现实世界中的网络并不完美,客户端可能需要等待 1 秒,这对客户端来说并不理想。那么吞吐量怎么样呢?

$ mqttx bench sub -h ape1.emqx.dev --count 100 --interval 0 --topic t/mqttx/%i
[9:32:19 AM]| Start the subscribe benchmarking, connections: 100, req interval: 0ms, topic: t/mqttx/%i
✔  success   [100/100] - Subscribed to t/mqttx/100
[9:32:21 AM]| Created 100 connections in 1.706s

处理 100 倍的客户端花费了 2 倍的时间。这是个好消息。在这种负载下,客户端基本上是相互独立的,因为每个客户端都使用唯一的客户端 ID 连接并订阅唯一的主题。既然没有冲突,那么时间因素应该是 1 倍,但实际情况并非如此,因为为了安全起见 EMQX 默认情况下会人为地限制并发,使系统能够更可预测地运行。在内部,EMQX 对每个主题的订阅进行序列化,以避免数据竞争并优化不必要的工作,而且默认情况下,用于序列化的进程数量有限。不过好消息是这个限制现在是可配置的,可以增加其数量以适应大规模的部署。

冲突的巨大影响

让我们来看一下当工作负载稍有变化时会发生什么:每个客户端将订阅一个具有共同前缀的唯一主题过滤器。

$ mqttx bench sub -h ape1.emqx.dev --count 1 --topic t/mqttx/+/%i/sub/+/#
[9:48:44 AM]| Start the subscribe benchmarking, connections: 1, req interval: 10ms, topic: t/mqttx/+/%i/sub/+/#
✔  success   [1/1] - Subscribed to t/mqttx/+/1/sub/+/#
[9:48:47 AM]| Created 1 connections in 2.938s

将近 3 秒!罪魁祸首是主题过滤器。EMQX 现在需要在集群中维护一个主题过滤器的索引,以便高效地匹配和路由消息。每当客户端订阅或取消订阅主题时,该索引都会更新,并且该更新需要在所有节点上同步,以确保所有节点上的索引相同。这需要事务处理,事务处理需要协调,而协调需要集群节点之间进行多轮通信,这就涉及大量的网络往返。

尽管延迟很高,但吞吐量应该更好,对吧?

$ mqttx bench sub -h ape1.emqx.dev --count 100 --interval 0 --topic t/mqttx/+/%i/sub/+/#
[9:44:43 AM]| Start the subscribe benchmarking, connections: 100, req interval: 0ms, topic: t/mqttx/+/%i/sub/+/#
✔  success   [100/100] - Subscribed to t/mqttx/+/100/sub/+/#
[9:46:25 AM]| Created 100 connections in 101.958s

看起来并不怎么样。处理 100 个客户端花费了 102 秒。我们失去了并发带来的所有好处,尽管工作负载看起来差不多:具有唯一客户端 ID 的客户端订阅唯一的主题过滤器。产生问题的原因在于旧版 v1 索引的设计。为了快速匹配消息和主题过滤器,索引被组织成一个字典树,EMQX 通过使用共同前缀来保持索引简洁。当客户端订阅 t/mqttx/+/42/sub/+/# 时,EMQX 需要更新 t/mqttx/+/42/sub/+t/mqttx/+ 的记录。问题是,其他客户端的订阅也会导致 t/mqttx/+ 记录的更新,这就会导致冲突。当冲突发生时,mnesia 像传统数据库一样处理它们:锁定记录并进行序列化更新。随着订阅的客户端越来越多,冲突的数量也会增加,解决冲突所需的时间也就越长。

虽然出现连接问题时 TCP 协议栈能够轻而易举地解决。但是如果网络表现出更严重的不稳定性,某些节点将会无法访问,就会导致事务超时。这种性质的事务可能会占用记录上的锁,这些锁将一直被占用到事务超时为止。这将阻塞所有涉及该记录的其他事务,从而使订阅完全停滞。

避免冲突

幸运的是,v1 架构已经不再是默认选项了。新版 v2 架构非常稳健且性能优越,从 EMQX 5.4.0 开始成为默认架构。这个新架构的主要改进在于它是无冲突的:无论您的客户端使用多么复杂的主题过滤器,管理它们都不会涉及写冲突。您再也不用担心订阅中的潜在冲突了。

让我们抛开以前使用的配置,看看 v2 与“传统”配置的对比情况如何。

$ mqttx bench sub -h ape1.emqx.dev --count 100 --interval 0 --topic t/mqttx/+/%i/sub/+/#
[9:46:54 PM] › ℹ  Start the subscribe benchmarking, connections: 100, req interval: 0ms, topic: t/mqttx/+/%i/sub/+/#
✔  success   [100/100] - Subscribed to t/mqttx/+/100/sub/+/#
[9:46:55 PM] › ℹ  Created 100 connections in 1.673s

100 个客户端所花的时间比之前一个客户端所花的时间还要少。

然而,我们仍然远未达到理论上的 600 毫秒极限。诚然,除非我们的网络完美无缺,否则达到这个极限是不现实的。但仍有改进的空间,让我们探索其他方法来降低延迟。

改进手段:复制节点

虽然可以优化工作负载,使其更好地适应我们的部署模型,但无论如何还是需要付出延迟的代价。下面让我们放弃“传统”部署模型,将 EMQX 部署到一个由 3 个共用核心节点和 3 个复制节点组成的集群中,这些节点在地理上分布在相同的三个大洲。

EMQX Geo-Distribution 2

这样,所有代价高昂的状态变化将仅由延迟较低的核心节点承担,而复制节点只需更新状态变化。与之前一样,客户端将连接到最近的节点,不管它是核心节点还是复制节点。

位置节点名称
孟买 (ap-south-1)emqx@core1.emqx.dev emqx@core2.emqx.dev emqx@core3.emqx.dev
法兰克福 (eu-central-1)emqx@euc1.emqx.dev
香港 (ap-east-1)emqx@ape1.emqx.dev
开普敦 (af-south-1)emqx@afs1.emqx.dev

启动并运行!不再需要像以前那样等待几分钟。

我们可以立即看到这种部署模型的好处:不再需要让每个事务等待几次跨越半个地球的往返延时。但延迟仍然存在,因为 EMQX 需要一个接一个地处理 CONNECTSUBSCRIBE 数据包,但现在已经好多了。

$ mqttx bench sub -h ape1.emqx.dev --count 1 --topic t/mqttx/+/%i/sub/+/#
[10:57:44 AM]| Start the subscribe benchmarking, connections: 1, req interval: 10ms, topic: t/mqttx/+/%i/sub/+/#
✔  success   [1/1] - Subscribed to t/mqttx/+/1/sub/+/#
[10:57:45 AM]| Created 1 connections in 0.696s

吞吐量现在也大大提高了,因为事务处理仅在彼此非常接近的核心节点进行。

$ mqttx bench sub -h ape1.emqx.dev --count 100 --interval 0 --topic t/mqttx/+/%i/sub/+/#
[11:04:35 AM]| Start the subscribe benchmarking, connections: 100, req interval: 0ms, topic: t/mqttx/+/%i/sub/+/#
✔  success   [100/100] - Subscribed to t/mqttx/+/100/sub/+/#
[11:04:37 AM]| Created 100 connections in 1.091s

这是一个显著的进步。要知道,一开始 100 个客户端做同样的事情要超过 100 秒。

隐藏延迟

之前提到过,为避免出现竞争条件,吞吐量可能受到默认序列化进程池数量的限制。我们将负载增加 10 倍,来观察这种限制的影响。

$ mqttx bench sub -h ape1.emqx.dev --count 1000 --interval 0 --topic t/mqttx/+/%i/sub/+/#
[11:42:39 PM] › ℹ  Start the subscribe benchmarking, connections: 1000, req interval: 0ms, topic: t/mqttx/+/%i/sub/+/#
✔  success   [1000/1000] - Subscribed to t/mqttx/+/1000/sub/+/#
[11:42:43 PM] › ℹ  Created 1000 connections in 4.329s

网络流量增加了 10 倍,这可能主要是网络故障造成的,但总时间仍比原来少了 4 倍。我们能做得更好吗?值得庆幸的是,我们一直在努力进行另一项改进,并已在 EMQX 5.5.0 版本中发布:批量同步路由表更新。其目的是在通信可靠时更好地利用可用的网络吞吐量,并且不会在操作延迟已经很高时再增加延迟。

此功能尚未默认启用,但启用它非常简单。

broker.routing.batch_sync.enable_on = replicant

这个配置片段仅在复制节点上启用批量同步。将其设置为 all 将在所有节点上启用批量同步,一般来说,这对各种工作负载都有好处,因为 Broker 池不再需要进行额外的同步工作。在我们的案例中,效果不会那么明显,也很难演示说明。

默认值是 none,这样做的原因是为了安全。我们希望提供平滑的滚动升级体验,在 EMQX 5.7.0 之前的版本启用它,例如 5.4.1,可能会导致一些暂时的不可用。如果您从 EMQX 5.5.0 或更高版本升级则无需担心,可立即启用它。

让我们看看现在的情况。

$ mqttx bench sub -h ape1.emqx.dev --count 1000 --interval 0 --topic t/mqttx/+/%i/sub/+/#
[11:46:21 PM] › ℹ  Start the subscribe benchmarking, connections: 1000, req interval: 0ms, topic: t/mqttx/+/%i/sub/+/#
✔  success   [1000/1000] - Subscribed to t/mqttx/+/1000/sub/+/#
[11:46:24 PM] › ℹ  Created 1000 connections in 2.585s

这是一个相当显著的改进。现在网络吞吐量得到了更有效的利用,带来了更好的 SUBSCRIBE 吞吐量。扩大进程池也能达到大致相同的效果,但代价是更多的信息记录和内存使用,而这个新功能更灵活且更易于使用。

为什么我们仍然远未达到理论上的约 600 毫秒极限?因为要处理偶尔出现的网络故障。网络链路可能会出现短暂的拥塞,导致数据包丢失,TCP 协议栈必须在*重传超时(RTO)*后重新传输它们。这在已建立的连接中通常几乎不可察觉,但如果丢失了初始 SYN 数据包,情况就会大不相同。在这种情况下,TCP 协议栈还没有机会估算出最佳 RTO,因此只能从 1 秒的保守默认值开始。回到我们的工作负载,可能大多数客户端都能在几分之一秒内完成连接和订阅,但也有个别客户端因 SYN 数据包丢失而导致总时间增加了一秒。如果我们运气不好的话,可能会增加两秒。

值得一提的是,这种部署模型也需要利弊权衡:集群需要更多的计算资源,并且由于所有核心节点都位于同一个数据中心,对故障的恢复能力会降低。然而,鉴于其带来的好处,这是一个值得做的权衡。此外,由于采用了新的配置选项和新的主题索引设计,我们可以合理地预期,较差的订阅延迟将被吞吐量收益(理论上几乎无限)所抵消。请试用最近发布的 EMQX 5.7.0,该版本中所有这些功能均可使用,并且经过了充分的测试。

如果您正在为跨域集群式应用程序部署这种集群,请务必考虑进一步调整配置。现在有一些额外的配置参数可以提高多区域 EMQX 集群的性能。以下是一个 emqx.conf 示例,为简化起见,将适用于核心节点和复制节点的参数合并在一起。

# Core nodes node.default_bootstrap_batch_size = 10000 # Replicants node.channel_cleanup_batch_size = 10

简要概述这些参数的作用:

  • node.channel_cleanup_batch_size

    适用于复制节点。如果网络延迟较高,将此值从默认的 10,000 大幅减少可以在大量客户端突然断开连接时提高性能。

  • node.default_bootstrap_batch_size

    适用于核心节点。默认值为 500,但可以大幅增加,以减少复制节点加入有许多活动订阅的集群所需的时间。

替代方案

在某些情况下,如此高的延迟是不可接受的。EMQX 为这些情况提供了一种解决方案:与其建立一个跨域集群式的集群,不如在每个区域部署一个独立的集群,并通过异步 MQTT 桥接器连接这些集群。这是一种截然不同的部署模型,虽然需要额外的计算资源和运行开销,但它提供了一个明显的优势:不需要在不同大洲之间维护共享状态。每个集群都有自己的状态,任何由订阅引起的变化都将在本地处理,从而降低延迟。

异步模式下的 MQTT 桥接器设计旨在与外部资源进行交互,从某种程度上说,位于地球另一端的远程 EMQX 集群可以看作是桥接器。桥接器有由内存或持久存储支持的缓冲区,可以处理在不可靠网络中经常遇到的间歇性连接问题。

如果没有对已连接客户端及其订阅的全局视图,就不可能仅将一部分消息路由到特定区域。每个节点上的每个 MQTT 桥接器都必须将整个消息流传输到每个远程位置,从而导致出口带宽达到饱和。这也不可避免地带来信息丢失:桥接后的消息将不再包含原始客户端的信息。此外,要保证相同的桥接信息不会在各大洲之间来回传输,还需要做一些额外的工作。不过,规则引擎应该有足够的能力来处理这个问题。

这些缺点促使我们最近研究了另一种更灵活的解决方案:集群链接(Cluster Linking)。我们的设计目标是将两者的优点结合起来:既具有与外部资源通信的可靠性和稳健性,又能够仅路由特定区域感兴趣的消息,从而避免不必要的带宽和计算资源浪费。此功能将在即将发布的 EMQX Enterprise 5.8.0 版本中亮相。

结语

归根结底,还是要在可接受的权衡中做出选择。我们无法绕过光速的限制,所以必须接受延迟的代价。然而,我们仍然可以通过选择合适的部署模型和优化工作负载来让延迟更容易接受。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/48925.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

JavaScript(11)——对象

对象 声明: let 对象名 { 属性名:属性值, 方法名:函数 } let 对象名 new Object() 对象的操作 先创建一个对象 let op {name:jvav,id:4,num:1001} 查 对象名.属性 console.log(op.name) 对象名[属性名] 改 对象名.属性 新值 op.name …

Pytorch学习笔记day4——训练mnist数据集和初步研读

该来的还是来了hhhhhhhhhh,基本上机器学习的初学者都躲不开这个例子。开源,数据质量高,数据尺寸整齐,问题简单,实在太适合初学者食用了。 今天把代码跑通,趁着周末好好的琢磨一下里面的各种细节。 代码实…

Spring MVC的高级功能——拦截器(三)拦截器的执行流程

一、单个拦截器的执行流程 如果在项目中只定义了一个拦截器,单个拦截器的执行流程如图所示。 二、单个拦截器的执行流程分析 从单个拦截器的执行流程图中可以看出,程序收到请求后,首先会执行拦截器中的preHandle()方法,如果preHa…

bug诞生记——动态库加载错乱导致程序执行异常

大纲 背景问题发生问题猜测和分析过程是不是编译了本工程中的其他代码是不是有缓存是不是编译了非本工程的文件是不是调用了其他可执行文件查看CMakefiles分析源码检查正在运行程序的动态库 解决方案 这个案例发生在我研究ROS 2的测试Demo时发生的。 整体现象是:修改…

聊一聊前端动画的种类,以及动画的触发方式有哪些?

引言 动画在前端开发中扮演着重要的角色。它不仅可以提升用户体验,还可以使界面更加生动和有趣。在这篇文章中,我们将深入探讨前端动画的各种实现方式,包括 CSS 动画、JavaScript 动画、SVG 动画等。我们还将讨论一些触发动画的方式和动画在…

【MQTT(2)】开发一个客户端,ubuntu版本

基本流程如下,先生成Mosquitto的库,然后qt调用库进行开发界面。 文章目录 0 生成库1 有界面的QT版本2 无界面版本 0 生成库 下载源码:https://github.com/eclipse/mosquitto.git 编译ubuntu 版本很简单,安装官方说明直接make&am…

rk3568 OpenHarmony4.1 Launcher定制开发—桌面壁纸替换

Launcher 作为系统人机交互的首要入口,提供应用图标的显示、点击启动、卸载应用,并提供桌面布局设置以及最近任务管理等功能。本文将介绍如何使用Deveco Studio进行单独launcher定制开发、然后编译并下载到开发板,以通过Launcher修改桌面背景…

记录|如何打包C#项目

参考文章: c#窗体应用程序怎么打包 经过检验确实有效 Step1. 生成发布文件 在Visual Studio的菜单中,找到“生成”->“发布” 第一次会有个向导,基本上一路next下来既可以 最后,点击完成即可以 Step2. 获得publish文件 自…

【JavaEE】AQS原理

本文将介绍AQS的简单原理。 首先有个整体认识,全称是 AbstractQueuedSynchronizer,是阻塞式锁和相关的同步器工具的框架。常用的ReentrantLock、Semaphore、CountDownLatch等都有实现它。 本文参考: 深入理解AbstractQueuedSynchronizer只需…

[C++]TinyWebServer

TinyWebServer 文章目录 TinyWebServer1 主体框架2 Buffer2.1 向Buffer写入数据2.2 从Buffer读取数据2.3 动态扩容2.4 从socket中读取数据2.5 具体实现 3 日志系统3.1 生产者-消费者模型3.2 数据一致3.3 代码 4 定时器4.1 调整堆中元素操作4.2 堆的操作4.2.1 增4.2.2 删4.2.3 改…

微信小程序-应用,页面和组件生命周期总结

情景1:小程序冷启动时候的顺序 情景2: 使用navigator(保留并打开另一个页面)和redirect(关闭并打开另一个页面)的执行顺序 情景3:切后台和切前台

Linux——组管理和权限管理

目录 组管理 Linux 组基本介绍 文件/目录所有者 组的创建 查看&修改文件/目录所在组 改变用户所在组 权限管理 基本介绍 rwx 文件/目录权限详解 chmod 修改文件或目录权限 chown 修改文件所有者 组管理 Linux 组基本介绍 关于第二张图中问题,答案…

【Qt】Qt的坐标转换(mapToGlobal)

1、QPoint QWidget::mapToGlobal(const QPoint &pos) const 将小部件坐标转换为全局坐标。mapToGlobal(QPoint(0,0))可以得到小部件左上角像素的全局坐标。2、QPoint QWidget::mapToParent(const QPoint &pos) const 将小部件坐标转换为父部件坐标。如果小部件没有父部…

Jmeter之count函数

counter函数 1、功能解释 count函数--计数器,每调用这个函数一次,它就会自动加1。它有两个参数,第一个参数是布尔型的,只能设置成 “TRUE”或者“FALSE”,如果是TRUE,那么每个用户有自己的计数器&#xf…

常用的网络爬虫工具推荐

在推荐常用的网络爬虫工具时,我们可以根据工具的易用性、功能强大性、用户口碑以及是否支持多种操作系统等多个维度进行考量。以下是一些常用的网络爬虫工具推荐: 1. 八爪鱼 简介:八爪鱼是一款免费且功能强大的网站爬虫,能够满足…

vxe-table——实现切换页码时排序状态的回显问题(ant-design+elementUi中table排序不同时回显的bug)——js技能提升

之前写的后台管理系统,都是用的antdelement,table组件中的【排序】问题是有一定的缺陷的。 想要实现的效果: antv——table组件一次只支持一个参数的排序 如下图: 就算是可以自行将排序字段拼接到列表接口的入参中&#xff0c…

环信+亚马逊云科技服务:助力出海AI社交应用扬帆起航

随着大模型技术的飞速发展,AI智能体的社交体验得到了显著提升,AI社交类应用在全球范围内持续火热。尤其是年轻一代对新技术和新体验的热情,使得AI社交产品在海外市场迅速崛起。作为领先的即时通讯解决方案提供商,环信与亚马逊云科…

计算机体系结构|| 再定序缓冲(ROB)原理(6)

实验6 再定序缓冲(ROB)原理 6.1实验目的 (1)加深对指令级并行性及其开发的理解。 (2)加深对基于硬件的前瞻执行的理解。 (3)掌握 ROB 在流出、执行、写结果确认4 个阶段所进行的…

vue3 -layui项目-左侧导航菜单栏

1.创建目录结构 进入cmd,先cd到项目目录&#xff08;项目vue3-project&#xff09; cd vue3-project mkdir -p src\\views\\home\\components\\menubar 2.创建组件文件 3.编辑menu-item-content.vue <template><template v-if"item.icon"><lay-ic…

SQL injection UNION attacks SQL注入联合查询攻击

通过使用UNION关键字&#xff0c;拼接新的SQL语句从而获得额外的内容&#xff0c;例如 select a,b FROM table1 UNION select c,d FROM table2&#xff0c;可以一次性查询 2行数据&#xff0c;一行是a&#xff0c;b&#xff0c;一行是c&#xff0c;d。 UNION查询必须满足2个条…