深入解析Linux内核网络-拥塞控制系列(一)

谈起网络拥塞控制,大家可能很熟悉八股文中的"加法增大“、”乘法减小“、”慢开始“、“拥塞避免”、“快重传”、“快恢复”等概念。没错,这是一种经典网络拥塞控制算法的基础理论,但在实际的实现时不同的拥塞控制算法,有很大差别。本文从Linux内核源码中学习网络拥塞控制算法的具体实现框架。从当前网络拥塞控制算法的发展历程上看,网络拥塞控制算法的类型主要有以下四种:

  • 基于丢包的拥塞控制算法,这类算法将丢包视为发生了网络拥塞。采取缓慢的探测方式,逐渐增大拥塞窗口,当出现丢包时,将拥塞窗口减少,代表的算法有Tahoe、Reno、NewReno、BIC、Cubic等。
  • 基于延时的拥塞控制算法,这类算法将延时增大视为发生了网络拥塞,延时增大时减少拥塞窗口,延时减少时增大拥塞窗口,代表的算法有Vegas、Westwood等。
  • 基于链路容量的拥塞控制算法,代表算法是BBR,其采用了另类的方式,不再使用丢包、延时等信号去衡量拥塞是否发生,而是直接对网络建模来避免以及应对真实的网络拥塞。
  • 基于学习的拥塞控制算法,这类算法也没有特定的拥塞信号,一般是基于训练数据、评价函数,通过机器学习生成网络拥塞控制策略模型,代表算法有Remy、PCC、Aurora、DRL-CC、Orca等。

由于每类拥塞控制算法的核心理念有很大差别,关于每种算法的实现与原理在后续的文章中进行呈现。本次文章先对Linux内核中网络拥塞控制实现细节、大致框架,进行分析和大概学习。在进行正式的分析前先简单梳理一下常识与概念:

  • 什么是网络拥塞:网络拥塞是指在网络中传输的数据量超过网络链路或节点的处理能力,导致网络延迟增加、丢包率升高和带宽利用率下降的现象。
  • 窗口(Window):如下图的TCP协议头中占据16位,用于接收端告诉发送端还有多少缓冲区可以接收数据。

  • 滑动窗口、发送窗口:下图所示黑色方框代表发送窗口。滑动窗口只是一种形象的称呼,即发送窗口一直移动从而达到发送新的数据的目的,如下图当接收到接收端发来的ACK数据包后发送窗口向右移动。图中灰色的方框代表已经发送且确认的数据,红色代表已发送且刚刚确认的数据,正是因为刚刚确认了5byte的数据,才驱动发送窗口可以向右移动5个单位,使得序号52~56的数据(绿色方框,代表允许发送的待发送数据)可以发送,当37~51区间的数据(蓝色方框,代表发送但未确认的数据包)能够被确认时,发送窗口才能向右滑动。发送窗口前方的数据(黄色方框,不允许发送的待发送数据)只能等待发送窗窗口区间内才能发送。TCP的滑动窗口是动态的,我们可以想象成小学常见的一个数学题,一个水池,体积V,每小时进水量V1,出水量V2。当水池满了就不允许再注入了,如果有个液压系统控制水池大小,那么就可以控制水的注入速率和量。这样的水池就类似TCP的窗口。应用根据自身的处理能力变化,通过本端TCP接收窗口大小控制来对对对端的发送窗口流量限制。

  • 拥塞窗口:上面介绍了发送窗口的概念,在TCP协议中有一个反映网络传输能力的变量,叫做拥塞窗口(congestion window),记作cwnd。发送端实际的发送窗口大小实际是为 接收端通告窗口 rwnd 与 拥塞窗口 cwnd 较小的那个值。
W=min(cwnd,rwnd)

从上面的概念中可以得知,拥塞窗口可以间接反映网络的状况,进而去限制发送窗口的大小。拥塞窗口作为网络拥塞控制中核心变量之一,对网络拥塞控制起到关键作用。如下图是四个核心结构体,四个结构的关系具有面向对象的特征,通过层层继承,实现了类的复用;内核中网络相关的很多函数,参数往往都是struct sock,函数内部依照不同的业务逻辑,将struct sock转换为不同的业务结构。

struct tcp_sockstruct inet_connection_sock结构体的基础上继承而来,在struct inet_connection_sock上增加了一些tcp协议相关的字段,如滑动窗口协议,拥塞算法等一些TCP专有的属性。由于这种继承关系,可以互相转换,如下举例两种转换方式,第一种是struct sock转换为struct tcp_sock,第二种是struct sock转换成struct inet_connection_sock。下面将struct tcp_sock展开可以看到与网络拥塞控制相关的字段。

static inline struct tcp_sock *tcp_sk(const struct sock *sk)
{return (struct tcp_sock *)sk;
}
static inline struct inet_connection_sock *inet_csk(const struct sock *sk)
{return (struct inet_connection_sock *)sk;
}

struct tcp_sock中定义的关于网络拥塞控制相关的字段如下所示:

struct tcp_sock {//在 inet_connection_sock  基础上增加了 滑动窗口 拥塞控制算法等tcp 专有 属性__be32    pred_flags;/*首部预测标志 在接收到 syn 跟新窗口 等时设置此标志 ,此标志和时间戳 序号等 用于判断执行 快速还是慢速路径*/u64    bytes_received;    /* RFC4898 tcpEStatsAppHCThruOctetsReceived* sum(delta(rcv_nxt)), or how many bytes* were acked.*/u32    segs_in;    /* RFC4898 tcpEStatsPerfSegsIn* total number of segments in.*/u32    rcv_nxt;    /* What we want to receive next  等待接收的下一个序列号    */u32    copied_seq;    /* Head of yet unread data        *//* rcv_nxt on last window update sent最早接收但没有确认的序号, 也就是接收窗口的左端,在发送ack的时候, rcv_nxt更新 因此rcv_wup 更新比rcv_nxt 滞后一些  */u32    rcv_wup;    u32    snd_nxt;    /* Next sequence we send 等待发送的下一个序列号        */u32    segs_out;    /* RFC4898 tcpEStatsPerfSegsOut* The total number of segments sent.*/u64    bytes_acked;    /* RFC4898 tcpEStatsAppHCThruOctetsAcked* sum(delta(snd_una)), or how many bytes* were acked.*/struct u64_stats_sync syncp; /* protects 64bit vars (cf tcp_get_info()) */u32    snd_una;    /* First byte we want an ack for  最早一个未被确认的序号    */u32    snd_sml;    /* Last byte of the most recently transmitted small packet  最近发送一个小于mss的最后 一个字节序列号在成功发送, 如果报文小于mss,跟新这个字段 主要用来判断是否启用 nagle 算法*/u32    rcv_tstamp;    /* timestamp of last received ACK (for keepalives)  最近一次收到ack的时间 用于 tcp 保活*/u32    lsndtime;    /* timestamp of last sent data packet (for restart window) 最近一次发送 数据包时间*/u32    last_oow_ack_time;  /* timestamp of last out-of-window ACK */u32    tsoffset;    /* timestamp offset */struct list_head tsq_node; /* anchor in tsq_tasklet.head list */unsigned long    tsq_flags;/* Data for direct copy to user cp 数据到用户进程的控制块 有用户缓存以及其长度 prequeue 队列 其内存*/struct {struct sk_buff_head    prequeue // tcp 段 缓冲到此队列 知道进程主动读取才真正的处理;struct task_struct    *task;struct msghdr        *msg;int            memory;// prequeue 当前消耗的内存int            len;// 用户缓存中 当前可以使用的缓存大小 } ucopy;u32    snd_wl1;    /* Sequence for window update记录跟新发送窗口的那个ack 段号 用来判断是否 需要跟新窗口如果后续收到ack大于snd_wll 则表示需要更新 窗口*/u32    snd_wnd;    /* The window we expect to receive 接收方 提供的窗口大小 也就是发送方窗口大小    */u32    max_window;    /* Maximal window ever seen from peer 接收方通告的最大窗口    */u32    mss_cache;    /* Cached effective mss, not including SACKS  发送方当前有效的mss*/u32    window_clamp;    /* Maximal window to advertise 滑动窗口最大值        */u32    rcv_ssthresh;    /* Current window clamp  当前接收窗口的阈值            */......u32    snd_ssthresh;    /* Slow start size threshold 拥塞控制 满启动阈值        */u32    snd_cwnd;    /* Sending congestion window    当前拥塞窗口大小  ---发送的拥塞窗口    */u32    snd_cwnd_cnt;    /* Linear increase counter    自从上次调整拥塞窗口后 到目前位置接收到的总ack段数 如果该字段为0  表示调整拥塞窗口但是没有收到ack,调整拥塞窗口之后 收到ack段就回让snd_cwnd_cnt 加1 */u32    snd_cwnd_clamp; /* Do not allow snd_cwnd to grow above this  snd_cwnd  的最大值*/u32    snd_cwnd_used;//记录已经从队列发送而没有被ack的段数u32    snd_cwnd_stamp;//记录最近一次检验cwnd 的时间;     拥塞期间 每次会检验cwnd而调节拥塞窗口 ,//在非拥塞期间,为了防止应用层序造成拥塞窗口失效  因此在发送后 有必要检测cwndu32    prior_cwnd;    /* Congestion window at start of Recovery.在进入 Recovery 状态时的拥塞窗口 */u32    prr_delivered;    /* Number of newly delivered packets to在恢复阶段给接收者新发送包的数量* receiver in Recovery. */u32    prr_out;    /* Total number of pkts sent during Recovery.在恢复阶段一共发送的包的数量 */u32    rcv_wnd;    /* Current receiver window 当前接收窗口的大小        */u32    write_seq;    /* Tail(+1) of data held in tcp send buffer   已加入发送队列中的最后一个字节序号*/u32    notsent_lowat;    /* TCP_NOTSENT_LOWAT */u32    pushed_seq;    /* Last pushed seq, required to talk to windows */u32    lost_out;    /* Lost packets丢失的数据报            */u32    sacked_out;    /* SACK'd packets启用 SACK 时,通过 SACK 的 TCP 选项标识已接收到的段的数量。不启用 SACK 时,标识接收到的重复确认的次数,该值在接收到确认新数据段时被清除。            */u32    fackets_out;    /* FACK'd packets    FACK'd packets 记录 SND.UNA 与 (SACK 选项中目前接收方收到的段中最高序号段) 之间的段数。FACK用 SACK 选项来计算丢失在网络中上的段数  lost_out=fackets_out-sacked_out  left_out=fackets_out        *//* from STCP, retrans queue hinting */struct sk_buff* lost_skb_hint; /*在重传队列中, 缓存下次要标志的段*/struct sk_buff *retransmit_skb_hint;/* 表示将要重传的起始包*//* OOO segments go in this list. Note that socket lock must be held,* as we do not use sk_buff_head lock.*/struct sk_buff_head    out_of_order_queue;/* SACKs data, these 2 need to be together (see tcp_options_write) */struct tcp_sack_block duplicate_sack[1]; /* D-SACK block */struct tcp_sack_block selective_acks[4]; /* The SACKS themselves*/struct tcp_sack_block recv_sack_cache[4];struct sk_buff *highest_sack;   /* skb just after the highest* skb with SACKed bit set* (validity guaranteed only if* sacked_out > 0)*/int     lost_cnt_hint;/* 已经标志了多少个段 */u32     retransmit_high;    /* L-bits may be on up to this seqno  表示将要重传的起始包 */u32    prior_ssthresh; /* ssthresh saved at recovery start表示前一个snd_ssthresh得大小    */u32    high_seq;    /* snd_nxt at onset of congestion拥塞开始时,snd_nxt的大----开始拥塞的时候下一个要发送的序号字节*/u32    retrans_stamp;    /* Timestamp of the last retransmit,* also used in SYN-SENT to remember stamp of* the first SYN. */u32    undo_marker;    /* snd_una upon a new recovery episode. 在使用 F-RTO 算法进行发送超时处理,或进入 Recovery 进行重传,或进入 Loss 开始慢启动时,记录当时 SND.UNA, 标记重传起始点。它是检测是否可以进行拥塞控制撤销的条件之一,一般在完成拥塞撤销操作或进入拥塞控制 Loss 状态后会清零。*/int    undo_retrans;    /* number of undoable retransmissions. 在恢复拥塞控制之前可进行撤销的重传段数。在进入 FTRO 算法或 拥塞状态 Loss 时,清零,在重传时计数,是检测是否可以进行拥塞撤销的条件之一。*/u32    total_retrans;    /* Total retransmits for entire connection */u32    urg_seq;    /* Seq of received urgent pointer  紧急数据的序号 所在段的序号和紧急指针相加获得*/unsigned int        keepalive_time;      /* time before keep alive takes place */unsigned int        keepalive_intvl;  /* time interval between keep alive probes */int            linger2;/* Receiver side RTT estimation */struct {u32    rtt;u32    seq;u32    time;} rcv_rtt_est;/* Receiver queue space */struct {int    space;u32    seq;u32    time;} rcvq_space;/* TCP-specific MTU probe information. */struct {u32          probe_seq_start;u32          probe_seq_end;} mtu_probe;u32    mtu_info; /* We received an ICMP_FRAG_NEEDED / ICMPV6_PKT_TOOBIG* while socket was owned by user.*/#ifdef CONFIG_TCP_MD5SIGconst struct tcp_sock_af_ops    *af_specific;struct tcp_md5sig_info    __rcu *md5sig_info;
#endifstruct tcp_fastopen_request *fastopen_req;struct request_sock *fastopen_rsk;u32    *saved_syn;
};

下面看一个特别重要的框架,也可以称为是拥塞控制引擎,如下结构体所示,tcp_congestion_ops描述了一套拥塞控制算法所需要支持的操作。这个框架定义了一些钩子函数,Linux内核中不同的拥塞控制算法根据算法思想实现以下钩子函数,然后进行注册即可完成拥塞控制算法的设计。

 资料直通车:Linux内核源码技术学习路线+视频教程内核源码

学习直通车:Linuxc/c++高级开发【直播公开课】

零声白金VIP体验卡:零声白金VIP体验卡(含基础架构/高性能存储/golang/QT/音视频/Linux内核)

struct tcp_congestion_ops {struct list_head list;u32 key;u32 flags;/* initialize private data (optional) */void (*init)(struct sock *sk);/* cleanup private data  (optional) */void (*release)(struct sock *sk);/* return slow start threshold (required) */u32 (*ssthresh)(struct sock *sk);/* do new cwnd calculation (required) */void (*cong_avoid)(struct sock *sk, u32 ack, u32 acked);/* call before changing ca_state (optional) */void (*set_state)(struct sock *sk, u8 new_state);/* call when cwnd event occurs (optional) */void (*cwnd_event)(struct sock *sk, enum tcp_ca_event ev);/* call when ack arrives (optional) */void (*in_ack_event)(struct sock *sk, u32 flags);/* new value of cwnd after loss (required) */u32  (*undo_cwnd)(struct sock *sk);/* hook for packet ack accounting (optional) */void (*pkts_acked)(struct sock *sk, const struct ack_sample *sample);/* suggest number of segments for each skb to transmit (optional) */u32 (*tso_segs_goal)(struct sock *sk);/* returns the multiplier used in tcp_sndbuf_expand (optional) */u32 (*sndbuf_expand)(struct sock *sk);/* call when packets are delivered to update cwnd and pacing rate,* after all the ca_state processing. (optional)*/void (*cong_control)(struct sock *sk, const struct rate_sample *rs);/* get info for inet_diag (optional) */size_t (*get_info)(struct sock *sk, u32 ext, int *attr,union tcp_cc_info *info);char   name[TCP_CA_NAME_MAX];struct module  *owner;
};

用户可以通过自定义以上钩子函数实现定制拥塞控制算法,并进行注册。以下截取cubic拥塞控制算法对接口的实现、注册的代码片段。可以注意到cubic只实现了拥塞控制引擎tcp_congestion_ops的部分钩子函数,因为有一些钩子函数是必须实现,有一些是根据算法选择实现的。

static struct tcp_congestion_ops cubictcp __read_mostly = {.init  = bictcp_init,.ssthresh = bictcp_recalc_ssthresh,.cong_avoid = bictcp_cong_avoid,.set_state = bictcp_state,.undo_cwnd = tcp_reno_undo_cwnd,.cwnd_event = bictcp_cwnd_event,.pkts_acked     = bictcp_acked,.owner  = THIS_MODULE,.name  = "cubic",
};static int __init cubictcp_register(void)
{BUILD_BUG_ON(sizeof(struct bictcp) > ICSK_CA_PRIV_SIZE);beta_scale = 8*(BICTCP_BETA_SCALE+beta) / 3/ (BICTCP_BETA_SCALE - beta);cube_rtt_scale = (bic_scale * 10); /* 1024*c/rtt */cube_factor = 1ull << (10+3*BICTCP_HZ); /* 2^40 *//* divide by bic_scale and by constant Srtt (100ms) */do_div(cube_factor, bic_scale * 10);return tcp_register_congestion_control(&cubictcp);
}static void __exit cubictcp_unregister(void)
{tcp_unregister_congestion_control(&cubictcp);
}module_init(cubictcp_register);
module_exit(cubictcp_unregister);

在Linux用户态可以通过参数查看当前使用的拥塞控制算法、当前可支持的拥塞控制算法。如下表所示是两个参数以及含义。

法。可以看到当前可支持的拥塞控制算法中包含bbr算法,bbr算法在内核版本4.9开始支持的。

如果留意的话,在本文开始时提到了很多传统的拥塞控制算法,那么在上面的命令中没有看到,其实有众多拥塞控制算法在Linux中没有进行安装,如下命令查看Linux系统中所有已实现的拥塞控制算法模块

如果想安装特定的拥塞控制算法可以通过modprobe命令对指定的拥塞控制算法进行安装,如下所示安装了Vegas拥塞控制算法,此时再查看当前系统中可以使用的拥塞控制算法,多了一个Vegas算法。

除了可以动态查看当前Linux系统可用的拥塞控制算法、当前使用的拥塞控制算法外还可以动态切换拥塞控制算法。如下所示将默认的cubic拥塞控制算法切换为bbr拥塞控制算法。

切换后验证如下,当前运行的拥塞控制算法由之前的cubic拥塞控制算法切换到了bbr拥塞控制算法。

至此本文关于Linux内核网络中拥塞控制的大概框架、原理介绍到这,文中有表达有误或者不准确的地方欢迎指正。关于具体的每个拥塞控制算法的实现,将在后续文章中呈现。

原文作者:技术简说

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/195846.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Redis事务管理

概述 事务的本质是一组命令的集合。一个事务中的所有命令都会按照命令的顺序去执行&#xff0c;而中间不会被其他命令加塞。 执行过程 UNWATCH&#xff1a;解除监控(退出事务的指令也会解除监控) 事务中异常的处理 命令语法错误&#xff1a; 针对语法错误&#xff0c;会导致整…

9、Qt使用随机验证码

一、新建项目 创建一个"Qt Widget Application"项目&#xff0c;基类选择“QMainWindow” 二、自定义CaptchaLabel类 右击项目名&#xff0c;选择"Add New...” C -> CClass&#xff0c;点击“Choose” 更改类名CaptchaLabel&#xff0c;添加基类QLabel&a…

HT7183 高功率异步升压转换器 中文资料

HT7183是一款高功率异步升压转换器&#xff0c;集成120mΩ功率开关管&#xff0c;为便携式系统提供G效的小尺寸处理方案。HT7183具有2.6V至5.5V输入电压范围&#xff0c;可为各类不同供电的应用提供支持。HT7183具备3A开关电流能力&#xff0c;并且能够提供高达16V的输出电压。…

C#/.NET/.NET Core优秀项目和框架2023年11月简报

前言 公众号每月定期推广和分享的C#/.NET/.NET Core优秀项目和框架&#xff08;公众号每周至少推荐两个优秀的项目和框架当然节假日除外&#xff09;&#xff0c;公众号推文有项目和框架的介绍、功能特点以及部分截图等&#xff08;打不开或者打开GitHub很慢的同学可以优先查看…

Python搭建代理IP池实现接口设置与整体调度

目录 前言 1. 搭建免费代理IP爬虫 2. 将获取到的代理IP存储到数据库中 3. 构建一个代理IP池 4. 实现调度器来调度代理IP池 5. 实现带有代理IP池的爬虫 总结 前言 在网络爬虫中&#xff0c;代理IP池是一个非常重要的组件。由于许多网站对单个IP的请求有限制&#xff0c;…

客户满意的黄金法则:10个让您一击即中的服务技巧!

在当今日益竞争激烈的商业世界中&#xff0c;提供出色的客户服务是保持企业成功的关键。无论您是一家大型公司、一家小型创业企业&#xff0c;还是个人品牌&#xff0c;客户服务都是建立持久关系、增加忠诚度和获取推荐的必备条件。 那么&#xff0c;如何做好客户服务呢&#x…

练习11-简单卷积器的设计

简单卷积器的设计 1&#xff0c;任务目的&#xff1a;2&#xff0c;明确设计任务2.1,目前这部分代码两个文件没找到&#xff0c;见第5、6节&#xff0c;待解决中。 &#xff0c;卷积器的设计&#xff0c;RTL&#xff1a;con1.v4&#xff0c;前仿真和后仿真&#xff0c;测试信号…

JVM垃圾回收机制GC

一句话介绍GC&#xff1a; 自动释放不再使用的内存 一、判断对象是否能回收 思路一&#xff1a;引用计数 给这个对象里安排一个计数器&#xff0c; 每次有引用指向它&#xff0c; 就把计数器1&#xff0c; 每次引用被销毁&#xff0c;计数器-1&#xff0c;当计数器为0的时候…

文献速递 | CAR-T细胞助力增强前列腺癌肿瘤细胞抗肿瘤能力

前列腺癌是男性泌尿生殖系统最常见的恶性肿瘤&#xff0c;在全球&#xff0c;前列腺癌的发病率在男性所有恶性肿瘤中高居第2位&#xff0c;仅次于肺癌。免疫检查点分子转化生长因子受体II&#xff08;TGFβRII&#xff09;、T细胞免疫球蛋白和粘蛋白结构域3&#xff08;TIM3&am…

【带讲解】同校不同命,差个代号差好多!

今天分享的是23年哈尔滨工程大学815的信号与系统试题及解析。同样是哈尔滨工程大学&#xff0c;信号部分810着实比815难了很多&#xff01;但是815还有一门电路&#xff0c;压力也不小&#xff0c;两个代号各有利弊&#xff01; 小马哥Tips&#xff1a; 本套试卷难度分析&…

通过流量分析,明确医院重要主机中毒详情

故障现象 医院系统内部发现有一台重要主机持续产生了大量的连接失败数&#xff0c;主机IP为192.xxx.xxx.37&#xff0c;持续时间从2023年11月23日20&#xff1a;00持续到2023年11月24日10&#xff1a;00&#xff0c;十点后管理人员发现并封禁了该IP地址。 分析目的 针对医院…

项目部署到线上服务器后,报 Redis error: ERR unknown command del 错误

查了很多资料&#xff0c;终于解决了&#xff0c;问题出在redis.conf里&#xff0c;该文件里被添加了新的命令如下&#xff1a; 在这几句命令前加 # 号注释掉&#xff0c;重启即可解决 另附上相关redis的命令&#xff1a; 停止Redis&#xff1a;systemctl stop redis启动Redis…

【算法刷题】Day11

文章目录 面试题 08.01. 三步问题题干&#xff1a;算法原理&#xff1a;1、状态表示2、状态转移方程3、初始化4、填表顺序5、返回值 代码&#xff1a; 209. 长度最小的子数组题干&#xff1a;算法原理&#xff1a;1、暴力枚举出所有的子数组的和2、利用单调性&#xff0c;使用“…

大数据项目——基于Django协同过滤算法的房源可视化分析推荐系统的设计与实现

大数据项目——基于Django协同过滤算法的房源可视化分析推荐系统的设计与实现 技术栈&#xff1a;大数据爬虫/机器学习学习算法/数据分析与挖掘/大数据可视化/Django框架/Mysql数据库 本项目基于 Django框架开发的房屋可视化分析推荐系统。这个系统结合了大数据爬虫、机器学习…

100G数据中心升级改造策略

视频流媒体的兴起和物联网设备的大幅增长带来数据量爆炸性增长&#xff0c;人们对算力的需求越来越大&#xff0c;网络的升级改造也成为每个数据中心关注的重点。为了应对网络压力&#xff0c;数据中心需要升级到100G及以上速率&#xff0c;为企业和用户提供高性能计算、存储和…

Python读写XML文件:深入解析与技术实现

目录 一、引言 二、XML文件基础 1、XML文件结构 2、XML文件语法规则 三、Python读取XML文件 1、使用内置库xml.etree.ElementTree 2、使用第三方库lxml 四、Python写入XML文件 1、使用内置库xml.etree.ElementTree 五、注意事项 六、总结 一、引言 XML&#xff08;…

JS前端逆向

前言 js逆向一直没有相关了解&#xff0c;虽然目前渗透遇见的不是很多&#xff0c;大多数遇见的要么不加密&#xff0c;要么无法实现其加密流程&#xff0c;不过最近看到了一个较为简单的站点正好能够逆向出来&#xff0c;就做了简单记录。本文旨在介绍js逆向的一些基础思路&am…

spring cache 学习 —— @Cacheable 使用详解

1. 功能说明 Cacheable 注解在方法上&#xff0c;表示该方法的返回结果是可以缓存的。也就是说&#xff0c;该方法的返回结果会放在缓存中&#xff0c;以便于以后使用相同的参数调用该方法时&#xff0c;会返回缓存中的值&#xff0c;而不会实际执行该方法。 注意&#xff0c;这…

蓝桥杯真题:四平方和

import java.io.*;/*先找后两个数for(int i 0; 2 * i * i < n;i)for(int j i; i * i j * j < n;j ) 再找前两个数 for(int i 0;4 * i * i < n; i )for(int j i;2 * (j * j i * i) < n;j )//这样就可以让后两个数尽量大,前两个数尽量小 这样就可以确定后…

HTML5+CSS3+Vue小实例:浪漫的心形文字动画特效

实例:浪漫的心形文字动画特效 技术栈:HTML+CSS+Vue 效果: 源码: 【HTML】 <!DOCTYPE html> <html><head><meta http-equiv="content-type" content="text/html; charset=utf-8"><meta name="viewport" conte…