【机器学习-05】模型的评估与选择

在前面【机器学习-01】机器学习基本概念与建模流程的文章中我们已经知道了机器学习的一些基本概念和模型构建的流程,本章我们将介绍模型训练出来后如何对模型进行评估和选择等

1、 误差与过拟合

学习器对样本的实际预测结果与真实值之间的差异,我们称之为误差(error)。这个误差在训练集上表现出来的是训练误差(training error),也称为经验误差(empirical error);而在测试集上则是测试误差(test error)。而当我们希望学习器在新样本上也能有良好表现时,需要关注的是其泛化误差(generalization error),即学习器在所有新样本上的误差。

在学习过程中,存在两种可能的问题。一种是学习器对训练集的学习过于深入,以至于把训练样本中的某些特殊性质也当作了普遍规律,这种情况我们称之为过拟合(overfitting)。另一种则是学习器的学习能力不足,连训练集的基本特征都没有完全掌握,这种情况我们称之为欠拟合(underfitting)。

在过拟合的情况下,虽然训练误差很小,但测试误差却可能很大,因为学习器过于依赖训练样本的特殊性质,而无法很好地泛化到新样本。而在欠拟合的情况下,由于学习器连训练集的基本特征都没有学好,因此无论是训练误差还是测试误差都会比较大。

虽然欠拟合问题相对容易解决,例如通过增加迭代次数等方法,但过拟合问题却是机器学习领域面临的一大挑战。目前,我们还没有找到一种完美的解决方案来完全避免过拟合的发生。因此,在机器学习的实践中,我们需要时刻警惕过拟合的可能性,并采取相应的措施来尽可能减少其影响。

2 、评估方法

在现实应用中,我们面临着多种算法的选择,如何确定哪个算法最适合我们的任务呢?我们的目标是找到泛化误差最小的学习器,因为泛化误差可以反映模型在新样本上的性能。但问题是,泛化误差是无法直接获得的,因为它涉及到模型在未知数据上的表现。

为了解决这个问题,我们通常会采用一个与训练集相互独立的“测试集”来评估学习器对新样本的判别能力。我们将测试集上的“测试误差”作为“泛化误差”的一个近似值。这里的关键是,测试集应该尽可能不与训练集重叠,以保证评估的公正性和准确性。

举个例子来说明这个道理:假设老师出了10道练习题供学生们练习,但如果考试的时候还是用这同样的10道题,那么有些学生可能只会做这10道题却能得高分。这样的成绩显然不能真实反映学生的水平。同样地,如果我们用与训练集相同的样本进行测试,那么得到的评估结果就会过于乐观,无法真实反映模型的泛化能力。因此,我们需要一个独立的测试集来评估模型,就像考试需要独立于练习题的试题一样。这样才能更准确地评估模型的性能,选择出最适合我们任务的学习算法。

3、 训练集与测试集的划分方法

如上所述,为了使用“测试集”的“测试误差”来近似“泛化误差”,我们需要对初始数据集进行科学的划分,从而得到相互独立的“训练集”和“测试集”。下面,我们将介绍几种常用的数据集划分方法,这些方法都有助于我们更加准确地评估模型的性能。

3.1 留出法(hold-out)

我们将数据集D分割为两个互不重叠的集合:训练集S和测试集T。这两个集合应满足D=S∪T且S∩T=∅,确保它们之间没有交集。常见的划分比例是,大约2/3到4/5的样本用于训练,而剩下的样本则用于测试。在此过程中,我们要特别注意保持训练集和测试集中数据分布的一致性,避免由于分布差异而引入不必要的偏差。一种常用的做法是采用分层抽样方法。然而,由于划分的随机性,单次划分的结果可能不够稳定。因此,通常我们会进行多次随机划分,并重复实验以获取平均值,从而得到更可靠和稳定的结果。

3.2 交叉验证法

我们将数据集D分割为k个大小相等且互不重叠的子集,确保它们的并集仍为D,且任意两个子集之间无交集。为了保持数据分布的一致性,我们采用分层抽样的策略进行子集的划分。交叉验证法的核心思想在于:每次从k个子集中选择k-1个作为训练集,而剩下的那个子集则作为测试集。这样的划分方式共有k种,因此我们可以进行k次独立的训练和测试。最终,我们将这k次测试的结果取平均值,以得到一个更为稳定和可靠的评估结果。这种方法通常被称为“k折交叉验证”,其中k最常见的取值为10。在下图中,我们给出了10折交叉验证的直观示意图,以便更好地理解这一过程。

在这里插入图片描述

与留出法相似,K折交叉验证在划分数据集D为K个子集时也存在随机性。因此,为了提高评估的稳定性,我们通常会进行p次K折交叉验证,这被称为p次k折交叉验证。一个常见的做法是进行10次10折交叉验证,即总共进行100次独立的训练/测试过程。特别地,当我们将数据集D划分为K个子集,且每个子集中仅包含一个样本时,这种方法被称为“留一法”。尽管留一法的评估结果通常更为准确,但由于其计算成本巨大,对计算机资源的消耗也相当显著。

3.3 自助法

我们的目标是评估使用完整数据集D训练出的模型性能。然而,在留出法和交叉验证法中,由于需要保留部分样本作为测试集,实际用于训练的样本规模会小于D,这可能导致因训练样本大小差异而产生的估计偏差。留一法虽然在一定程度上减少了这种影响,但其计算成本过高。为了解决这个问题,我们引入了“自助法”。

自助法的核心思路是这样的:从包含m个样本的数据集D中,我们反复执行以下步骤m次:每次随机挑选一个样本,将其复制到新的数据集D’中,然后将该样本放回原数据集D。这样,经过m次操作后,我们得到了一个同样包含m个样本的数据集D’。值得注意的是,由于样本在每次挑选后都会被放回,因此同一个样本可能在D’中出现多次,也可能一次都不出现。经过计算,我们可以得知在m次采样过程中,某个样本始终不被选中的概率随着m的增大而趋近于一个特定的值。

lim ⁡ m → ∞ ( 1 − 1 m ) m ⟶ 1 e ≈ 0.368 { \lim_{m\to\infty} \left( 1-\frac{1}{m} \right)^m \longrightarrow\frac{1}{e}\approx0.368 } mlim(1m1)me10.368

通过自助采样法,我们可以从初始样本集D中构建一个新的数据集D’,同时保留那些未出现在D’中的样本作为测试集。由于自助采样的随机性,大约36.8%的初始样本将不会出现在D’中,因此这些未被选中的样本可以构成测试集D-D’。自助法在数据集较小,难以有效划分训练集和测试集时尤为实用。然而,需要注意的是,由于自助法是通过随机抽样来构建数据集的,这可能会改变原始数据集的分布,从而引入一定的估计偏差。因此,在初始数据集足够大且易于划分时,留出法和交叉验证法通常更为常用。

4、 调参

学习算法中往往存在需要设定的参数(parameter) ,这些参数的取值对于模型性能的影响至关重要,我们通常称之为“调参”(parameter tuning)。由于很多参数的取值范围可能非常广泛,完全遍历所有可能取值是不现实的。因此,一种常见的做法是为每个参数设定一个合理的取值范围和步长,这样我们就可以在有限的时间内进行有效的参数调整。

例如,假设我们有一个算法包含三个参数,每个参数只考虑五个候选值。那么,对于每一组训练/测试集,我们就需要评估5^3=125个不同的模型。由此可见,找到一个合适的参数组合对于算法研究人员来说是多么的重要和令人欣喜。

最后,当我们的模型和参数调整都完成后,为了确保模型能够达到最佳的学习效果,我们需要用初始数据集D重新训练模型。这意味着,之前用于评估的测试集也将被用于训练,以进一步增强模型的性能。这就像我们在高中时期,每次考试结束后,都会认真复习试卷上的题目,即使有些题目是之前没见过的,这样也能让我们更好地掌握知识,从而更加自信地面对接下来的学习。

5、 性能度量

性能度量(performance measure)是评估模型泛化能力的关键指标,用于比较不同模型的优劣。在对比不同模型时,采用不同的性能度量方法可能会导致不同的评判结果。本节将重点介绍分类模型的性能度量,除了5.1之外的内容,都将围绕这一主题展开。

5.1 最常见的性能度量

在回归任务中,也就是预测连续数值的问题中,我们通常采用“均方误差”(mean squared error)作为主要的性能度量标准。许多经典的算法都将MSE作为评价函数,想必大家对此都不陌生。

E ( f ; D ) = 1 m ∑ i = 1 m ( f ( x i ) − y i ) 2 E(f;D)=\frac{1}{m}\sum ^ m_{i=1}(f(x_i)-y_i)^2 E(f;D)=m1i=1m(f(xi)yi)2

在分类任务中,也就是预测离散值的问题中,我们最常用的评价指标是错误率和精度。错误率指的是分类错误的样本数占总样本数的比例,而精度则是分类正确的样本数占总样本数的比例。显然,错误率和精度之间存在互补关系,即错误率与精度之和等于1。

E ( f ; D ) = 1 m ∑ i = 1 m ∥ ( f ( x i ) ≠ y i ) E(f;D)=\frac{1}{m}\sum ^ m_{i=1}\parallel(f(x_i) \neq y_i) E(f;D)=m1i=1m(f(xi)=yi)

5.2 查准率/查全率/F1

虽然错误率和精度是分类任务中常用的性能度量方式,但它们并不适用于所有场景。例如,在推荐系统中,我们更关注推送的内容是否真正符合用户的兴趣(即查准率),以及我们是否成功推送了所有用户可能感兴趣的内容(即查全率)。因此,对于这类问题,使用查准率和查全率作为评价指标更为合适。在二分类问题中,我们可以通过构建分类结果的混淆矩阵来明确定义查准率和查全率。
在这里插入图片描述

查准率P与查全率R分别定义为:
P = T P T P + F P P = \frac{TP}{TP+FP} P=TP+FPTP
R = T P T P + F N R = \frac{TP}{TP+FN} R=TP+FNTP

初次接触时,FN和FP的概念确实容易混淆。按照常规思维,我们可能会将FN误解为“False预测为Negative”,即错误地预测为错误的情况,但这样的理解实际上颠倒了FN和TN的意义。后来,我找到了一张非常详细的图解,它清晰地解释了这些概念。
正如天下没有免费的午餐,查准率和查全率是一对矛盾的度量。例如,如果我们希望推送的内容能够完全吸引用户的兴趣,那么可能只会选择那些我们非常确定的内容进行推送,这样就会遗漏一些用户可能也感兴趣的内容,导致查全率降低。相反,如果我们希望确保所有用户感兴趣的内容都能被推送,那么可能需要推送更多的内容,甚至包括那些不那么确定的内容,这样做虽然提高了查全率,但也会导致查准率下降,因为推送中包含了更多用户不感兴趣的内容。

为了更直观地描述查准率和查全率之间的变化关系,我们引入了“P-R曲线”。这条曲线是根据学习器的预测结果对测试样本进行排序后绘制的。我们首先将最有可能是“正例”的样本放在前面,最不可能是“正例”的样本放在后面。然后,按照这个顺序逐个将样本作为“正例”进行预测,并计算每次预测后的查准率(P值)和查全率(R值)。通过这种方式,我们可以得到一条描述查准率和查全率之间关系的曲线,从而更全面地评估学习器的性能。如下图所示:

在这里插入图片描述

那么,如何评估P-R曲线呢?如果学习器A的P-R曲线完全被学习器B的曲线所包围,那么我们可以断定B的性能要优于A。然而,当A和B的曲线出现交叉时,判断性能优劣就变得复杂了。通常,我们会比较两个曲线下的面积,面积较大的学习器性能更优。不过,由于计算曲线下的面积往往比较困难,因此我们引入了“平衡点”(Break-Event Point,简称BEP)的概念。平衡点即查准率与查全率相等时的取值,平衡点越高,说明学习器的性能越好。

在实际应用中,查准率(P)和查全率(R)有时会出现相互矛盾的情况,这就需要我们综合考虑这两个指标。为此,最常用的方法是计算F-Measure,也称为F-Score。F-Measure实际上是P和R的加权调和平均值,通过这一指标,我们可以更全面地评估学习器的性能。F-Measure是P和R的加权调和平均,即:

1 F β = 1 β 2 . ( 1 P + β 2 R ) \frac{1}{F_\beta}=\frac{1}{\beta^2}.(\frac{1}{P}+\frac{\beta^2}{R}) Fβ1=β21.(P1+Rβ2)

特别地,当β=1时,也就是常见的F1度量,是P和R的调和平均,当F1较高时,模型的性能越好。

1 F β = 1 β 2 . ( 1 P + β 2 R ) \frac{1}{F_\beta}=\frac{1}{\beta^2}.(\frac{1}{P}+\frac{\beta^2}{R}) Fβ1=β21.(P1+Rβ2)

F 1 = 2 ∗ P ∗ R P + R = 2 ∗ T P 样本总数 + T P − T N F1=\frac{2*P*R}{P+R}=\frac{2*TP}{样本总数+TP-TN} F1=P+R2PR=样本总数+TPTN2TP

当我们面对多个二分类混淆矩阵时,例如在多次训练或不同数据集上训练得到的结果,我们需要一种方法来估算全局性能。常用的方法有宏观和微观两种。宏观方法首先计算每个混淆矩阵的P值和R值,然后求得平均P值(macro-P)和平均R值(macro-R),最后基于这些平均值计算Fβ或F1。而微观方法则是先计算出所有混淆矩阵的TP、FP、TN、FN的平均值,然后再基于这些平均值计算P、R,并最终求得Fβ或F1。两种方法从不同的角度综合了多个混淆矩阵的信息,以得到全局的性能评估。

m a c r o − P = 1 n ∑ i = 1 m P i macro-P=\frac{1}{n}\sum ^ m_{i=1}P_i macroP=n1i=1mPi
m a c r o − R = 1 n ∑ i = 1 m R i macro-R=\frac{1}{n}\sum ^ m_{i=1}R_i macroR=n1i=1mRi
m a c r o − F 1 = 2 ∗ m a c r o − P ∗ m a c r o − R m a c r o − P + m a c r o − R macro-F1=\frac{2*macro-P*macro-R}{macro-P + macro-R} macroF1=macroP+macroR2macroPmacroR

5.3 ROC与AUC

如前所述,学习器对测试样本的预测结果通常以实值或概率形式给出。当我们设定一个阈值时,预测值大于这个阈值的样本被判断为正例,小于阈值的则判断为负例。因此,这个实值的准确性直接决定了学习器的泛化能力。若我们将这些实值进行排序,排序的质量则反映了学习器的性能水平。ROC曲线正是基于这一思路来评估学习器的泛化性能。与P-R曲线类似,ROC曲线也是按照预测值的排序顺序,逐一将样本视为正例进行预测。但不同之处在于,ROC曲线以“真正例率”(TPR)作为横轴,以“假正例率”(FPR)作为纵轴。ROC曲线更侧重于研究基于测试样本预测值的排序效果,从而评估学习器的性能。

AUC是ROC曲线下的面积

简单分析图像,可以得知:当FN=0时,TN也必须0,反之也成立,我们可以画一个队列,试着使用不同的截断点(即阈值)去分割队列,来分析曲线的形状,(0,0)表示将所有的样本预测为负例,(1,1)则表示将所有的样本预测为正例,(0,1)表示正例全部出现在负例之前的理想情况,(1,0)则表示负例全部出现在正例之前的最差情况。限于篇幅,这里不再论述。

现实中的任务通常都是有限个测试样本,因此只能绘制出近似ROC曲线。绘制方法:首先根据测试样本的评估值对测试样本排序,接着按照以下规则进行绘制。

同样地,进行模型的性能比较时,若一个学习器A的ROC曲线被另一个学习器B的ROC曲线完全包住,则称B的性能优于A。若A和B的曲线发生了交叉,则谁的曲线下的面积大,谁的性能更优。ROC曲线下的面积定义为AUC(Area Uder ROC Curve),不同于P-R的是,这里的AUC是可估算的,即AOC曲线下每一个小矩形的面积之和。易知:AUC越大,证明排序的质量越好,AUC为1时,证明所有正例排在了负例的前面,AUC为0时,所有的负例排在了正例的前面。

6、比较检验

在比较学习器泛化性能的过程中,统计假设检验(hypothesis test)为学习器性能比较提供了重要依据,即若A在某测试集上的性能优于B,那A学习器比B好的把握有多大。 为方便论述,本篇中都是以“错误率”作为性能度量的标准。

6.1 假设检验

“假设”指的是对样本总体的分布或已知分布中某个参数值的一种猜想,例如:假设总体服从泊松分布,或假设正态总体的期望u=u0。回到本篇中,我们可以通过测试获得测试错误率,但直观上测试错误率和泛化错误率相差不会太远,因此可以通过测试错误率来推测泛化错误率的分布,这就是一种假设检验。
在这里插入图片描述
在这里插入图片描述

7、 偏差与方差

偏差-方差分解是解释学习器泛化性能的重要工具。在学习算法中,偏差指的是预测的期望值与真实值的偏差,方差则是每一次预测值与预测值得期望之间的差均方。实际上,偏差体现了学习器预测的准确度,而方差体现了学习器预测的稳定性。通过对泛化误差的进行分解,可以得到:

期望泛化误差=方差+偏差
偏差刻画学习器的拟合能力
方差体现学习器的稳定性
易知:方差和偏差具有矛盾性,这就是常说的偏差-方差窘境(bias-variance dilamma),随着训练程度的提升,期望预测值与真实值之间的差异越来越小,即偏差越来越小,但是另一方面,随着训练程度加大,学习算法对数据集的波动越来越敏感,方差值越来越大。换句话说:在欠拟合时,偏差主导泛化误差,而训练到一定程度后,偏差越来越小,方差主导了泛化误差。因此训练也不要贪杯,适度辄止。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/757609.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

一次完整的 HTTP 请求所经历的步骤

1: DNS 解析(通过访问的域名找出其 IP 地址,递归搜索)。 2: HTTP 请求,当输入一个请求时,建立一个 Socket 连接发起 TCP的 3 次握手。如果是 HTTPS 请求,会略微有不同。 3: 客户端向服务器发…

Redis 搭建主从集群

文章目录 1. 主从集群架构1.1 准备实例和配置1.2 启动1.3 开启主从关系1.4 测试 2. 主从同步原理2.1 全量同步2.2 增量同步repl_backlog原理 2.3 主从同步优化小结 单节点的 Redis 并发能力有限,要进一步提高 Redis 的并发能力,就需要搭建主从集群&#…

杰发科技AC7801——Flash数据读取

0. 简介 因为需要对Flash做CRC校验&#xff0c;第一步先把flash数据读出来。 1. 代码 代码如下所示 #include "ac780x_eflash.h" #include "string.h" #define TestSize 1024 ///< 4K #define TestAddressStart 0x08000000 uint8_t Data[7000]; int…

<DFS剪枝>数字王国之军训排队

DFS剪枝 其实就是将搜索过程一些不必要的部分直接剔除掉。 剪枝是回溯法的一种重要优化手段&#xff0c;往往需要先写一个暴力搜索&#xff0c;然后找到某些特殊的数学关系&#xff0c;或者逻辑关系&#xff0c;通过它们的约束让搜索树尽可能浅而小&#xff0c;从而达到降低时间…

MAC地址(静态、黑洞、优先级)

拓扑图 配置 1&#xff09;静态MAC地址配置 mac-address learning disable命令用来关闭MAC地址学习功能。 关闭MAC地址学习功能后&#xff0c;设备将不会再从该接口学习新的MAC地址。关闭MAC地址学习后可配置的动作有discard和forward。 关闭MAC地址学习功能的缺省动作为fo…

NSS [SWPUCTF 2022 新生赛]ez_ez_unserialize

NSS [SWPUCTF 2022 新生赛]ez_ez_unserialize 开题&#xff0c;直接给了题目源码。 简单看了一下&#xff0c;题目告诉我们flag在哪&#xff0c;而且类中有高亮文件方法。怎么拿flag已经很明显了。关键点在于__weakup()魔术方法固定死了我们高亮的文件。所以这题只需要绕过__w…

【故障排查】10分钟解决Quartz重复调度的疑难杂症

我司使用Apache DolphinScheduler作为调度框架很久了&#xff0c;感兴趣的小伙伴可以看看这些干货文章&#xff1a; 因为之前监控到会出现重复的调度的问题&#xff0c;所以此文记录排查重复调度问题的全过程&#xff0c;希望对社区其他的小伙伴能够起到抛砖引玉的作用&#x…

【学习】python函数语法(面像对象、封装函数)

阅读开源深度学习源码的时候&#xff0c;使用到了很多封装函数以及Python的高级语法&#xff0c;看起来很混乱很痛苦很困难。对python函数语法做个总结&#xff01;&#xff01;&#xff01; Table of Contents 熟练Python语法&#xff0c;尤其是函数参数、迭代器与生成器、函…

使用Redis做缓存的小案例

如果不了解Redis&#xff0c;可以查看本人博客&#xff1a;Redis入门 Redis基于内存&#xff0c;因此查询速度快&#xff0c;常常可以用来作为缓存使用&#xff0c;缓存就是我们在内存中开辟一段区域来存储我们查询比较频繁的数据&#xff0c;这样&#xff0c;我们在下一次查询…

C#,图论与图算法,有向图(Directed Graph)的环(Cycle)的普通判断算法与源代码

1 检查该图是否包含循环 给定一个有向图,检查该图是否包含循环。如果给定的图形至少包含一个循环,则函数应返回true,否则返回false。 方法:深度优先遍历可用于检测图中的循环。连接图的DFS生成树。只有当图中存在后缘时,图中才存在循环。后边是从节点到自身(自循环)或…

[视觉基础知识]: img to bev # include bev seg

参考&#xff1a;https://towardsdatascience.com/monocular-birds-eye-view-semantic-segmentation-for-autonomous-driving-ee2f771afb59 有源传感器&#xff08;lidar or radar&#xff09;得到的数据&#xff0c;天然就是一种bev表示&#xff08;x-y平面&#xff09;&#…

想速成AD?凡亿教育正式上线《Altium Designer 24:150讲操作速成实战课程》

随着电子技术的不断发展,芯片生产工艺迭代更新,印制电路板(PCB)结构日益复杂,从最早的单片机到双面板,再到复杂的多层板结构,电路板上的布线密度越来越高。 同时,随着DSP、ARM、FPGA、DDR等高速逻辑元件的应用,PCB的信号完整性和抗干扰性能显得尤为重要,光靠EDA软件的自动布线…

LeetCode每日一题 翻转二叉树(二叉树)

题目描述 给你一棵二叉树的根节点 root &#xff0c;翻转这棵二叉树&#xff0c;并返回其根节点。 示例 1&#xff1a; 输入&#xff1a;root [4,2,7,1,3,6,9] 输出&#xff1a;[4,7,2,9,6,3,1] 示例 2&#xff1a; 输入&#xff1a;root [2,1,3] 输出&#xff1a;[2,3,1]示…

Mistral AI vs. Meta:两大 Top 开源模型的对比

编者按&#xff1a; 随着大模型的不断升级和参数量的持续扩大&#xff0c;越来越多人开始重视大模型存在的硬件资源要求高、碳排放量较大等问题。如何在保持模型性能的同时&#xff0c;降低计算成本和资源消耗&#xff0c;成为了业界一个迫切需要解决的问题。 我们今天为大家带…

Servlet使用

文章目录 简介一、快速入门二、Servlet 执行流程三、Servlet 生命周期四、Servlet 方法介绍五、Servlet 体系结构六、Servlet urlPattern配置七、XML 配置方式编写 Servlet 简介 一、快速入门 <dependencies><dependency><groupId>javax.servlet</groupId…

个人网站制作 Part 9 添加发布、管理博客功能 | Web开发项目

文章目录 &#x1f469;‍&#x1f4bb; 基础Web开发练手项目系列&#xff1a;个人网站制作&#x1f680; 添加博客功能&#x1f528;使用Express和MongoDB&#x1f527;步骤 1: 创建博客模型&#x1f527;步骤 2: 创建博客路由 &#x1f528;使用前端框架&#x1f527;步骤 3:…

外包干了28天,技术退步明显......

说一下自己的情况&#xff0c;本科生&#xff0c;19年通过校招进入深圳某软件公司&#xff0c;干了接近4年的功能测试&#xff0c;今年年初&#xff0c;感觉自己不能够在这样下去了&#xff0c;长时间呆在一个舒适的环境会让一个人堕落!而我已经在一个企业干了四年的功能测试&a…

Testng框架集成新业务

总体框架设计见我另一篇博客&#xff1a;httpclienttestng接口自动化整体框架设计 <block&#xff1a;表示测试用例块> block后面是 测试用例的名称 ||接口名,该接口名在URL.txt里维护接口 ||get\post&#xff1a;表示请求的方法 get_1\2\3\4&#xff1a;代表加密 get: …

【保姆级教程】如何拥有GPT?(Proton邮箱版)

OnlyFans 订阅教程移步&#xff1a;【保姆级】2024年最新Onlyfans订阅教程 Midjourney 订阅教程移步&#xff1a; 【一看就会】五分钟完成MidJourney订阅 GPT-4.0 升级教程移步&#xff1a;五分钟开通GPT4.0 如果你需要使用Wildcard开通GPT4、Midjourney或是Onlyfans的话&am…

排序算法之选择排序介绍

目录 算法简介 算法描述 代码实现 算法简介 选择排序(Selection-sort)是一种简单直观的排序算法。它的工作原理&#xff1a;首先在未排序序列中找到最小&#xff08;大&#xff09;元素&#xff0c;存放到排序序列的起始位置&#xff0c;然后&#xff0c;再从剩余未排序元素…