超详细——集成学习——Adaboost——笔记

资料参考 

1.【集成学习】boosting与bagging_哔哩哔哩_bilibili

集成学习——boosting与bagging

强学习器:效果好,模型复杂

弱学习器:效果不是很好,模型简单

优点

        集成学习通过将多个学习器进行结合,常可获得比单一学习器显著优越的泛化性能。

集成学习算法需要关注的问题

        1、个体学习器如何训练得到?改变训练数据或概率分布如何改变?

        2、如何将个体学习器组合?

分类

        boosting

        个体学习器存在强依赖关系、必须串行生成序列化方法。

工作机制:

 一、提高那些在前一轮被弱分类器分错的样本权值,减小那些在前一轮被弱分类器分对的样本的权值,使误分的样本在后续受到更多的关注。体现了串行

 二、加法模型将弱分类器进行线性组合。

 举例:

        比如我们现在要去参加期末考,有三个科目。假设你有三个分身,分身A学习语文的成绩比较好,但是数学跟英语的学习比较差。这个时候我们就派分身B上场,我们可以减少他学习语文的时间,增加他学习英语数学的时间,但是我们又发现他数学学的不错,但是语文跟英语学的不好。所以这时候我们就用分身C,同样,我们加大其对英语的学习力度,减少其对语文数学的学习比重,所以学习出来就是英语学的比较好,等到我们期末考的时候我们再将其收回来也就是说组合起来再去参加期末考,这样一来语文数学英语都能得到比较高的分数。

所谓的加法模型其实就是给这些学习器附上一个相应的权重,通过相加让他们组合起来。

代表算法:

Adaboost

GBDT

XGBoost

LightGBM

bagging

个体学习器间不存在强依赖关系、可同时生成并行化方法。

        工作机制:
一、原始样本集中抽出k个训练集。
回答了我们上面所提到问题:改变训练数据或概率分布如何改变?

        意思就是假如我们这里有k个弱学习器,那我们就会抽取k个训练集

分配给这k个学习器去进行学习,他抽样过程中所采取的抽样方式是有放回抽样。

 1、有放回抽样:每轮从原始样本集中使用Bootstraping法(即自助法,是一种有放回的抽样方法可能抽到重复的样本)抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中.共进行k轮抽取,得到k个训练集.(k个训练集相互独立)

2、随机森林中,还会随即抽取一定数量的特征

 二、k个训练集分别训练,得到共k个模型体现了并行。

        

三、将上步得到的k个模型,通过一定方式组合起来。

        1、分类问题:将上步得到的k个模型采用投票的方式得到分类结果,因为我们每个人学到的东西都不一样,面对一个问题的时候,大家就需要通过投票去进行表决,有的人票权比较大 ,有的人票权就比较小,也是一种线性加权的方式组合起来。

        2、回归问题:

计算上述模型的均值作为最后的结果。

                举例:

我们上面提到我们需要给这个数据集有放回的进行采样,比如我们第一个数据集采的是第一个跟第三个样本,构建了我第一个数据集。

采样的时候他除了随机采样之外,他还会对特征进行采样,比如他随机采样了这两个特征。

最后我们的数据集拿到的是这四个格子组成的数据,也就是说他加上了对特征的随机采样。那这就是第一步,采集数据。

将我们这k个训练集分别训练,得到共k个模型,体现了并行,这几个学习器之间是互不影响的,我们可以去同时执行。这就解决了我们上面提到的第一个问题

代表:

随机森林

Adaboost

解决的是二分类问题

        数学表达:

首先其整体的模型采用的是加法模型

这里的G_{1}(X)G_{m}(X)都是弱分类器,也叫做基分类器 。

1、在每一轮中,分别记录好那些被当前弱分类器正确分类错误分类样本在下一轮训练时,提高错误分类样本的权值,同时降低正确分类样本的权值,用以训练新的弱分类器
这样一来,那些没有得到正确分类的数据,由于其权值加大,会受到后一轮的弱分类器的更大关注。

2、加权多数表决:加大分类误差率小的弱分类器的权值,使其在表决中起较大作用。减小分类误差率大的弱分类器的权值,在其表决中起较小的作用。



如何理解权值?

比如在这里我们这一开始三个样本的权值所占的比例都是一样的,都是1/3,假设经过第一轮的学习之后,其成功的将后面的(x_{2},y_{2}),(x_{3},y_{3})这两个样本进行了正确的分类,所以第二轮的时候我们就将第二轮的比例调为了1/6.学习错误的样本 ,我们就将其调整到2/3。也就调到了下面这样的样本。也就是说相当于我们改变了样本的数量,也就是我们将没有正确训练的样本的数量将其增多了。然后这两个正确分类的数量,占比就变少了。在学习的过程中,我们就会更关注被分类错误的样本。

再回到这里,我们的权值也会受到我们的分类误差率的影响,当我们的G_{m}\left ( X \right )分类误差率小的的时候就会给一个较大的权重\alpha _{m},这样做就会在最后做表决的时候起到的作用更大。

算法流程:

二分类训练数据集:

这个数据集就是T。这里面有N个训练样本。x就是我们的实例,也相当于我们的特征值。y指的是我们的标签值,因为我们这里做的是二分类,所以这里就只有两类,这里就分别为\left \{-1,+1 \right \}这两类。

定义基分类器(弱分类器)G_{\left (x \right )}

一般来讲我们这里的G_{1}\left ( x \right )G_{m}\left ( x \right )他们一般都属于同一种类型,我可以是逻辑回归,也可以是决策树。通常来讲,在你指定了基分类器具体是哪一个之后,G_{1}\left ( x \right )G_{m}\left ( x \right )用的就都是同一种。比如你这里G_{1}\left ( x \right )是逻辑回归了,那这里就都是逻辑回归了。

在我们的基分类器定下来之后,他的之后的随之的方法也就确定下来了,比如当我们的G_{}\left ( x \right )是逻辑回归的时候,我们就可以用交叉熵损失和梯度下降来进行训练,

,我们的书上也有这样一个最简单的二分类取值器,也就是说它只需要去给定一个阈值,当我们的X大于这个阈值的时候他就为1,小于这个值的时候就为-1.通过这个阈值来进行划分。这也是我们最简单的一种分类器了。

循环M次:

在上面两个都准备好了之后,我们就可以去训练我们的模型。

循环m次就是说,我们每一次去训练一个基分类器以及他的权重,然后我们有m个所以这里我们就循环m次。

1、初始化/更新当前训练数据的权值分布:

if初始化,初始化的时候我们就用D1这个权值来表示,

每一个样本我们都给其赋了权值,我们认为其是均匀的,1/N,

更新数据的权值分布:

之前我们是计算了G_{1}\left ( X \right ),之前的数据是进行了一个权值的初始化,之后我们的G_{2}\left ( X \right )需要用到的数据就不一样,我那么知道我们要提高前一轮“错误分类"的样本的权值,降低前一轮"正确分类"的样本的权值以此来构建我们的训练样本去训练我们G_{2}\left ( X \right ),如果我们不是第一次了我们就是执行我们样本更新。

这里我们D_{m}的这个m下标表示的就是第几个弱分类器训练样本的权值,然后我们这里有N个样本,每个样本都会有它的权值,这里的重点就是我们w_{m,i}这个权值的更新的这个公式,我们也可以清楚的看到这是一个递推公式,它的更新跟前一轮的权值是有关系的,看着比较复杂,但是目的就是为了满足我们下面绿色的那些字。

解释w_{m,i}

也就是说,当我们是正确分类的时候(假设为二分类问题,正确分类的标签值为1),我们的弱分类器G_{m-1}\left ( x_{i} \right )得出来的结果跟我们的标签值y_{i}是同号的,所以\frac{w_{m-1}}{Z_{m-1}}exp(-\alpha_{m-1} y_{i}G_{m-1}\left ( x_{i} \right ))=\frac{w_{m-1}}{Z_{m-1}}e^{-\alpha_{m-1} },如果是异号的那就是上图下面的结果。

我们也提到了我们的\alpha肯定也是大于0小于等于1/2的,

当我们分类正确时,当前面加了符号之后呢这个整体就是一个小于1大于0的数。

当我们分类错误时,这个整体就是大于1的

我们再来看我们的规范化因子

规范化因子

上图我们针对的是某一个样本,在下图我们针对的是所有的样本

在下图中我们将所有样本的分子部分加起来,本质上相当于是一个归一化的操作 

 其实 就是将我们下面红色部分映射到0到1之间的范围,也就相当于一个归一化的操作

2、训练当前基础分类器G_{m}\left (X \right )

紧接着我们就要拿训练的样本去训练,使用具有权值分布D_{m}的训练数据集学习,得到基分类器G_{m}\left (X \right ),那么我们应该如何训练呢,具体怎么训练就应该看我们当初选择的基分类器的类型是什么样的,如果我们用的是逻辑回归,那么我们用的就是交叉熵损失作为我们的损失函数,训练好了之后我们就要去计算我们的权值\alpha _{m}

3、计算当前基分类器的权值\alpha _{m}:

我们知道我们的\alpha _{m}由我们的分类误差率所决定,比如我我们的分类误差率比较大的话就得让我们的\alpha _{m}比较小,如果分类误差率比较小的话就说明比较准。

第一步:

所以我们先计算当前G_{m}\left ( X \right )在训练数据集上的分类误差率

这个就是我们的公式,当我们的G_{m}\left (x_{i} \right )的结果不等于我们真实值标签y_{i}的时候就说明我们分类错误了。这里面I的含义就是当括号里的条件满足的时候,这个I的值就是1,表达的意思就是在我们1到N那么多个样本里面,我们要找到他分类错误的这些点,然后让他们这些样本点的这些权值让他们加起来,这里的w_{mi}指的就是我们的权值,即样本数据的权值部分,如下图所示。所以进一步的可以写成我们最右边的那个式子。

代表的就是分类错误的那些点的权值给他进行一个相加求和。

但这里我们值得一提的是我们这里分类误差e_{m}的范围,其范围也是确定的。

这里我们的e_{m}>0我们不再解释,这里的≤0.5是如何来的呢,比如说当我们的G_{m}\left (X \right )训练出来的一个模型去做预测的时候,跟我们的的y呈现的是上图这样的关系,比如他预测的时候错了三个,只有一个是预测对了,又因为我们这里是二分类的问题,所以我们的G_{m}\left (X \right )不是-1就是1,所以我们只需要在G_{m}\left ( X\right )前面加一个负号就会从上面变换到下面的1,1,1。也就是说我们将从三个错误的结果当中变成了三个正确的一个错误的,也就是说我们 分类误差率从原本的3/4变到了1/4。也就是当我们的分类误差率大于0.5的时候就可以得到一个小于等于0.5的一个数,所以这个范围就是小于等于0.5。

将我们的分率误差率e_{m}计算出来就可以计算我们的\alpha _{m}

在这里我们对这个公式进行分析

我们画一下这个的函数图像,这里的e_{m}是未知数

然后我们又知道e_{m}是满足

故函数图像为,带入我们的e_{m}=1/2。得到他的值为1

,由上面e_{m}的定义域可以知道我们蓝色部分就是当前讨论函数的取值范围,然后我们继续探讨log的部分。

这个就是我们log的图像,然后我们的为大于等于1,所以我们的

log的部分就可以这样画。

所以他的值域就在上面的部分我们也知道\alpha _{m}就是大于等于0的。

故我们的图像也会往右边移动,所以我们的\alpha _{m}就会跟着变大

4、将\alpha _{m}G_{m}\left ( x \right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件:

分类器个数是否达到M:比如可以设置我们M的值,到达了循环三次,M为3,我们就退出。或者给定一个精度,当我们的准确率sign\left [ f\left ( x \right ) \right ]到达了多少的时候我们就去退出。

总分类器误差率是否低于设定的精度:因为我们这里的f\left ( x \right )他最终算出来的其实是一个数,他不是某一个类别,所以我们需要通过一个函数sign去转换到我们所需要的一个类别,比如说我们在这里sign\left [ f\left ( x \right ) \right ],它的f\left ( x \right )≥0的时候,那我们最终的结果就是1,当f\left ( x \right )<0的时候分配出来的结果就是-1。

假设我们这里循环退出的条件并没有达到,也就是说m=1的时候,那我们就接着进行第二次循环去计算G_{2}(X),我们回到上面的更新。

例题:

二分类训练数据集:

首先我们有一个二分类的训练数据集,我们需要去运用adaboost去训练出一个二分类的学习器,能够根据他给出的x能够去判断出他给出的y值是属于1还是-1

定义基分类器(弱分类器):

G\left ( X \right ),我们就采用这种最简单的二分类学习器,也就是给定义一个阈值,通过这个阈值去判断。

训练方法:

在x中划分出候选阈值,从中选出使得误差率e_{m}最小的,作为我们的最终阈值构建好G\left ( X \right )

循环M次:

m=1时:

1、初始化/更新当前[训练数据的权值分布]

if初始化:

D_{1}=\left ( w_{11}, w_{12},..., w_{110}\right )

看到我们的训练数据,可以肯定的是一个均值分布,所以是w_{1i}就是1/10

w_{1i}=0.1,i=1,2,...,10

if更新:

2、训练当前基分类器

使用具有权值分布D_{m}的训练数据集学习,得到基分类器G_{m}\left (X \right )

训练方法:在x中划分出各候选阈值,构建好各候选G_{m}\left ( X \right )。找到使误差率e_{m}最小的G_{m}\left (X \right ),作为本轮的基分类器

3、计算当前基分类器的权值

计算当前G_{m}\left ( X \right )在训练数据集上的[分类误差率]

根据这个表可以看出来,绿色部分就是我们分类错误的部分

根据分类误差率e_{m},计算基分类器G_{m}\left ( X \right )的权重系数

 

4、将\alpha _{m}G_{m}\left ( x\right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件

①分类器个数是否达到M

②总分类器误差率是否低于设定的精度

在这里我们使用第二个

因为这一题的最终答案是可以做到最终完全是零错误的,所以就还没有达到我们的精度要求,所以我们就继续进行下一个循环

m=2时:

1、初始化/更新当前[训练数据的权值分布]

if初始化:

将我们上一轮得到的\alpha还有G_{m}\left ( X \right )还有y_{i},还有上一轮样本数据的权值带入就可以的出来就可以得到D_{2}

if更新:

上图就是我们算出来的一个结果,就是这些

2、训练当前基分类器

使用具有权值分布D_{m}的训练数据集学习,得到基分类器G_{m}\left (X \right )

训练方法:在x中划分出各候选阈值,构建好各候选G_{m}\left ( X \right )。找到使误差率e_{m}最小的G_{m}\left (X \right ),作为本轮的基分类器

3、计算当前基分类器的权值

计算当前G_{m}\left ( X \right )在训练数据集上的[分类误差率]

我们G_{2}\left ( X \right )这个分类器还是存在着三个错误分类的点,然后我们将三个错误分类的点 三个权值给他加起来得到了e_{m}

 根据分类误差率e_{m},计算基分类器G_{m}\left ( X \right )的权重系数

4、将\alpha _{m}G_{m}\left ( x\right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件

①分类器个数是否达到M

②总分类器误差率是否低于设定的精度

在这里我们还是有三个错误分类的点,所以还是没有达到我们的要求,之前我们也说过这是可以达到我们的百分百分类的,所以我们继续进行循环。

m=3时:

跟上面的一样

1、初始化/更新当前[训练数据的权值分布]

2、训练当前基分类器

3、计算当前基分类器的权值

4、将\alpha _{m}G_{m}\left ( x\right )更新到加法模型f\left ( x \right )

5、判断是否满足循环退出条件

①分类器个数是否达到M

②总分类器误差率是否低于设定的精度

在这里我们还是有三个错误分类的点,所以还是没有达到我们的要求,之前我们也说过这是可以达到我们的百分百分类的,所以我们继续进行循环。

这个时候我们就发现完完全全都对的上了,就是没有错误分类的那些点了。

最终分类器

加法模型

预测函数

首先加法模型就是将很多学习器进行一个线性加权的组合,所以是一个累加的符号。

这里的b\left (x;y_{m} \right )指的就是我们Adaboost里的弱分类器,y_{m}指的就是我们弱分类器里面的训练参数

类比一下我们Adaboost的预测函数:可知道Adaboost就是一个加法模型当然他只包含线性的部分,不包含做决策的部分,因为我们最后还要通过Sign函数,唯一长得不太一样的地方就是其中的参数部分,只是我们省略没有写而已。

损失函数

自定义,y就是我们的label值(标签值),f(x)就是我们这里的加法模型

当我们面临

回归问题:我们可以使用MSE均方误差

分类问题:指数函数,交叉熵损失

损失函数我们需要看具体的情况来定,也可以定义属于自己的损失函数。

优化方法

像逻辑回归,FM,FFM等等用的就是梯度下降来优化损失函数来找到参数。

在这里我们的加法模型不太适合用梯度下降,而是适合用前向分布算法的方式。

梯度下降的缺点:整体损失极小化:

首先要把我们的目标函数写出来,所以我们需要我们的整体损失极小化,因此我们的损失函数指的是我们总体的一个损失,也就是从我们的1到M都加起来去求损失,这样一来我们的复杂度就高。

举例

假设我们的M再大一点比如说3,那我们就还要优化\beta _{3}\gamma _{3},就要同时优化3*M个参数,这也只是一个理想情况,\gamma _{1}这里只代表了一个参数,很多情况下\gamma _{1}代表的不只是一个参数,也很有可能表示的是一个向量,比如在逻辑回归里,这里代表的是很多个w,很多个特征权重值,需要同时优化的参数就非常多。

前向分布算法:

对比梯度下降(蓝色方框部分) ,我们就没有了累加的符号。

这样做会有什么效果呢?

我们刚刚说了,在我们的传统梯度下降当中,我们需要同时对β还有γ同时进行优化跟迭代。但是在我们的前向分布算法当中,我们会将这些参数进行分布的计算。比如我们会先计算\beta _{1}\gamma _{1},然后再计算\beta _{2}\gamma _{2},然后再计算\beta _{3}\gamma _{3},也就是对应了这里的循环m。也就是我们计算的时候只会拿到一个\beta一个\gamma

并且我们观察到,在这个式子里面,这个部分属于上一步得到的加法模型,上一步计算出来的东西在这一步已经是一个定值了,也就是说里面以及没有所谓的参数了,所以我们只需把精力集中在当前需要去优化的基分类器还有它的权重参数就可以了,这样也体现了一个串行的思想。

比如这个部分我们就代表了语文,我们语文已经学习的很好了,那我们下一步就是重点去学习我们其他的科目,y_{i}是标签值。

然后学完了之后我们就去更新,然后一步一步的去循环整个过程,直到把这M个给学到最后就可以得到我们总体的一个加法模型。

Adaboost算法原理解析

在讲完我们的加法模型之后,我们再来讲讲adaboost是如何利用加法模型还有前向分布算法来结合巧妙的构思从而去实现我们这两个要求的。

优化问题:二分类

二分类训练数据集,下图是其定义

在这里我们的类别标签分别用-1跟+1表示。在逻辑回归的时候,我们习惯性的用0跟1表示类别,但在Adaboost里面我们习惯性用-1跟+1表示类别。

模型:加法模型

最终分类器:

这里Sign函数的意思就是当我们上面的加法模型得到的f\left ( x\right ),当它的值是大于等于0的时候,G\left ( x \right )就属于1;当他小于0的时候,G\left ( x \right )就为-1,从而去把两个类给分开,所以我们这里的0来作为他分割类别的阈值。

损失函数:指数损失函数

二分类问题,使用指数损失函数:

,exp是以e的底的指数函数

y是标签值

当G(x)分类正确时,与y同号,L(y,f(x))≤1.

当G(x)分类错误时,与y异号,L(y,f(x))>1.

为什么不用交叉熵损失?

交叉熵损失是用极大似然估计去计算出来的一个表达式,它的分类是0跟1,不是我们的-1跟1

所以当我们标签值y为1的时候,当我们G(x)分类正确的时候,那我们对应的f(x)肯定也是一个大于等于0的一个数,故L(y,f(x))≤1,并且我们这个f(x)越大的话我们L的这个损失就会越小,反之亦然。

将损失函数视为训练数据的权值:

 这样的一个损失函数就非常适合在作为我们训练数据的权值

这个公式的意义就是我们第m轮训练数据的里面每一个训练数据的样本的权值就可以通过这个公式来进行计算。f_{m-1}\left (x_{i} \right )就是前一轮的。由这个公式就去更新我们训练数据的权重。

单个样本损失函数 

总体损失函数(把所有样本放进去)

我们有N个样本

优化方法:前向分布算法

算法流程我们之前讲加法模型的时候就讲过了

第m轮

我们将我们要极小化的损失函数放下来

L换成了exp指数函数。

式子变换:

推导过程:

求解

1、优化G_{m}\left ( X \right )

用构建好的训练样本去训练G_{m}\left ( X \right )的时侯,会得出分类误差率最小的一个效果,那就是最优的。

G_{m}\left ( X \right )本身的意义上来讲,最优的G_{m}\left ( X \right )当然要使得误差最小

当括号里面条件成立的时候I就是1,\bar{w}_{mi}指的就是样本的权重

2、优化\alpha _{m}

推导过程:

式子变换:

凸优化:

红色的部分就是我们的定值了,只有蓝色箭头的\alpha _{m}是一个变量,我们只需对这个函数的\alpha _{m}求导,让其导数等于0,就可以知道其最小值了。

导数为0

公式转换

这里我们分类误差率e_{m}就是所有分类错误的点除以样本点

3、前向更新f_{m}\left ( x \right )

4、更新训练数据权值\bar{w}_{m+1,i}

如果我们这里是第m轮的话,这里就是m+1轮

将第二个式子与我们之前的式子做对比,这个式子相比于上面的显然没有递推的关系,我们可以看一下其是如何推导出来的

注意事项

在我们的例题这里的分类误差率e_{m}跟我们算法原理解析不一样的原因是上图的w_{mi}其实是已经规范过了的,也就是说他已经将他已经映射到我们0到1之间的概率空间了,已经是一个概率了。而我们下图的\bar{w}_{mi}不是概率,而是损失。

如果要讨论这两个不同的地方,我们需要去看训练数据更新的他们的区别在哪里。分别对应的如下。

上图是例题的w_{mi},下图是算法原理里面的

我们可以看到他们之间的区别只是在于第一个他除了Z_{m-1},他的作用也只是说把其概率限制在了0到1之间,区别就是一个做了归一化一个没有做归一化,其凸优化求解过程都是一样的。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/7419.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

AI绘画ComfyUI工作流安装教程,新手入门安装部署教程

ComfyUI 是专为 Stable Diffusion 打造的图形用户界面&#xff08;GUI&#xff09;&#xff0c;采用了基于节点的操作方式。用户可以通过连接不同的模块&#xff08;即节点&#xff09;来创建复杂的图像生成流程。这些节点涵盖了多样的功能&#xff0c;包括加载检查点模型、输入…

慧天卓特干旱监测系统:2023年云南最强冬春连旱分析

2023年开春以来&#xff0c;由于高温少雨&#xff0c;土壤失墒快&#xff0c;我国西南的云贵川渝等地区出现连续快速干旱&#xff0c;云南地区的干旱尤为严重。 2023年1月下旬至6月18日&#xff0c;云南平均降水量197.7毫米&#xff0c;为1961年以来历史同期最少&#xff0c;气…

生成requirements.txt文件

前言 对于Python项目&#xff0c;生成和使用requirements.txt是十分必要的。通过requirements.txt可以一次性保存和安装项目所需要的所有库。尤其是在复现github上的实验代码时。 方法1 常用的命令 pip freeze > requirements.txt然而这种方法并不好用&#xff0c;有时会…

什么是泛域名证书?与普通SSL证书有什么区别

随着互联网的发展&#xff0c;越来越多的网站开始使用SSL证书来保护用户的隐私和安全。在SSL证书中&#xff0c;泛域名SSL证书和普通域名证书是两种常见的类型。那么&#xff0c;什么是泛域名SSL证书&#xff0c;与普通域名证书有什么区别呢&#xff1f; 首先&#xff0c;我们来…

ChatGPT变懒原因:正在给自己放寒假!已被网友测出

ChatGPT近期偷懒严重&#xff0c;有了一种听起来很离谱的解释&#xff1a; 模仿人类&#xff0c;自己给自己放寒假了&#xff5e; 有测试为证&#xff0c;网友Rob Lynch用GPT-4 turbo API设置了两个系统提示&#xff1a; 一个告诉它现在是5月&#xff0c;另一个告诉它现在是1…

基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真

目录 1.程序功能描述 2.测试软件版本以及运行结果展示 3.核心程序 4.本算法原理 4.1 遗传算法&#xff08;GA&#xff09;原理 4.2 BP神经网络原理 4.3 遗传优化BP神经网络结合应用 4.4 遗传算法简要改进 5.完整程序 1.程序功能描述 基于改进遗传优化的BP神经网络金融…

什么是影响力?HR招聘测评,如何考察候选人的影响力?

什么是影响力&#xff1f; 影响力也即是说服别人同你的观点&#xff0c;或者是潜移默化的改变他人&#xff0c;从而形成自我凝聚力&#xff0c;影响力可以推动某一个事务的进行。影响力尤其在管理型岗位上具有重要作用。 在百科中有如下定义&#xff1a;影响力是用别人乐于接受…

Python类方法探秘:从单例模式到版本控制

引言&#xff1a; 在Python编程中&#xff0c;类方法作为一种特殊的实例方法&#xff0c;以其独特的魅力在众多编程范式中脱颖而出。它们不仅提供了无需实例即可调用的便捷性&#xff0c;还在设计模式、版本控制等方面发挥着重要作用。本文将通过几个生动的示例&#xff0c;带您…

大厂常见算法50题-最小栈

专栏持续更新50道算法题&#xff0c;都是大厂高频算法题&#xff0c;建议关注, 一起巧‘背’算法! 文章目录 题目解法一 遍历找最小值&#xff08;不要求时间复杂度情况下&#xff09;解法二 辅助栈总结 题目 解法一 遍历找最小值&#xff08;不要求时间复杂度情况下&#xff0…

艾体宝方案 | 加密USB金融解决方案

在现代金融行业中&#xff0c;保护敏感数据和合规性已成为至关重要的任务。为了帮助金融公司应对移动性风险和合规挑战&#xff0c;我们提供了一种高效的加密USB解决方案。 一、为什么金融公司需要加密USB解决方案 1、降低移动性风险 金融服务公司正在迅速过渡到一种模式&a…

教程分享:如何为跨境电商、外贸、国际展会制作二维码?

不论是做跨境电商、在全球做产品推广&#xff0c;还是国外的餐厅运营、参加国际展会&#xff0c;或者是做创意户外广告、制作个性化的个人名片、有趣的产品包装……只要是在国外使用二维码&#xff0c;你都可以在QR Tiger去制作您需要的二维码&#xff01; 一、认识QR Tiger 二…

【Pytorch】3.Transforms的运用

什么是Transforms 在PyTorch中&#xff0c;transforms是用于对数据进行预处理、增强和变换的操作集合。transforms通常用于数据载入和训练过程中&#xff0c;可以包括数据的归一化、裁剪、翻转、旋转、缩放等操作&#xff0c;以及将数据转换成PyTorch可以处理的Tensor格式。 Tr…

高频次的低价监测如何实现

品牌在做控价的过程中&#xff0c;需要对渠道中的低价数据进行监测&#xff0c;但价格数据变化快&#xff0c;涉及的促销信息也很多&#xff0c;如何将这些变化的数据监测到位&#xff0c;同时对于低价的凭证还要截图留证&#xff0c;以便有效的进行渠道治理&#xff0c;这就需…

【redis】redis持久化分析

目录 持久化Redis持久化redis持久化的方式持久化策略的设置1. RDB&#xff08;快照&#xff09;fork(多进程)RDB配置触发RDB备份自动备份手动执行命令备份&#xff08;save | bgsave&#xff09;flushall命令主从同步触发动态停止RDB RDB 文件恢复验证 RDB 文件是否被加载 RDB …

【海豚调度 开机启动】dophischeduler 如何开启开机自启动功能

DolphinScheduler 是一个分布式、去中心化的大数据工作流调度系统&#xff0c;支持大数据任务调度。若要设置 DolphinScheduler 开机自启动&#xff0c;通常需要将其配置为系统服务。以下是一般步骤&#xff0c;具体操作可能因操作系统的不同而有所差异&#xff1a; 在 Linux …

AI大模型探索之路-训练篇16:大语言模型预训练-微调技术之LoRA

系列篇章&#x1f4a5; AI大模型探索之路-训练篇1&#xff1a;大语言模型微调基础认知 AI大模型探索之路-训练篇2&#xff1a;大语言模型预训练基础认知 AI大模型探索之路-训练篇3&#xff1a;大语言模型全景解读 AI大模型探索之路-训练篇4&#xff1a;大语言模型训练数据集概…

图像处理(二)

图像处理&#xff08;2&#xff09; 裁剪图片 from skimage import io,dataiimg io.imread(rD:\工坊\图像处理\十个勤天2.png)roiiimg[50:150,120:200,:]io.imshow(roi) 运行结果&#xff1a; 将图片进行二值化 from skimage import io,data,colorimg io.imread(r"…

影响项目成功的六个“致命”错误

项目经理作为项目的负责人&#xff0c;肩负着巨大的责任和挑战。他们需要具备专业知识、出色的综合管理能力以及敏锐的洞察力&#xff0c;以便在项目执行过程中及时关注项目动态&#xff0c;处理好各种问题&#xff0c;并避免那些可能影响项目实施的致命错误。 一、缺乏明确的…

羊大师解析,鲜为人知的羊奶冷知识

羊大师解析&#xff0c;鲜为人知的羊奶冷知识 羊奶的脂肪球更小&#xff1a;相较于牛奶&#xff0c;羊奶中的脂肪球直径更小&#xff0c;这有助于其更快地被人体消化和吸收。 羊奶含有更多的中链脂肪酸&#xff1a;羊奶中含有较多的中链脂肪酸&#xff08;MCT&#xff09;&am…

5个好用AI绘画工具,让你秒变艺术家!

AI绘画现在可谓是相当火爆&#xff0c;各种AI绘画工具如雨后春笋般涌出。很多人想自己尝试用AI来创作&#xff0c;却不知道使用什么工具&#xff0c;今天就给大家分享5个好用AI绘画工具&#xff0c;有的只需一段文字便可生成一幅美轮美奂的大作&#xff0c;让你秒变艺术家&…