yolov5-v6.0详细解读

在这里插入图片描述

yolov5-v6.0详细解读

  • 一、yolov5版本介绍
  • 二、网络结构
    • 2.1 Backbone特征提取部分
      • 2.1.1 ConvBNSiLU模块
      • 2.1.2 C3模块
        • 2.1.2.1 BottleNeck模块
      • 2.1.3 SPPF模块
    • 2.2 Neck特征融合部分
      • 2.2.1 FPN
      • 2.2.2 PANet
    • 2.3Head模块
  • 三、目标框回归
    • 3.1 yolo标注格式
    • 3.2 yolov4目标回归框
    • 3.3 yolov5目标回归框
  • 四、正负样本匹配
  • 五、 损失函数
    • 5.1 总损失
    • 5.2 边界框损失
    • 5.3 分类损失
    • 5.4 置信度损失
  • 六、训练技巧
    • 6.1 Mosaic数据增强
    • 6.2 自适应锚框
    • 6.3自适应图片缩放
    • 6.4 训练预热 Warmup
    • 6.5 余弦退火调整学习率
    • 6.6 超参数进化

在这里插入图片描述
【yolo专题】目标检测评估指标
【yolo专题】yolov1:背景介绍与算法精讲
【yolo专题】yolo9000:Better, Faster, Stronger的目标检测网络
【yolo专题】YOLOv3:算法与论文详细解读
【yolo专题】YOLOV4改进方法详细介绍—看这一篇就够了!

一、yolov5版本介绍

YOLOv5目前有YOLOv5n、YOLOv5s、YOLOv5m、YoLOv5l、YOLOv5x五个版本。这五个版本在网络结构上是没有区别的,唯一的区别就是网络的宽度和深度不一样,在这5个版本的配置文件里面是通过设置不同的depth_multiple和width_multiple来控制网络的大小。其中depth_multiple控制网络的深度(BottleneckCSP数),width_multiple控制网络的宽度(卷积核数量)。通过设置这两个不同参数,不同复杂度模型数量如下表:
在这里插入图片描述
当depth_multiple和width_multiple都为1的时候,此时的网络结构是没有增加和减少的。我们常用的是版本YOLOv5s,此时网络模型的深度(BottleneckCSP数量)是YOLOv5L的1/3,宽度(conv)是YOLOv5L的一半。

二、网络结构

yolov5的网络结构如下:
在这里插入图片描述
图片链接:https://github.com/ultralytics/yolov5/issues/6885

2.1 Backbone特征提取部分

YOLOv5-v6.0版本的Backbone主要由ConBNSiLU模块、C3SPPF模块三部分组成。

在这里插入图片描述

Backbone特征提取部分采用的是CSPNet网络结构,CSP(Cross Stage Partial Network)跨阶段局部网络,它的网络结构图如下,使用csp网络有以下优点。

  • 减少计算量和参数数量:CSPNet通过将网络分成两个阶段,并在两个阶段之间引入CSP模块,可以减少整体的计算量和参数数量。CSP模块通过将输入特征图一分为二,并将其中一部分直接通过跳跃连接连接到后续的层级,有效地减少了后续层级的计算量,从而提高了网络的效率。
  • 提升信息流动性:CSPNet中的CSP模块还能够增强特征图中信息的流动性。通过将特征图分成两部分,并在不同部分之间引入交叉连接,CSP模块可以更好地促进特征之间的信息传递和交换,从而增强了特征图的表达能力。
  • 增强特征重用性:CSPNet通过引入CSP模块,将输入特征图分成两部分并进行交叉连接,使得网络可以更充分地利用输入特征图中的信息。这种交叉连接的设计增强了特征的重用性,有助于提高网络的泛化能力和分类性能。
  • 降低过拟合风险:由于CSPNet通过减少参数数量和引入跳跃连接来降低计算量,这也有助于减轻过拟合的风险。相比于传统的深度神经网络结构,CSPNet具有更好的泛化能力,能够更好地适应不同的数据集和任务。
  • 保持高性能:尽管CSPNet减少了计算量和参数数量,但它仍然能够保持较高的分类性能。通过有效地利用输入特征图中的信息,并增强特征图之间的交互,CSPNet可以在保持高效率的同时实现与传统网络相媲美甚至更好的分类性能。
    在这里插入图片描述

2.1.1 ConvBNSiLU模块

ConvBNSiLU模块在yolo的配置文件中是以Conv的形式出现的,为了方便理解,后面都将 ConvBNSiLU理解为CBS模块,它主要由以下三个部分组成:
在这里插入图片描述
YOLOv5在ConvBNSiLU模块中封装了三个功能:普通的卷积(Conv2d)、Batch Normalization和激活函数SiLU(sigmoid linear unit),这里会发现激活函数和yolov5旧版本不太一样,旧版本使用的是Leaky ReLU。
在这里插入图片描述
SiLU激活函数图像如下,相对于ReLU激活函数,它在x轴的负半轴有段向下的曲线:

  • 正数区域内,SiLU 函数的输出与 ReLU 函数的输出相同。
  • 在负数区域内,SiLU 函数的输出与 sigmoid 函数的输出相同。
  • SiLU 函数在整个定义域内都是可微的,这使得在反向传播过程中的梯度计算更加稳定。
  • SiLU函数不是单调递增的,而是在x≈−1.28时达到全局最小值−0.28,这可以起到一个隐式正则化的作用,抑制过大的权重。

在这里插入图片描述

2.1.2 C3模块

这里解释一下为什么叫C3模块,因为是由三个CBS模块,也就是三个卷积层,再加上若干个BottleNeck模块构成,输入进来的特征,分为两个部分,一部分特征是只经过CBS模块处理,一部分经过CBS+BottleNeck处理,最后通过concat将两部分特征进行拼接,再经过一个CBS层将特征维度进行恢复。
在这里插入图片描述
YOLOv5-v6.0版本中使用了C3模块,替代了早期的BottleneckCSP模块。这两者结构作用基本相同,均为CSP架构,只是在修正单元的选择上有所不同,C3模块包含了3个标准卷积层以及多个Bottleneck模块,与BottleneckCSP模块所不同的是,经过Bottleneck模块输出后的Conv模块被去掉了。
在这里插入图片描述

2.1.2.1 BottleNeck模块

在C3模块中存在若干个BottleNeck模块,该模块其实存在两种形式,也就是BottleNeck1和BottleNeck2,BottleNeck1是以resnet残差结构连接的,该残差结构是由两条路构成,其中一路先进行1×1卷积将特征图的通道数减小一半,从而减少计算量,再通过3×3卷积提取特征,并且将通道数加倍,其输入与输出的通道数是不发生改变的,而另外一路通过shortcut进行残差连接,与第一路的输出特征图相加,从而实现特征融合;BottleNeck2只是经过一次1x1卷积的CBS和一次3x3卷积的CBS。

在这里插入图片描述

2.1.3 SPPF模块

YOLOv5-v6.0版本使用了SPPF(Spatial Pyramid Pooling Fast)模块来代替SPP(Spatial Pyramid Pooling)模块。
其中SPP是Spatial Pyramid Pooling的简称,即空间金字塔池化,YOLOv5借鉴了SPPNet的思想。这里先来看一下SPP结构,该结构是何凯明15年在Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition论文中提出来的,在RCNN中第一阶段检测出来的候选框大小不一样,为了让这些候选框可以变成固定大小送进FC层,SPP就可以达到这一目的。
在这里插入图片描述
旧版本的yolov5中的SPP:feature map首先经过一个卷积降维,然后分别进行kernel size为5, 9, 13的max polling层,最后将它们与降维之后的特征concat起来,然后再经过一个卷积将channel恢复成原来大小。
在这里插入图片描述
SPPF模块采用多个小尺寸池化核级联代替SPP模块中单个大尺寸池化核,从而在保留原有功能,即融合不同感受野的特征图,丰富特征图的表达能力的情况下,进一步提高了运行速度。该模块输入的特征图首先经过卷积层进行降维,再经过三个kernel size=5的卷积核进行最大池化,将每次池化后的特征与卷积之后的特征进行concat,最后再经过一次卷积,将特征图的尺度进行恢复。
在这里插入图片描述

2.2 Neck特征融合部分

在这里插入图片描述

2.2.1 FPN

论文链接:https://arxiv.org/abs/1612.03144
Feature Pyramid Network(特征金字塔)。原来多数的目标检测算法只是采用顶层特征做预测,但我们知道浅层的特征所携带的语义信息较少,而位置信息更强;深层的特征所携带的语义信息较丰富,而位置信息更弱。FPN的思想就是把深层的语义信息传递到浅层,从而增强多个尺度上的语义表达。
通俗地说,FPN可以比喻成一座金字塔,每一层代表不同尺度的特征图。底部的特征图尺寸较大,但信息较为粗糙,适合检测大的物体;而顶部的特征图尺寸较小,但信息更加精细,适合检测小的物体。FPN通过自上而下的反卷积(upsampling)和自下而上的跳跃连接(skip connection)的方式,将这些不同尺度的特征图融合在一起,形成一个特征金字塔,使得网络能够同时关注不同尺度的特征。
在这里插入图片描述
FPN的大致结构如上图所示,左边是一个自底向上(Bottom-up)的传播路径,也就是特征提取部分,右边是一个自顶向下(Top-down)的传播路径,中间是通过横向连接(lateral connection)进行特征融合。

自底向上(Bottom-up)的过程就是网络的前向传播过程,从结构图可以看出,取经过第2个C3和第3个C3以及最后一个SPPF模块的Feature map来构成金字塔,当输入图片大小是640x640x3的时候,该特征金字塔的Feature map分别是80x80x256、40x40x512、20x20x1024组成。

自顶向下(Top-down)的过程是从小尺寸的feature map开始逐个进行1/2降维和2倍上采样,(这里的顶表示深层次的网络信息,也就是Backbone特征提取网络最后一层20x20x1024的信息),然后与特征金字塔上一层的Feature map进行concat拼接,这里的降维操作使用的是1x1的卷积降低特征图通道数;最顶层的特征图为20x20x1024大小,通过降维和上采样之后变成40x40x512特征图与特征金字塔第二层的Feature map40x40x512进行拼接,得到40x40x1024的特征图。
在这里插入图片描述
在拼接融合之后还会对每个拼接结果进行C3模块卷积,目的是消除上采样的混叠效应(aliasing effect)。然后继续降维上采样与第一层的Feature map进行拼接。

在这里插入图片描述

2.2.2 PANet

论文链接:https://arxiv.org/abs/1803.01534
FPN通过自顶向下(Top-down)的结构,将深层的语义信息传递到浅层,但是浅层的位置信息却无法影响到深层特征。同时,FPN中顶部信息流需要通过骨干网络(Backbone)逐层地往下传递,由于层数相对较多,如果使用原路返回的方法,计算量比较大。此时想到另外一种方法,如果能够将已经经过特征金字塔融合的特征,再进行自底向上传递的话就可以解决计算量大的问题,而PANet有效地解决了上述这些问题。
在这里插入图片描述
(a)FPN骨干。(b)PANet自下而上的路径增强。©自适应特征池。(d)箱形分支。(e)全连接融合。

如上图(b)所示,PANet在FPN的基础上又引入了一个自底向上(Bottom-up)的路径。经过自顶向下(Top-down)的特征融合后,再进行自底向上(Bottom-up)的特征融合,这样底层的位置信息也能够传递到深层,从而增强多个尺度上的定位能力。同时,与FPN相比(如红色线条所示),PANet中的底层特征传递所需要穿越的feature map数量大大减少(如绿色线条所示),使得底层的位置信息更容易传递到顶部。

经过FPN之后的特征图,再进行下采样与特征金字塔中已经融合的特征再进行拼接融合。其中自底向上(Bottom-up)的过程是沿着N2 → N3 → N4 → N5路径,逐个stage通过3×3卷积进行2倍下采样,然后与FPN中相应大小的feature map进行相加融合(在YOLOv5中采用的是拼接融合)。也就是P2进行下采样之后生成的N2与P3进行拼接成为N3,N3在再与P4进行拼接。

在这里插入图片描述

2.3Head模块

在这里插入图片描述

在YOLOv5中,Head模块通过1x1卷积将Neck模块得到的不同尺度的特征图的通道数量扩展,扩展后的通道数为(类别数量+5)乘以每个检测层上的anchor数量。其中,5表示预测框的中心点的横坐标、纵坐标、宽度、高度和置信度。这里的置信度代表了预测框中存在目标的可信度,其取值范围在0到1之间,值越大表示该预测框中可能存在目标的可能性越高。

在YOLOv5的Head模块中,包含了3个检测层,分别对应Neck模块中得到的3种不同尺寸的特征图。针对这3种特征图,YOLOv5在每个网格上预设了3个不同宽高比的anchor,用来预测和回归目标。因此,Head模块中扩展后的通道维度可以理解为在特征图的通道维度上保存了所有基于anchor先验框的位置信息和分类信息。

三、目标框回归

3.1 yolo标注格式

在PASCAL VOC中物体在图像中的位置是以左上角坐标和右下角坐标进行确定的,yolo物体标记的物体位置则是用相对位置进行标记,物体的具体位置是由中心点坐标以及宽、高决定的。那么如何将PASCAL VOC坐标转换为yolo格式的坐标呢,假设该物体的坐标由(187,21)、(403,627)决定,此时我们需要计算该目标的中心点坐标(x,y),再除以图片的宽高,就可以得到yolo格式的中心点坐标,同理,物体相对于该图片的大小也使用该方法计算。
在这里插入图片描述
在这里插入图片描述

3.2 yolov4目标回归框

先分析一下yolov4的目标框回归公式:
首先Anchor给出了目标宽高的初始值,需要回归的是目标真实宽高与初始宽高的偏移量

  • 预测边界框中心点相对于对应cell左上角位置的相对偏移值
  • 为了将边界框中心点约束在当前cell中,使用sigmoid函数处理偏移值,使预测偏移值在(0,1)范围内
    在这里插入图片描述
    在这里插入图片描述

3.3 yolov5目标回归框

yolov5的tx、ty,tw,th都经过了sigmoid函数处理,因为原始的yolo/darknet框方程式存在严重缺陷。宽度和高度完全不受限制,因为它们只是out = exp(in),这很危险,因为它可能导致失控的梯度、不稳定、NaN损失并最终完全失去训练。
在这里插入图片描述

对于yolov5,确保通过sigmoid所有模型输出来修补此错误,同时还要确保中心点保持不变1 = fcn(0),当tx、ty,tw,th偏移量都为0,此时预测值都为1,此时得到的就是锚框大小。 当前的方程式将锚点的倍数从最小0限制为最大4,并且锚点-目标匹配也已更新为基于宽度-高度倍数,标称上限阈值超参数为4.0,超过这个值就认为bbox和anchor匹配度不高,而认为是背景。为什么公式中要取平方运算,通过下面这幅实验图可以看出输入和输出的关系。
在这里插入图片描述

四、正负样本匹配

YOLOv5的每个检测层上的每个网格都预设了多个anchor先验框,但并不是每个网格中都存在目标,也并不是每个anchor都适合用来回归当前目标,因此需要对这些anchor先验框进行筛选,将其划分为正样本和负样本。本文的正负样本指的是预测框而不是Ground Truth(人工标注的真实框)。
与YOLOv3/4不同的是,YOLOv5采用的是基于宽高比例的匹配策略,它的大致流程如下:

  • 对于每一个Ground Truth(人工标注的真实框),分别计算它与9种不同anchor的宽与宽的比值(w1/w2, w2/w1)和高与高的比值(h1/h2, h2/h1)。
  • 找到Ground Truth与anchor的宽比(w1/w2, w2/w1)和高比(h1/h2, h2/h1)中的最大值,作为该Ground Truth和anchor的比值。
  • 若Ground Truth和anchor的比值小于设定的比值阈值(超参数中默认为anchor_t = 4.0),那么这个anchor就负责预测这个Ground Truth,即这个anchor所回归得到的预测框就被称为正样本,剩余所有的预测框都是负样本。

通过上述方法,YOLOv5不仅筛选了正负样本,同时对于部分Ground Truth在单个尺度上匹配了多个anchor来进行预测,总体上增加了一定的正样本数量。除此以外,YOLOv5还通过以下几种方法增加正样本的个数,从而加快收敛速度。

  1. 跨网格扩充: 假设某个Ground Truth的中心点落在某个检测层上的某个网格中,除了中心点所在的网格之外,其左、上、右、下4个邻域的网格中,靠近Ground Truth中心点的两个网格中的anchor也会参与预测和回归,即一个目标会由3个网格的anchor进行预测。
  • 如果点(xg,yg)在格子的左上角,则取左边、上方的两个格子
  • 如果点(xg,yg)在格子的右上角,则取右边、上方的两个格子
  • 如果点(xg,yg)在格子的左下角,则取左边、下方的两个格子
  • 如果点(xg,yg)在格子的右下角,则取右边、上下方的两个格子
    在这里插入图片描述

在这里插入图片描述

  1. 跨分支扩充:YOLOv5的检测头包含了3个不同尺度的检测层,每个检测层上预设了3种不同长宽比的anchor,假设一个Ground Truth可以和不同尺度的检测层上的anchor匹配,则这3个检测层上所有符合条件的anchor都可以用来预测该Ground Truth,即一个目标可以由多个检测层的多个anchor进行预测。

五、 损失函数

5.1 总损失

YOLOv5损失函数包括:

  • classification loss, 分类损失
  • localization loss, 定位损失(预测边界框与GT之间的误差)
  • confidence loss, 置信度损失(框的目标性;objectness of the box)

把640x640的输入图像划分成NxN(通常为80x80、40x40、20x20)的网格,然后对网格的每个格子都预测三个指标:矩形框、置信度、分类概率。
其中:

  • 矩形框表征目标的大小以及精确位置。
  • 置信度表征所预测矩形框(简称预测框)的可信程度,取值范围0~1,值越大说明该矩形框中越可能存在目标。
  • 分类概率表征目标的类别

在这里插入图片描述

总的损失函数:Aclassification loss + Blocalization loss + C*confidence loss(A,B,C表示每个损失所占的权重大小)

由于yolov5生成的是三个尺寸的特征图,所以需要对每一个尺寸的特征图都求损失,最后的总损失是每个特征图的分类损失+边界框损失+置信度损失。
在这里插入图片描述
在这里插入图片描述
上式中α1、α2、α3为各网格损失函数值的权重系数。考虑到图像中往往小型目标比较多,中型目标次之,大型目标最少,因此通常把8080网格的权重α1设置最大,4040网格的权重α2次之,20*20网格的权重α3最小,使得训练时网络更加专注于数量多的目标。

5.2 边界框损失

YOLOV5使用 CIOU Loss作为bounding box回归的损失。关于CIOU以及GIOU和DIOU的损失计算方法可以参考这篇文章:YOLOV4改进方法详细介绍—看这一篇就够了

5.3 分类损失

类别预测:大多数分类器假设输出标签是互斥的。 如果输出是互斥的目标类别,则确实如此。 因此,YOLO应用softmax函数将得分转换为总和为1的概率。 而YOLOv3/v4/v5使用多标签分类。 例如,输出标签可以是“行人”和“儿童”,它们不是非排他性的。 (现在输出的总和可以大于1)。YOLOv3/v4/v5用多个独立的逻辑(logistic)分类器替换softmax函数,以计算输入属于特定标签的可能性。在计算分类损失进行训练时,YOLOv3/v4/v5对每个标签使用二元交叉熵损失。 这也避免使用softmax函数而降低了计算复杂度。

神经网络对80*80网格的每个格子都预测三个预测框,每个预测框的预测信息都包含了N个分类概率。其中N为总类别数,比如COCO数据集有80个类别,那么N取80。所以对于COCO数据集,每个预测框有80个0~1的分类概率,那么神经网络总共预测3x80x80x80个分类概率,组成预测概率矩阵。
在这里插入图片描述
YOLOv5默认使用二元交叉熵函数来计算分类损失。二元交叉熵函数的定义为:
在这里插入图片描述

5.4 置信度损失

对于一张图像分割成的80*80的网格,神经网络对其中每个格子都预测三个位于该格子附近的矩形框(简称预测框),每个预测框的预测信息包括中心坐标、宽、高、置信度、分类概率,因此神经网络总共输出3x80x80个0~1的预测置信度,与3x80x80个预测框一 一对应。每个预测框的置信度表征这个预测框的靠谱程度,值越大表示该预测框越可信靠谱,也即越接近目标的真实最小包围框。

比如下图中,红点A、B、C、D表示检测目标,那么每个红点所在格子的三个预测置信度应该比较大甚至接近1,而其它格子的预测置信度应该较小甚至接近0。
在这里插入图片描述
这样一来,标签值的大小与预测框、目标框的重合度有关,两框重合度越高则标签值越大。如果CIOU的取值范围是-1.5-1,而置信度标签的取值范围是0~1,所以需要对CIOU做一个截断处理:当CIOU小于0时直接取0值作为标签。
与计算分类损失一样,YOLOv5默认使用二元交叉熵函数来计算置信度损失。

六、训练技巧

6.1 Mosaic数据增强

Mosaic数据增强是指将4张图片随即缩放、随机裁剪、随机排布的方式进行拼接成新的图片,该方式仅在训练过程中使用。下图就是一个Mosaic数据增强的过程。
在这里插入图片描述

  • 丰富数据集:随机使用4张图片,随机缩放,再随机分布进行拼接,大大丰富了检测数据集,特别是随机缩放增加了很多小目标,让网络的鲁棒性更好。
  • 减少GPU:可能会有人说,随机缩放,普通的数据增强也可以做,但作者考虑到很多人可能只有一个GPU,因此Mosaic增强训练时,可以直接计算4张图片的数据,使得Mini-batch大小并不需要很大,一个GPU就可以达到比较好的效果。

6.2 自适应锚框

传统的yolo会先设置初始的锚框,这些初始锚框是根据COCO等数据集进行聚类得到的:

anchors:- [10,13, 16,30, 33,23]  # P3/8- [30,61, 62,45, 59,119]  # P4/16- [116,90, 156,198, 373,326]  # P5/32

之前我们学的 YOLOv3、YOLOv4,对于不同的数据集,都会计算先验框 anchor。然后在训练时,网络会在 anchor的基础上进行预测,输出预测框,再和标签框进行对比,最后就进行梯度的反向传播。

在 YOLOv3、YOLOv4 中,训练不同的数据集时,是使用单独的脚本进行初始锚框的计算,在 YOLOv5 中,则是将此功能嵌入到整个训练代码里中。所以在每次训练开始之前,它都会根据不同的数据集来自适应计算 anchor。

6.3自适应图片缩放

在常用的目标检测算法中,不同的图片长宽都不相同,因此常用的方式是将原始图片统一缩放到一个标准尺寸,再送入检测网络中,如下图所示。但是,在项目实际使用时,很多图片的长宽比不同,因此缩放填充后,两端的黑边大小都不同,而如果填充的比较多,则存在信息冗余,影响推理速度。因此YOLOv5作者在augmentations.letterbox()中对图像自适应添加最少的灰边(代码中添加的是灰边,本文以黑边代替)。

一般的图片缩放

在这里插入图片描述

使用自适应的缩放

在这里插入图片描述

训练时没有采用缩减黑边的方式,还是采用传统填充的方式,即缩放到640*640大小。只是在测试,使用模型推理时,才采用缩减黑边的方式,提高目标检测,推理的速度。

6.4 训练预热 Warmup

由于刚开始训练时,模型的权重(weights)是随机初始化的,此时若选择一个较大的学习率,可能带来模型的不稳定(振荡),选择Warmup预热学习率的方 式,可以使得开始训练的几个epoch或者一些step内学习率较小,在预热的小学习率下,模型可以慢慢趋于稳定,等模型相对稳定后在选择预先设置的学习率进行训练,使得模型收敛速度变得更快,模型效果更佳。
在这里插入图片描述

6.5 余弦退火调整学习率

参考论文:https://arxiv.org/pdf/1608.03983.pdf
在每一次运行中,我们用余弦退火对每个批次的学习率进行衰减,如下所示:
在这里插入图片描述
在这里插入图片描述

通过训练学习率曲线和精确度曲线可以看出,使用余弦退火的曲线更加平滑。
在这里插入图片描述

6.6 超参数进化

超参数进化是一种利用遗传算法进行超参数优化的方法用于优化的算法(GA)。目前模型提供的默认参数是通过在COCO数据集上使用超参数进化得来的(由于超参数进化会耗费大量的资源和时间,如果默认参数训练出来的结果能满足你的使用,使用默认参数也是不错的选择)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/741803.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

《行业指标体系白皮书》重磅发布,剖析指标建设困境,构建前瞻性的指标体系(附下载)

正处于企业指标建设过程中的你,是否经常遇到这样的问题: • 各个部门独立建设信息系统,由此产生的指标定义和计算方式各异,导致管理层无法快速准确地掌握整体业务运行状况 • 缺乏对指标的统一管理和规范,产生重复的指…

IO复用之select

目录 一.select方法介绍 2.1 select 系统调用的原型 2.2 集合的数据结构 2.2.1 fd_set 结构如下: 2.2.2 关于集合fd_set的解析 2.3 select第一个参数 2.4 select方法之超时时间timeout 2.5 select方法的用法简述及返回值 2.6 如何检测集合中有哪些描述符有事件就绪 三…

【建议收藏】大气颗粒物与VOCs PMF源解析

查看原文>>>最新大气颗粒物与VOCs PMF源解析实践技术应用 目前,大气颗粒物和臭氧污染成为我国亟待解决的环境问题。颗粒物和臭氧污染不仅对气候和环境有重要影响,而且对人体健康有严重损害。而臭氧的前体物之一为挥发性有机物(VOCs&…

Orange3数据预处理(离散化组件)

离散化:将数值属性转换为分类属性。 输出 数据:具有离散化值的数据集 设置离散化的默认方法。 选择变量以为每个变量设置特定的离散化方法。将鼠标悬停在变量上显示区间。 离散化方法Keep numeric(保持数值):保持变量不变。Remove (移除)&a…

罐头鱼AI短视频矩阵获客|AI视频批量生成

罐头鱼AI传单功能操作说明,智能化提升您的视频营销效率! 在这个信息爆炸的时代,短视频已成为企业营销的重要方式之一。而为了更高效地进行视频营销,罐头鱼AI传单功能应运而生,为您提供全方位的视频管理和发布服务。 首…

【最全最详细】微信第三方平台开发 —— 接收公众号事件/消息

文章目录 1. 整体流程2. 成为服务商2.1. 首先打开微信开放平台,注册并登录你的账号2.2. 进行开发者资质认证2.3. 创建第三方平台并提交审核 3. 搭建第三方平台后端服务3.1. 管理员设置 和 权限集设置3.2. 开发资料设置3.3. 进行商家授权操作3.3.0. 加密解密操作3.3.…

新零售SaaS架构:什么是线上商城系统?

零售商家为什么要建设线上商城 传统的实体门店服务范围有限,只能吸引周边500米内的消费者。因此,如何拓展服务范围,吸引更多消费者到店,成为了店家迫切需要解决的问题。 缺乏忠实顾客,客户基础不稳,往往是…

IEEE802.11v协议介绍

IEEE802.11v协议简介 协议全称:无线网络管理(Wireless Network Management) 批准日期:2011年2月 协议状态:并入802.11-2012 协议别名:BSS过渡管理 主要功能 支持AP和STA间交换:关于RF环境和拓扑状态的信息,以协助STA进行漫游决策支持STA之间交换:关于RF环境状态的信…

【Python】random库

专栏文章索引:Python 原文章:Python中random函数用法整理_python random-CSDN博客 目录 1.random.random() 2.random.uniform(a, b) 3.random.randint(a, b) 4.random.randrange([start], stop[, step]) 5. random.choice() 6. random.shuffle(x[,…

四川尚熠电子商务有限公司领航抖音电商新纪元

随着互联网的飞速发展,电子商务已经成为现代商业的重要组成部分。在这个变革的时代,四川尚熠电子商务有限公司凭借其敏锐的市场洞察力和创新精神,专注于抖音电商服务,为广大品牌商家提供了一站式的电商解决方案,成为行…

从菜鸟到大师!年薪20W的c++ QT开发工程师需要懂哪些技术?

如今Qt的知识也变得非常广泛和复杂,学习起来同样具有一定的挑战。对于Qt从业者来说,有两个主要层面:一个是深入理解Qt框架和基础知识,另一个是具备丰富的工程经验。 还不熟悉的朋友,这里可以先领取一份Qt开发必备技术…

基于 onsemi 汽车前置大灯设计之 PCB 设计注意事项

一、 基本介绍 Blitz Fly 方案是世平集团推出的基于 onsemi NCV7802 & NCV78723 的汽车前置大灯方案。该方案针对汽车前照灯设计,主要分为四个部分: 1. LED 驱动: 以 onsemi NCV78702 以及 onsemi NCV78723 为核心。NCV78702 是一款用于…

查询IPv4归属地信息的几种方式

查询IPv4归属地信息是一个在网络管理和安全领域常见的需求。IPv4地址是互联网协议第四版中定义的网络层地址,它允许计算机和网络设备在全球范围内进行通信。而查询IPv4归属地信息,即是指确定该IPv4地址所在的地理位置或注册的网络服务提供商,…

【HTML】1px边框与1px分割线

对比图 箭头标注的是处理过的 1px分割线 使用transform的scaleY进行缩小 码 <div class"mini-heriz"></div><br><div style"border: solid 1px black; width: 300px;height: 1px;"></div> <style> .mini-heriz {wi…

操作系统:进程控制(上)

目录 1.进程创建 1.1.fork()函数 1.2.写时拷贝 2.进程终止 2.1.进程的退出场景 2.1.1.退出码和错误码&#xff08;正常终止&&任务失败&#xff09; 2.1.2.异常终止 1.进程创建 1.1.fork()函数 在linux中&#xff0c;fork函数时非常重要的函数&#xff0c;它从已…

力扣爆刷第93天之hot100五连刷51-55

力扣爆刷第93天之hot100五连刷51-55 文章目录 力扣爆刷第93天之hot100五连刷51-55一、200. 岛屿数量二、994. 腐烂的橘子三、207. 课程表四、208. 实现 Trie (前缀树)五、46. 全排列 一、200. 岛屿数量 题目链接&#xff1a;https://leetcode.cn/problems/number-of-islands/d…

tigramite教程(五)使用TIGRAMITE 进行自助聚合和链接置信度量化

使用TIGRAMITE 进行自助聚合和链接置信度量化 自助聚合&#xff08;Bagging&#xff09;和置信度估计例子数据生成模型基本的PCMCIBagged-PCMCI使用优化后的pc_alpha进行自举聚合使用优化的pc_alpha进行CMIknn的自举聚合 TIGRAMITE是一个用于时间序列分析的Python模块。它基于P…

【Spring】学习Spring框架那点小事儿

Spring作者&#xff1a;Rod Johnson Rod Johnson 是一位软件开发人员和作家&#xff0c;他在软件开发领域有着广泛的影响力。他出生于澳大利亚&#xff0c;拥有计算机科学和音乐双学位&#xff08;能写出有优雅的代码一定有艺术细胞&#xff09;。 Rod Johnson 在 2002 年出版…

【Python】python实现Apriori算法和FP-growth算法(附源代码)

使用一种你熟悉的程序设计语言&#xff0c;实现&#xff08;1&#xff09;Apriori算法和&#xff08;2&#xff09;FP-growth算法。 目录 1、Apriori算法2、F-Growth算法3、两种算法比较 1、Apriori算法 def item(dataset): # 求第一次扫描数据库后的 候选集&#xff0c;&am…

深圳服务器托管-优质的BGP机房

服务器只需要设置一个IP地址&#xff0c;最佳访问路由是由网络上的骨干路由器根据路由跳数与其它技术指标来确定的&#xff0c;不会占用服务器的任何系统资源。服务器的上行路由与下行路由都能选择最优的路径&#xff0c;所以能真正实现高速的单IP高速访问。 BGP协议本身具有冗…