目标检测 | R-CNN、Fast R-CNN与Faster R-CNN理论讲解

☀️教程:霹雳吧啦Wz
☀️链接:https://www.bilibili.com/video/BV1af4y1m7iL?p=1&vd_source=c7e390079ff3e10b79e23fb333bea49d

一、R-CNN

R-CNN(Region with CNN feature)是由Ross Girshick在2014年提出的,在PASCAL VOC目标检测竞赛中获得冠军,是利用深度学习进行目标检测的开山之作。

1.1 R-CNN算法流程

在这里插入图片描述

(1)候选区域的生成

在这里插入图片描述

(2)深度网络提取候选框特征

在这里插入图片描述

得到的特征图展平后不经过全连接层

(3)将特征向量送入所有的SVM分类器,判定类别

在这里插入图片描述

SVM分类器是一个二分类的分类器,所以每一个分类器只能判定一个类别,对于PASCAL VOC来说一共20个类别,所以共20个SVM分类器。

在这里插入图片描述

得到的2000×20的矩阵,每一行表示一个候选框,每一列代表是某个类别的概率。

利用非极大值抑止(NMS)算法,剔除重叠建议框:

在这里插入图片描述

其中,IoU是交并比(A与B的交集除以A与B的并集),交并比越大,重叠部分越多。

NMS算法是根据每一个类别来应用到所有的候选框上的,举例,第一个类别是猫,那么就对所有候选框预测为猫的概率值进行NMS,第二个类别是狗,那么就对所有候选框预测为狗的概率值进行NMS,如下图所示,是按照每一列来依次进行处理的:

在这里插入图片描述

NMS算法的流程是:

  1. 寻找该类得分最高的目标
  2. 计算其他目标与该目标的IoU值
  3. 删除所有IoU值大于给定阈值的目标

这样下来,每一个类别都会剩下N个候选框。

(4)使用回归器精细修正候选框位置

在这里插入图片描述

对NMS处理后的建议框进一步筛选,我的理解是接着剔除掉那些概率低的候选框,原论文中说的是保留那些与真实边界框(Ground Truth)有相交并且IoU大于某个阈值的候选框。

接下来同样使用CNN提取所有候选框的特征向量,对其进行回归,得到偏移量。

1.2 R-CNN框架

在这里插入图片描述

1.3 R-CNN存在的问题

在这里插入图片描述

针对第二点,训练速度慢,是因为四个部分的训练是相互独立的,进而导致了第三点训练所需空间大的问题。

二、Fast R-CNN

Fast R-CNN是在2015年Ross Girshick继R-CNN后的又一力作。同样使用VGG16作为backbone,与R-CNN相比训练时间快了9倍,推理时间快213倍,准确率从62%提升到66%(在PASCAL VOC数据集)

2.1 Fast R-CNN算法流程

在这里插入图片描述

(1)候选区域的生成

与R-CNN方法相同

(2)一次性计算整张图像的特征,并根据候选框的区域来投射到特征图上获得相应特征矩阵

在这里插入图片描述

关于数据采样的问题:

在这里插入图片描述

在Fast R-CNN训练过程中,并不是使用SS算法提供的全部候选框,而是使用其中的一小部分,而且对采样的数据分正负样本,正样本存在我们想要检测的东西,负样本可以理解为背景,里面没有想要检测的目标。这样的做法是防止网络在训练过程中偏向于正样本的结果(数据不平衡导致的)。

论文中的方法是对于每张图片,从2K个候选框中采样64个候选区域,64个候选区域中一部分是正样本一部分是负样本。正样本的定义是候选框与真实框的IoU大于0.5,负样本的定义是与所有真实框IoU值最大在0.1-0.5之间的候选框。

(3)采样完样本之后,对于每个样本,将其区域投射到整张图像特征图中得到其区域特征图,再经过RoI Pooling层调整到统一的7×7尺寸,输入进分类网络和回归网络完成该候选框的分类和预测。

在这里插入图片描述

RoI Pooling Layer的实现原理:

在这里插入图片描述

其实就是将候选框划分为7×7的49个区域,再对这些区域进行最大池化,完成特征尺寸的调整。这样一来就不限制候选框图像的输入尺寸了(R-CNN需要将输入图像调整到227×227再进行操作)。

接下来,将最大池化后的特征图经过两个全连接层得到RoI Feature Vector,再输入进分类器与回归器(两个是并联的)

针对分类器:实际上是一个全连接层

在这里插入图片描述

分类器将会输出N+1个类别的概率,多出来的1预测的是背景概率。

针对边界框回归器:实际上是一个全连接层

在这里插入图片描述

针对每一个类别都将输出一个边界框回归参数。每一个边界框回归参数由中心点坐标x,y与宽和高w,h组成。所以最终输出的是(N+1)×4个值。

这个边界框回归参数是你要根据这些参数去调整候选框的位置的,而不是直接预测出来最终的边界框位置。

针对根据边界框回归参数修正候选框:

在这里插入图片描述

2.2 Fast R-CNN损失计算

在这里插入图片描述

其中,分类损失使用的就是交叉熵损失函数:

在这里插入图片描述

其中,边界框回归损失:

在这里插入图片描述

λ \lambda λ是一个权衡分类损失与边界框回归损失的系数。

[ u > = 1 ] [u>=1] [u>=1]表示当 u u u小于1的时候,代表这是背景(即负样本),没有边界框回归损失,取值为0。当 u u u大于等于1的时候,代表检测类别,计算边界框回归损失,取值为1。

其中: L l o c ( t u , v ) = ∑ i = x , y , w , h s m o o t h L i ( t i u − v i ) L_{loc}(t^u,v)=\sum_{i={x,y,w,h}}smooth_{L_i}(t_i^u-v_i) Lloc(tu,v)=i=x,y,w,hsmoothLi(tiuvi),实际上表示:
L l o c ( t u , v ) = s m o o t h L x ( t x u − v x ) + s m o o t h L y ( t y u − v y ) + s m o o t h L w ( t w u − v w ) + s m o o t h L h ( t h u − v h ) L_{loc}(t^u,v)=smooth_{L_x}(t_x^u-v_x)+smooth_{L_y}(t_y^u-v_y)+smooth_{L_w}(t_w^u-v_w)+smooth_{L_h}(t_h^u-v_h) Lloc(tu,v)=smoothLx(txuvx)+smoothLy(tyuvy)+smoothLw(twuvw)+smoothLh(thuvh)

2.3 Fast R-CNN框架

在这里插入图片描述

与R-CNN不同的是,分类和回归不再使用传统机器学习方法来做了,全部使用的是CNN来做的。

2.4 Fast R-CNN存在的问题

SS算法划分候选框需要大约2s左右,还是很费时间

并且要想办法把它们融合到一个网络中,使其可以端对端进行训练

三、Faster R-CNN

Faster R-CNN是Ross Girshick继Fast R-CNN之后的又一力作,同样使用VGG16作为backbone,总的推理速度在GPU上达到了5fps,准确率也有进一步提升,在2015年的LSVRC与COCO竞赛中的多个项目都获得了第一名。

Faster R-CNN最主要的改进就是丢弃了SS而使用RPN(Region Proposal NetWork)来生成候选框。

可以说 Faster R-CNN = RPN + Fast R-CNN

3.1 Faster R-CNN算法流程

在这里插入图片描述

RPN网络结构:

在这里插入图片描述

其中,256-d代表的是一个展平的特征向量,其大小为256,与所使用backbone最后输出的通道数相同,使用ZF为256,使用VGG16为512。

首先介绍一下什么是Anchor Boxes(锚点):

在这里插入图片描述

RPN是在图像的特征图上进行操作的,针对该特征图,应用一个3×3的滑动窗口,该窗口滑动到每一个区域上时,需要根据该区域的中心点,找到其在原图上对应的位置,找的方法很简单,即使用中心点的x坐标乘以x轴的stride(x轴的stride即原图的宽除以特征图的宽,再取整),然后使用中心点的y坐标乘以y轴的stride(y轴的stride即原图的高除以特征图的高,再取整),这样就能找到该中心点对应原图的中心点坐标了,接下来,**锚框是目标检测中预设的多种尺寸和比例的矩形框,用于作为模型预测物体位置和尺寸的参照点,**这样根据原图中找到的那个中心点和预设的不同尺寸大小的锚框,就生成了几个候选框。

接下来,介绍滑动窗口对应区域生成的一维向量256-d通过cls层和reg层生成的值是如何影响锚框的。

在这里插入图片描述

假如预设了k个锚框,那么通过cls层将生成2k个预测概率,其中两个为一组,分别代表为背景的概率与为前景的概率。通过reg层将生成4k个边界框回归参数,其中四个为一组,代表对锚框的调整参数。

在论文中,作者给出了三个尺度和三个比例共9个Anchor:

在这里插入图片描述

关于感受野的问题:

对于ZF来说,一个3×3的滑动窗口对应到原图中会拥有171的感受野

对于VGG来说,一个3×3的滑动窗口对应到原图中会拥有228的感受野

那么我们的锚框大小为256和512时,感受野比锚框小会存在问题吗?作者在论文中解释到根据经验,看到物体的一部分也是可以对其进行预测的,所以这是可以的。

附感受野的计算过程:

在这里插入图片描述

对于9个Anchor来说,使用一张1000×600×3的图像会生成大概6k个Anchor:

在这里插入图片描述

注意,生成的Anchor经过reg层预测的边界框回归参数调整之后才得到的是候选框。

RPN的实现原理:

针对图像的特征图来,使用一个3×3的卷积核,padding和stride都设置为1,确实是为了保持输出特征图的高度和宽度与输入相同。这样的设置可以确保特征图中每个位置都能被覆盖,并保持空间分辨率。

我们一共要使用256个3×3的卷积(假设是ZF网络),这意味着这个3×3卷积层的输出特征图将有256个通道。对于每个位置在256通道的特征图上,RPN并行地应用两个不同的1×1卷积层。一个用于对象类别(cls,即类别)预测,另一个用于边界框(reg,即回归)预测。

cls层的卷积核数量是2k,其中k是锚框(anchor boxes)的数量。这是因为每个锚框对应两个输出:一个是为前景的概率,另一个是为背景的概率。因此,如果有k个锚框,就需要2k个输出。1×1卷积在这里主要作用是从256维的特征空间映射到一个新的特征空间(例如,对于cls层来说,是2k维,k是锚框的数量)

reg层的卷积核数量是4k,1×1卷积在这里主要作用是从256维的特征空间映射到一个新的特征空间(例如,对于reg层来说,是4k维,k是锚框的数量)

RPN所采用的正负样本:

使用一张1000×600×3的图像会生成大概6k个Anchor,但这些Anchor不是都用来训练网络的,论文中是采用在这些Anchor里采样256个Anchor,其中正负样本比例为1∶1。

其中,指定正样本的方式有两种:

  1. 该Anchor与Ground Truth的IoU大于0.7
  2. 与Ground Truth所相交的Anchor中IoU最大的那一个

因为使用第二个条件的话,可能找不够正样本,所以使用第一个条件来补充。

其中,指定负样本的方式:

  1. 与所有的Ground Truth的IoU值都小于0.3

3.2 RPN损失计算

在这里插入图片描述

其中, p i ∗ p_i^* pi就相当于给第i个Anchor打了一个真实标签。 N r e g N_{reg} Nreg是Anchor的位置的个数,也就是特征图的尺寸60×40。

在实现的时候其实 λ 1 N r e g \lambda\frac{1}{N_{reg}} λNreg1可以直接替换为 1 N c l s \frac{1}{N_{cls}} Ncls1,因为论文中 λ \lambda λ设置的为10,这样化简下来两个差不多。

对于分类损失,实际上使用的还是多类别的交叉熵损失:

在这里插入图片描述

例如,针对第一个Anchor,其真实标签为1,那么他的损失就是 − l o g 0.9 -log0.9 log0.9,针对第二个Anchor,其真实标签为0,那么他的损失就是 − l o g 0.2 -log0.2 log0.2

对于边界框回归损失:

在这里插入图片描述

它与Fast R-CNN的边界框回归损失一样。

3.3 Faster R-CNN损失计算

Faster R-CNN的损失 = RPN的损失 + Fast R-CNN的损失

3.4 Faster R-CNN的训练

在这里插入图片描述

3.5 Faster R-CNN框架

在这里插入图片描述

3.6 总结

在这里插入图片描述

四、目标检测评价指标

4.1 AP(Average Precision)

在目标检测任务中,AP(Average Precision)是一种常用的评估指标,用于衡量模型在检测特定类别对象上的性能。AP主要考虑了模型预测的准确性和查全率,结合了精度(precision)和召回率(recall)两个指标

  • 精度(Precision):在所有预测为正类的样本中,真正正类的比例。
  • 召回率(Recall):在所有真实正类的样本中,被预测为正类的比例。

Precision-Recall 曲线:

对于目标检测模型,通常会计算在不同置信度阈值下的精度和召回率,从而绘制出一个Precision-Recall曲线。

AP的计算:

AP是这个Precision-Recall曲线下面积的一个度量,通常采用数值积分方法来近似计算。理想的目标检测模型会尽可能接近右上角,即具有高精度和高召回率。

举例理解:
AP(Average Precision)通常是针对目标检测中的某一个特定类别来计算的。比如在一个包含多种物体的图像中,如果我们要评估检测“猫”的效果,就会单独计算检测“猫”这一类别的AP。

当目标检测系统在图像中识别目标(比如猫)时,它不仅会标记出它认为猫所在的位置(通常是一个边框),还会给出一个“自信度”分数。这个分数表示系统有多确信这个边框内确实有猫。在处理完一批图像后,我们会得到很多这样的预测。为了计算AP,我们首先需要将这些预测按照自信度从高到低进行排序。这样做的目的是先评估那些系统最确信的预测。

从自信度最高的预测开始,我们逐一检查每个预测:

  • 准确性(精度):这是指到目前为止所有被认为是正类(即猫)的预测中,正确预测(真正类)的比例。例如,如果前十个最高自信度的预测中有九个是正确的,那么准确性为90%。
  • 查全率(召回率):这是指系统找到的正确预测占所有真实猫的比例。假设总共有100只猫在图像中,如果系统正确标记出了50只,那么查全率为50%。

随着我们继续检查更多预测,精度和查全率会不断变化。通常,随着我们检查越来越多的预测,查全率会增加(因为找到更多正确的猫),但精度可能会下降(因为可能会开始加入更多错误的预测)。

将这些精度和查全率点连接起来,就形成了一个Precision-Recall曲线。AP就是这条曲线下的面积,它提供了一个单一的数值来综合评估检测性能,越接近1表示性能越好。

4.2 mAP

在多类目标检测任务中,会计算每个类别的AP,然后取所有类别AP的平均值,称为mAP。这是目标检测领域中一个非常重要的指标,用于评价模型在所有类别上的整体性能。

五、FPN网络

FRN(Feature Pyramid NetWorks):Faster R-CNN与特征金字塔网络(FPN)的结合,可以极大地提升对不同尺寸物体的检测能力。这种结合的核心是利用FPN来增强Faster R-CNN中的特征提取能力,使其能够更有效地处理各种尺寸的物体。

在这里插入图片描述

5.1 FRN的引入

在这里插入图片描述

(a)在传统的图像预测的时候,我们采用的是将图片缩放成图片金字塔,让后对每张图片得到其特征图,分别对每个特征图进行预测。这样的操作有助于网络对大目标和小目标都能识别的很好。

(b)这是Faster R-CNN的预测方式,即将图片卷积成一个特征图,对其进行预测,这样的方式针对小目标的检测不太好

(c)这种方式表示针对图像卷积过程中得到的每一个特征图,都对其进行预测。

(d)FPN所使用的方式,不只是简单的像c图一样对backbone卷积的过程中得到的特征图直接进行预测,而是采取了不同特征图上的特征进行融合后预测的方式。实验结果表明,这样做确实有助于提升检测效果。

5.2 特征融合方式

特征图融合方式:

在这里插入图片描述

首先,每一层卷积其卷积后得到的特征图尺寸要求都是2的倍数,即逐渐缩小2倍。

1×1的卷积保证的是不同层的特征图进行融合的时候其通道数是一样的。

在上面一层的特征图与下面的特征图进行融合之前,要对上层特征图做2倍上采样处理。

更完整的FPN结构如下图:

在这里插入图片描述

这张图展示了,再每一层的特征图都完成融合之后,还会再接一个3×3的卷积层,做进一步的融合,得到特征图才来做预测。除此之外,在最上层的特征图融合完毕之后,还会采取一个最大池化下采样来进行预测。

5.3 FPN + Faster R-CNN

在FPN和Faster R-CNN结合的时候,P6只用于RPN,即生成候选框的时候,使用五个特征图来生成RoI。而在Fast R-CNN,即在RoI映射的时候,只会映射到P2到P5上。具体意思如下:

在Faster R-CNN中,RPN用于生成候选区域(region proposals)。在结合了FPN之后,RPN不再只在最顶层的特征图上运行,而是在多个尺度的特征图上运行。这样,每个尺度的特征图都可以独立地生成适合其尺度的候选区域。例如,较大的物体在较低层(更大尺寸的特征图)上检测,而较小的物体在较高层(更小尺寸的特征图)上检测。

接下来到了Fast R-CNN,在传统的Fast R-CNN中,所有的RoI(Region of Interest)都是从同一个尺度的特征图上提取特征。而在FPN结构中,每个RoI可以从不同尺度的特征图上提取特征(因为backbone产生了多个特征图),这是根据其大小和比例自动选择的。这样做可以确保更适合RoI的特征表示,因为较小的物体在高分辨率的特征图上能够保留更多细节,而较大的物体则在语义信息更丰富的低分辨率特征图上进行处理。

注意:由于使用了FRN,产生的特征图不止一个了,所以针对不同尺度的特征图,会采用不同尺寸和比例的Anchor来生成RoI。

注意:针对不同的预测特征层,RPN和Fast RCNN的权重是共享的。

针对从不同尺度的预测特征层上预测的RoI来说,会根据下图的方式,来选择将其投影到哪一个特征层上获得其特征图:

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/19176.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Qt 配置Eigen矩阵库 - 并简单测试

Qt 配置Eigen矩阵库 - 并简单测试 引言一、在Qt中配置Eigen二、低通Demo源码三、参考链接以及其他 引言 Eigen是一个开源的C模板库,提供了线性代数和矩阵运算的功能。它被设计为一个高性能、可扩展和易用的库,可以用于科学计算、机器学习和计算机图形学等…

服务器感染了. rmallox勒索病毒,如何确保数据文件完整恢复?

导言: 近年来,随着信息技术的飞速发展,网络安全问题日益凸显。其中,勒索病毒作为一种严重的网络威胁,对个人和企业数据造成了巨大的威胁。本文将重点介绍.rmallox勒索病毒的特点、传播途径以及应对策略,旨…

【LeetCode算法】第94题:二叉树的中序遍历

目录 一、题目描述 二、初次解答 三、官方解法 四、总结 一、题目描述 二、初次解答 1. 思路:二叉树的中序遍历。访问二叉树的左子树,再访问二叉树的根节点,最后访问二叉树的右叉树。 2. 代码: void order(struct TreeNode* r…

文心智能体平台丨创建你的四六级学习小助手

引言 在人工智能飞速发展的今天,我们迎来了文心智能体平台。该平台集成了最先进的人工智能技术,旨在为用户提供个性化、高效的学习辅助服务。今天,我们将向大家介绍如何利用文心智能体平台,创建一个专属于你的四六级学习小助手。…

Scikit-Learn随机森林回归

Scikit-Learn随机森林回归 1、随机森林1.1、集成学习1.2、Bagging方法1.3、随机森林算法1.4、随机森林的优缺点2、Scikit-Learn随机森林回归2.1、Scikit-Learn随机森林回归API2.2、随机森林回归实践(加州房价预测)1、随机森林 随机森林是一种由决策树构成的集成算法,它在大多…

初探Flask:Pycharm社区版创建Flask项目

文章目录 一、创建工程二、引入Flask库1.使用命令行安装Flask2.在PyCharm中安装Flask 三、创建Flask框架基本文件四、运行项目 本文将带您一步步创建一个简单的Flask项目,包括设置Python环境、安装Flask库以及创建基本的项目结构。 一、创建工程 首先,确…

云原生网关 MSE-Higress

云原生网关 MSE-Higress 什么是云原生网关MSEMSE测评产品文档产品能力产品控制台 MSE与其他网关 什么是云原生网关MSE 在体验云原生网关 MSE-Higress功能之前,先了解一下什么是云原生网关 MSE,简单的说就是MSE就是遵循开源 Ingress/Gateway API 标准的下…

【java程序设计期末复习】chapter2 基本数据类型与数组

基本数据类型与数组 一,标识符和关键字 标识符 定义 用来标识类名、变量名、方法名、类型名、数组名、文件名的有效字符序列称为标识符,简单地说,标识符就是一个名字 。 性质 (1)标识符由字母、下划线、美元符号和…

008-Linux后台进程管理(作业控制:、jobs、fg、bg、ctrl + z、nohup)

文章目录 前言 1、& 2、ctrl z 3、jobs 4、fg:将后台进程调到前台执行 5、bg:将一个暂停的后台进程变为执行 6、&和nohup 总结 前言 有时候我们需要将一个进程放到后台去运行,或者将后台程序切换回前台,这时候就…

03 Prometheus+Grafana可视化配置

03 PrometheusGrafana可视化配置 大家好,我是秋意零。接上篇Prometheus入门安装教程 grafana官网下载安装包比较慢,如果没有魔法。可关注公众号【秋意零】回复101获取 Grafana官网下载:https://grafana.com/grafana/download 这里采用的二进制…

使用C语言实现学生信息管理系统

前言 在我们实现学生信息管理系统的过程中,我们几乎会使用到C语言最常用最重要的知识,对于刚学习完C语言的同学来说是一次很好的巩固机会,其中还牵扯到数据结果中链表的插入和删除内容。 实现学生信息管理系统 文件的创建与使用 对于要实现…

【小技巧】Keil C51 报错“*** ERROR L107: ADDRESS SPACE OVERFLOW****

软件:Keil C51 C51V961版本 电脑:Win10 报错提示: compiling System.c... linking... *** ERROR L107: ADDRESS SPACE OVERFLOW SPACE: DATA SEGMENT: ?DT?LCD LENGTH: 0034H Program Size: data174.0 xdata17 code1205 Target not create…

100个投资者99个选择使用这款EA,WeTrade发现1个事实

为什么100个投资者会有99个选择使用这款EA,是因为这款EA能提供两个版本吗?是因为能控制风险吗?都不是,WeTrade发现1个事实才是这么多投资者选择的原因,那就是能实现100%的盈利率。 我们都知道外汇狙击手EA提供两种版本,分别是标…

MVC和Filter

目录 MVC和三层架构模型的联系 Filter 概念 作用 应用场景 步骤 简单入门 MVC和三层架构模型的联系 m-->model即模型是三层架构模型的业务层(service)和持久层(dao) v-->views即视图是三层架构模型的表现层(web) c-->controller即控制器也…

【SpringMVC】_SpringMVC项目返回HTML与JSON

目录 1. SpringMVC项目返回HTML页面 2. SpringMVC项目返回JSON 2.1 程序演示 2.2 关于响应的Content-Type 2.2.1 接口为对象 2.2.2 接口为String 2.2.3 接口为Map 本专栏已介绍: 返回静态页面: 【Spring MVC】_SpringMVC项目返回静态页面_mvc 返…

一种基于高德Web API实现沿路画面的实现

概述 本文在mapboxGL框架下,分享一种基于高德Web API实现沿路画面的实现。 实现效果 实现 1. 实现思路 通过点击获取路径的起点和终点;将多次规划路径的结果连成一条线;当鼠标点击回到第一个点的时候结束绘制;绘制结束后将路径…

写代码之前一定要提前想好思路

就和写数学题目一样,在做题目之前要先把思路确立下来。可能是我早年做数学的时候老是着急做题目没怎么分析过题目,把这个习惯不自觉地代入了代码的写入当中。习惯的养成使得我即使明白了自己的问题也依然会不断的犯错,看来只有刻意地提醒自己…

【MATLAB源码-第217期】基于matlab的16QAM系统相位偏移估计HOS算法仿真,对比补偿前后的星座图误码率。

操作环境: MATLAB 2022a 1、算法描述 高阶统计量(HOS)频偏估计算法 高阶统计量(Higher Order Statistics, HOS)频偏估计算法是一种先进的信号处理技术,广泛应用于现代数字通信系统中,以应对…

如何快速申请免费单域名SSL证书

申请免费的单域名SSL证书通常涉及以下几个步骤,虽然具体细节可能会根据不同的证书颁发机构(CA)有所差异。以下是通用的申请流程: 1.选择证书颁发机构: 访问提供免费单域名SSL证书的证书颁发机构网站,例如JoySSL等。 2.注册账号…

全局配置-案例:配置tabBar

一、需求:实现如图所示的tabBar效果 二、实现步骤: 1.拷贝图标资源 把image文件夹拷贝到小程序项目根目录中 图片中包含-active的是选中之后的图标 图片中不包含-active的是默认图标 2.新建3个对应的tab页面 3.配置tabBar选项 (1&#xf…