网络架构学习1

文章目录

  • 网络架构学习1
    • 1. 传统CNN卷积神经网络
      • 1.1 基本思想
      • 1.2 VCG16(经典CNN网络架构之一)
    • 2. 两种经典的网络架构
      • 2.1 FCN网络
      • 2.2 U-Net网络
    • 3. FCNVMB(基于U-Net架构)
      • 3.1 FCNVMB 主要思想
      • 3.2 FCNVMB 提供的其他思想

网络架构学习1

1. 传统CNN卷积神经网络

1.1 基本思想

CNN网络主要得过程:输入层-卷积层(ReLU)-池化层-全连接层-输出层 如下图所示:在这里插入图片描述
从传统的CNN网络架构中,我们可以看出CNN网络的最后加入一些全连接层,经过softmax后就可以获得类别概率信息,这个概率信息是一维的,即只能标识整个图片的类别,不能标识每个像素点的类别。
全连接层
在 CNN 结构中,经多个卷积层和池化层后,连接着1个或1个以上的全连接层,全连接层中的每个神经元与其前一层的所有神经元进行全连接.全连接层可以整合卷积层或者池化层中具有类别区分性的局部信息。最后全连接层输出进行分类。
在这里插入图片描述

1.2 VCG16(经典CNN网络架构之一)

在这里插入图片描述其中一共有13个卷积层;5个池化层和3个全连接层。其中

  • 卷积层:全部都是3*3的卷积核+ReLU激活函数 提取图像局部特征
  • 池化层:都是2x2的池化核和步长2,减小特征图的大小
  • 全连接层:包含2个全连接层,每个全连接层包含4096个神经元,用于分类输出
  • 输出层:一个大小为1000的全连接层,使用softmax激活函数,生成1000个类别的概率分布

从结构图可以看出,VCG有很明显的优缺点;其中

优点

  • VCG16网络是相对比较深的网络架构,随着卷积层的通道数增多,则提取的特征信息也越多,则可以提取更多的深层特征;
  • 其次就是卷积核较小且卷积核都是一样的,有助于更好的提取特征信息;

缺点

  • 网络参数过多,如果训练数据少就可能会发生过拟合,假设我们训练数据少,就要考虑用数据增强或则正则化策略去解决(数据增强是通过对训练数据进行一系列变换来生成新的数据样本,从而增加数据样本的数量和多样性;正则化是通过修改模型的损失函数,以鼓励模型保持简单的一种技术)
  • 其次就是输入图像尺寸不能太小(因为经历了5个池化层,可能多次池化后会导致特征图太小了)

如下是一个代码的主要过程思路:

    def __init__(self):super(vgg16, self).__init__()self.model = models.Sequential([   # 假设输入图像尺寸为224*224*3#64个通道;3x3的卷积核,步长为1,padding=same填充,卷积两次,再经ReLU激活,输出的尺寸大小为224x224x64Conv2D(filters=64, kernel_size=(3, 3), padding='same', activation='relu'),Conv2D(filters=64, kernel_size=(3, 3), padding='same', activation='relu'),BatchNormalization(),#最大池化层采用2*2 步长为2 输出的尺寸大小为 112x112x64MaxPooling2D(),#128个通道 3x3的卷积核,步长为1,padding=same填充,卷积两次,再经ReLU激活,输出的尺寸大小为112x112x128Conv2D(filters=128, kernel_size=(3, 3), padding='same', activation='relu'),Conv2D(filters=128, kernel_size=(3, 3), padding='same', activation='relu'),BatchNormalization(),# 最大池化层采用2*2 步长为2 输出的尺寸大小为 56x56x128MaxPooling2D(),# 256个通道 3x3的卷积核,步长为1,padding=same填充,卷积三次,再经ReLU激活,输出的尺寸大小为56x56x256Conv2D(filters=256, kernel_size=(3, 3), padding='same', activation='relu'),Conv2D(filters=256, kernel_size=(3, 3), padding='same', activation='relu'),Conv2D(filters=256, kernel_size=(3, 3), padding='same', activation='relu'),BatchNormalization(),# 最大池化层采用2*2 步长为2 输出的尺寸大小为 28x28x256MaxPooling2D(),# 512个通道 3x3的卷积核,步长为1,padding=same填充,卷积三次,再经ReLU激活,输出的尺寸大小为28x28x512Conv2D(filters=512, kernel_size=(3, 3), padding='same', activation='relu'),Conv2D(filters=512, kernel_size=(3, 3), padding='same', activation='relu'),Conv2D(filters=512, kernel_size=(3, 3), padding='same', activation='relu'),BatchNormalization(),# 最大池化层采用2*2 步长为2 输出的尺寸大小为 14x14x512MaxPooling2D(),# 512个通道 3x3的卷积核,步长为1,padding=same填充,卷积三次,再经ReLU激活,输出的尺寸大小为14x14x512Conv2D(filters=512, kernel_size=(3, 3), padding='same', activation='relu'),Conv2D(filters=512, kernel_size=(3, 3), padding='same', activation='relu'),Conv2D(filters=512, kernel_size=(3, 3), padding='same', activation='relu'),BatchNormalization(),# 最大池化层采用2*2 步长为2 输出的尺寸大小为 7x7x512MaxPooling2D(),#将数据拉平成向量,变成一维51277=25088Flatten(),# 经过两层1x1x4096,一层1x1x1000的全连接层(共三层),经ReLU激活Dense(4096, activation='relu'),Dense(4096, activation='relu'),# 通过softmax输出1000个预测结果Dense(10, activation='softmax')])

2. 两种经典的网络架构

2.1 FCN网络

FCN论文链接:Fully Convolutional Networks for Semantic Segmentation
对比传统的CNN网络,只进行了图像层面上的分类,而FCN的提出,对输入的图像进行了像素级分类的全卷积网络(这是开创性的),从而解决了语义级别的图像分割问题。(语义分割:图像中的每个像素分配给其所属的语义类别,即为图像中的每个像素标记一个类别标签;旨在理解图像中的物体和场景的整体语义信息,而不仅仅是对不同物体的像素进行分割)
例如下图:
在这里插入图片描述
在这里插入图片描述
下面主要分享的是FCN在CNN基础上的主要改进:

  • FCN提出了端到端,像素到像素卷积神经网络,搭建了一个全卷积神经网络,输入任意尺寸的图像,经过学习后输出相同尺寸的输出。
    在这里插入图片描述
  • FCN将全连接层转换为卷积层,则保留了原始空间的特征信息; 添加反卷积层进行向上采样,从而获得更接近真实图像的输出;添加了skip-connection结构(跳跃连接基本思想是在网络的某些层中,将输入直接连接到输出,以允许信息在不同层之间跳跃传递,可以提高了模型性能和训练速度);他的过程结构如下:
    在这里插入图片描述
    FCN网络在基于几个CNN网络架构下测试,发现基于VCG16网络表现出的性能是最好的,所以在FCN网络架构的pool5之前都是VCG16的架构。如下是具体的一个过程。从上面可以知道VCG16网络每个卷积核都是33且stride=1,padding=1; 池化都是22(直接对半)。
    (1)第一阶段:
    FCN32S:把全连接层转换为卷积层,且直接进行上采样32倍变为大图(无跳跃连接)
    在这里插入图片描述

(2)FCN16S:第二阶段:使用跳跃连接将conv7+pool4进行特征融合提升精确性
在这里插入图片描述

(3)FCN8S:使用跳跃连接将conv7+pool4+pool3进行特征融合提升精确性
在这里插入图片描述
在这里插入图片描述
从FCN网络训练结果看出,他得到的结果不够精细,采样结果还是比较模糊和平滑,对一些细节的处理还不是很好。但是在这篇论文中提供的思路是值得我们去学习和扩展的。

2.2 U-Net网络

U-Net论文地址:Convolutional Networks for Biomedical Image Segmentation

U-Net提出的初衷和fcn一样,也是为了解决医学图像分割的问题,他主要得特点是:

  • 端到端得网络,对称的网络结构(编码器-解码器结构)
  • skip-connection(跳跃连接)
    在这里插入图片描述在U-Net网络结构中:
    1. 左侧收缩路径(编码器Ecoder)功能是特征提取;主要过程是:卷积和最大池化。进行了4次像下采样,通道filters = [64, 128, 256, 512, 1024];。其中padding=0; strid为1;(没有进行边缘填充,每次卷积都会有损失,则会导致输入图像和输出图像分辨率并不一致。如果有填充,就会有误差存在,随着模型越深那受到padding的影响也越大)。
    1. 右侧扩展路径(解码器Decoder)功能是恢复特征图;主要过程是:卷积,上采样和skip-connection。
    1. skip-connection(挺重要的一个点,对比FCN)
      主要功能是进行特征融合,图中灰色箭头表示。将浅层的位置信心和深层的语义信息进行concat操作(浅层特征有较高的分辨率和较少的语义信息;深层特征反之)。具体的思想过程举例:
      假设特征图像尺寸: 256 ∗ 256 ∗ 64 256*256*64 25625664( 长 ∗ 宽 ∗ 通道数 长*宽*通道数 通道数)和另一个特征图像: 256 ∗ 256 ∗ 32 256*256*32 25625632进行concat融合,这直接会得到一个 256 ∗ 256 ∗ 96 256*256*96 25625696的特征图
      若特征图像尺寸: 256 ∗ 256 ∗ 64 256*256*64 25625664( 长 ∗ 宽 ∗ 通道数 长*宽*通道数 通道数)和另一个特征图像: 240 ∗ 240 ∗ 32 240*240*32 24024032进行concat融合,他们图像大小不相等有两种方法:
      a.对特征图 256 ∗ 256 ∗ 64 256*256*64 25625664进行裁剪变为 240 ∗ 240 ∗ 64 240*240*64 24024064,然后再和 240 ∗ 240 ∗ 32 240*240*32 24024032进行concat得到 240 ∗ 240 ∗ 96 240*240*96 24024096的特征图
      b. 对特征图 256 ∗ 256 ∗ 32 256*256*32 25625632进行填充变为 256 ∗ 256 ∗ 32 256*256*32 25625632,然后再和 256 ∗ 256 ∗ 64 256*256*64 25625664进行concat得到 256 ∗ 256 ∗ 96 256*256*96 25625696的特征图在这一个结构中采用的是裁剪+拼接(copy+crop
      注::FCN的skip-connection是加操作,即像素点相加;U-Net网络是叠操作(copy+crop)

3. FCNVMB(基于U-Net架构)

3.1 FCNVMB 主要思想

如下是FCNVMB网络结构图:
在这里插入图片描述数据集层级关系:在这里插入图片描述
FCNVMB是基于U-Net网络架构,结合上面的U-Net网络结构,FCNVMB也是一个对称的编码器-解码器结构;中间也采用了卷积,池化,反卷积和skip-connection; 但在U-Net下有创新之处如下:

  • 原始UNet模型是在图像处理领域提出的,通常用于处理RGB颜色通道表示的图像信息。在FCNVMB中主要处理地震数据,将不同位置生成的"炮集"作为输入的通道,进而输入通道的数量等于每个模型的源数量(每个炮集代表了来自相同模型的不同源位置的地震数据) —即输入数据发生了变化
  • 原始UNet的输出和输入在相同的图像领域内,在FCNVMB中 中为了实现地震速度模型的构建,将数据从(x, t)域映射到(x, z)域,并同时构建速度模型;并将输出层的通道修改为 1。—输出数据发生了变化
    如下图:
    地震数据(x, t)域
    在这里插入图片描述
    速度模型(x, z)域
    在这里插入图片描述
  • FCNVMB是基于监督的深度全卷积神经网络,在这个速度模型的构建过程中,论文采用了两种数据集一类是用声波方程作为正演模型来合成的模拟数据集;一类是采用Seg盐模拟数据对;将这些数据对 一部分用于训练;一部分用于测试。所以这篇论文我理解的大致思路就是:训练集数据集利用FCNVMB网络进行训练,学习地震数据和速度模型之间的一种映射关系,不断优化参数,训练好后我们再用测试集数据去进行预测。

监督网络:用大量的有标签的数据训练来训练模型,模型最终学习到输入和输出标签之间的相关性。监督学习主要是学习一种映射关系;
无监督网络:不依赖任何标签值(用无标签的数据训练),通过对数据内在特征的挖掘,找到样本间的关联。比如聚类算法;

  • FCNVMB代码主要的理解
class FCNVMB(nn.Module):def __init__(self, n_classes, in_channels, is_deconv, is_batchnorm):'''Network architecture of FCNVMB:param n_classes:       Number of channels of output (any single decoder) 输出通道数:param in_channels:     Number of channels of network input 输入通道树:param is_deconv:       Whether to use deconvolution 是否使用反卷积:param is_batchnorm:    Whether to use BN 是否使用BN'''super(FCNVMB, self).__init__()self.is_deconv = is_deconvself.in_channels = in_channelsself.is_batchnorm = is_batchnormself.n_classes = n_classesfilters = [64, 128, 256, 512, 1024] #表示网络的通道数,这些整数用于定义U-Net模型的不同层级的通道数self.down1 = unetDown(self.in_channels, filters[0], self.is_batchnorm)self.down2 = unetDown(filters[0], filters[1], self.is_batchnorm)self.down3 = unetDown(filters[1], filters[2], self.is_batchnorm)self.down4 = unetDown(filters[2], filters[3], self.is_batchnorm)self.center = unetConv2(filters[3], filters[4], self.is_batchnorm)self.up4 = unetUp(filters[4], filters[3], self.is_deconv)self.up3 = unetUp(filters[3], filters[2], self.is_deconv)self.up2 = unetUp(filters[2], filters[1], self.is_deconv)self.up1 = unetUp(filters[1], filters[0], self.is_deconv)self.final = nn.Conv2d(filters[0], self.n_classes, 1)def forward(self, inputs, label_dsp_dim):''':param inputs:          Input Image:param label_dsp_dim:   Size of the network output image (velocity model size):return:'''down1 = self.down1(inputs)down2 = self.down2(down1)down3 = self.down3(down2)down4 = self.down4(down3)center = self.center(down4)up4 = self.up4(down4, center)up3 = self.up3(down3, up4)up2 = self.up2(down2, up3)up1 = self.up1(down1, up2)up1 = up1[:, :, 1:1 + label_dsp_dim[0], 1:1 + label_dsp_dim[1]].contiguous()return self.final(up1)

(1) 其中unetDown函数包含上采样过程:经过卷积和池化

class unetDown(nn.Module):def __init__(self, in_size, out_size, is_batchnorm):'''Downsampling Unit[Affiliated with FCNVMB]:param in_size:         Number of channels of input:param out_size:        Number of channels of output:param is_batchnorm:    Whether to use BN'''super(unetDown, self).__init__()self.conv = unetConv2(in_size, out_size, is_batchnorm)self.down = nn.MaxPool2d(2, 2, ceil_mode=True)def forward(self, inputs):''':param inputs:          Input Image:return:'''outputs = self.conv(inputs)outputs = self.down(outputs)return outputs

(2) 其中UnetCenter部分
主要是增加了通道数,图像分辨率不变

(3) 其中unetUp函数:提供了两种方式的上采样,ConvTranspose2d:创建反卷积层进行上采样(U-Net使用的则是这一种);UpsamplingBilinear2d:传统的双线性插值上采样(FCN使用的是这一种); 另一个是skip-connection:是采用U-Net网络结构中的叠操作(copy+crop),并且是填充大小。

class unetUp(nn.Module):def __init__(self, in_size, out_size, is_deconv):'''Upsampling Unit[Affiliated with FCNVMB]:param in_size:      Number of channels of input:param out_size:     Number of channels of output:param is_deconv:    Whether to use deconvolution'''super(unetUp, self).__init__()self.conv = unetConv2(in_size, out_size, True)# Transposed convolutionif is_deconv:self.up = nn.ConvTranspose2d(in_size, out_size, kernel_size=2, stride=2)else:self.up = nn.UpsamplingBilinear2d(scale_factor=2)def forward(self, inputs1, inputs2):''':param inputs1:      Layer of the selected coding area via skip connection:param inputs2:      Current network layer based on network flows:return:'''outputs2 = self.up(inputs2)offset1 = (outputs2.size()[2] - inputs1.size()[2])offset2 = (outputs2.size()[3] - inputs1.size()[3])padding = [offset2 // 2, (offset2 + 1) // 2, offset1 // 2, (offset1 + 1) // 2]# Skip and concatenateoutputs1 = F.pad(inputs1, padding)return self.conv(torch.cat([outputs1, outputs2], 1))

3.2 FCNVMB 提供的其他思想

(1)VMB的局限1:训练数据集的选择;FCNVMB网络结构很依赖选择的数据集,直接使用经过训练的网络来测试复杂(例如SEG盐模型)或真实模型会很困难。如实验中对数据进行不加盐的预测(使用 10 个不含盐的训练样本进行训练),用现有的FCNVMB和FWI去预测,其预测结果如下,VMB的性能结构并没有FWI好
在这里插入图片描述
结合这个问题,一方面我们可以增强数据,增加数据的多样性(对现有数据进行变换、旋转、缩放),另一方面是引入迁移学习,迁移学习主要思想:将在一个任务上学到的知识或模型应用于解决另一个相关任务(尤其是新任务的数据集相对较小或缺乏标注时),则可以使用预训练网络作为初始化网络,目的是更有效地显示输入和输出之间的非线性映射,而不仅仅是让机器记住数据集的特征。
(2) 低频信息的重要性。
低频信息的在论文中提到当低频信息被移除时(利用技术滤除低频信息进行实验),速度模型的结构边界变得不太清晰,背景速度层次略显模糊。这表明低频信息对于提高速度模型预测的精度和清晰度非常重要。VMB的局限2:但是如何获取低频信息是一个难点。(为什么低频信息回很重要呢,多少hz才算低频?)
(3)作者在最后提出了另一个思想即利用生成对抗网络(GAN): 生成对抗网络包含一个生成模型和一个判别模型(一种基于有限开放数据集的半监督学习网络)其中

  • 生成器:其任务是尽生成模仿训练集中的真实样本;
  • 判别器:判别模型一般情况下是一个二分类器,目标是判别输入是真实数据还是生成的样本。
  • 博弈过程:训练中,生成器和判别器相互竞争。生成器的目标是生成能够欺骗判别器的伪造数据,而判别器的目标是尽量准确地识别伪造数据。这个博弈过程推动了生成器和判别器不断完善
  • 训练过程: 训练过程包括多轮的生成器和判别器之间的竞争。通过这个过程,生成器逐渐学习生成逼真的数据,而判别器逐渐学习变得更善于区分真实和伪造数据。
    目前是CNN和GAN进行结合的网络即DCGAN 网络,具体的网络结构还未去了解过。

(4)作者论文提到以后可能得一个研究方向是去揭示传统反演方法与特定网络之间的潜在关系。我觉得挺有趣的,就像本论文的VMB,他其实就是在传统经典的网络架构上进行了改进,将他巧妙的应用到地震反演中并修改了输入输出。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/120664.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【Acwing167】木棒(dfs+剪枝)超级详细题解!

题目描述 统一说明 本题思路来源于acwing算法提高课 木棍指题目输入数据所指的东西 木棒指最后由木棍拼接而成的最长的东西 看本文需要准备的知识 1.dfs基本思想 2.对“剪枝”这个词汇有一个基本的认识即可 整体分析 这个题目最终是求木棒的最短长度,所以我…

shell脚本的基础知识

目录 1.什么是shell 2.shell脚本的意义 3.如何创建shell脚本 4.如何执行shell脚本 5.如何对脚本进行测试 脚本练习 1.什么是shell Shell是一种命令行解释器,是用户与操作系统内核之间的接口,允许用户编辑和执行命令。它是用户输入命令并将其传递给操…

万能鼠标设置 SteerMouse v5.6.8

鼠标可谓是用户们在使用电脑时候的必备外接设备呢!适合你自己的鼠标设置也绝对能够优化你的Mac使用体验!想要更好的Mac体验就试试用Steermouse Mac版吧。它通过软件来自由设置你的鼠标操作!在这款万能鼠标设置工具中,用户可以在偏…

Tuxera NTFS2024破解版本下载

当您获得一台新 Mac 时,它只能读取 Windows NTFS 格式的 USB 驱动器。要将文件添加、保存或写入您的 Mac,您需要一个附加的 NTFS 驱动程序。Tuxera 的 Microsoft NTFS for Mac 是一款易于使用的软件,可以在 Mac 上打开、编辑、复制、移动或删…

hdlbits系列verilog解答(模块按名字)-22

文章目录 一、问题描述二、verilog源码三、仿真结果 一、问题描述 此问题类似于模块。您将获得一个名为的 mod_a 模块,该模块按某种顺序具有 2 个输出和 4 个输入。您必须按名称将 6 个端口连接到顶级模块的端口: module mod_a ( output out1, output …

FPGA从入门到精通(二十)SignalTapII

这一篇将介绍SignalTapII。 之前的工程我们是做仿真,设置激励,观察输出波形去判断代码没有问题,但事实上我们真实的需求是综合后的代码下载到FPGA芯片中能够符合预期。 其中可能出现问题的原因有: 1、我们是写testbench设置激励…

五、W5100S/W5500+RP2040树莓派Pico<UDP Client数据回环测试>

文章目录 1. 前言2. 协议简介2.1 简述2.2 优点2.3 应用 3. WIZnet以太网芯片4. UDP Client回环测试4.1 程序流程图4.2 测试准备4.3 连接方式4.4 相关代码4.5 测试现象 5. 注意事项6. 相关链接 1. 前言 UDP是一种无连接的网络协议,它提供了一种简单的、不可靠的方式来…

软考高级系统架构师冲关预测

[ – 2023年10月27日 – ] 去年11月通过了软考高级系统架构师的考试,原本想立即分享下过关的总结回顾,但是随着软考新版大纲及教程的发布,也意味着题目及内容的复盘总结经验便不那么适用。在即将迎来今年的软考高架的时候,想着透…

构建客户门户的痛点及低代码工具解决方案

企业如何做好数字化转型呢? 如果笼统地说起“数字化转型”,这个概念太大了,它涉及到了企业管理中的方方面面。数字化转型是一个持续不断的过程,既要在整体上进行数字规划,也需要从细节入手,将每一个步骤进…

学习笔记:tarjan

tarjan 引入 Robert Tarjan,计算机科学家,以 LCA、强连通分量等算法而闻名。Tarjan 设计了求解的应用领域的广泛有效的算法和数据结构。他以在数据结构和图论上的开创性工作而闻名,他的一些著名的算法有 Tarjan 最近公共祖先离线算法&#…

一、高效构建Java应用:Maven入门和进阶

一、高效构建Java应用:Maven入门和进阶 目录 一、Maven简介和快速入门 1.1 Maven介绍1.2 Maven主要作用理解1.3 Maven安装和配置 二、基于IDEA的Maven工程创建 2.1梳理Maven工程GAVP属性2.2 Idea构建Maven JavaSE工程2.3 Idea构建Maven JavaEE工程2.4 Maven工程项…

Git Gui使用技巧

资料 https://www.runoob.com/w3cnote/git-gui-window.html 操作过程 创建仓库→添加远程仓库→扫描目录→文件移动→提交→上传 注意填注释 文件忽略 创建文件.gitignore→编写内容 *.log #文件 config.ini #文件 temp/ #目录

什么是恶意代码?

前言:本文旨在分享交流技术,在这里对恶意代码进行全面的介绍和讲解 目录 一.什么是恶意代码 二.恶意代码的发展史 三.恶意代码的相关定义 四.恶意代码攻击机制 PE病毒 PE文件的格式 脚本病毒 脚本文件隐藏方法 宏病毒 浏览器恶意代码 U盘病毒 …

优化改进YOLOv5算法:加入ODConv+ConvNeXt提升小目标检测能力——(超详细)

为了提升无人机视角下目标检测效果,基于YOLOv5算法,在YOLOv5主干中实现了Omnidimensional Convolution(ODConv),以在不增加网络宽度和深度的情况下提高精度,还在YOLOv5骨干网中用ConvNeXt块替换了原始的C3块,以加快检测速度。 1 Omni-dimensional dynamic convolution …

Jenkins 重新定义 pom 内容,打包

文章目录 源码管理构建 源码管理 添加仓库地址,拉取凭证,选择需要的分支 构建 勾选 构建环境 下删除原始 build 配置,防止文件错误 Pre Steps 构建前处理 pom.xml ,例如我是需要删除该模块的所有子模块配置,我这里…

面试题之Vue和React的区别是什么?

一提到前端框架,相信大家都对Vue和React不陌生,这两个前端框架都是比较主流的,用户也都比较多,但是我们在使用这些框架的时候,是否对这两个框架之间的区别有所了解呢?接下来,让我们来一起的系统…

vscode下ssh免密登录linux服务器

vscode使用ssh免密登录linux 1、安装SSH插件2、生成密钥3、linux安装ssh服务4、linux下配置公钥5、vscode远程登录 注:测试环境为window10Ubuntu1804/Ubuntu2204 1、安装SSH插件 扩展->搜索SSH->点击install进行安装,如下图所示: 2、…

Docker 容器服务的注册、发现及Docker安全

目录 Docker容器服务的注册和发现 1、什么是服务注册与发现? 2、什么是consul consul的部署 1、环境准备 2、部署consul服务器 1)建立 Consul 服务 2)设置代理,在后台启动 consul 服务端 3)查看集群信息 4&a…

Linux C语言开发-D7D8运算符

算术运算符&#xff1a;-*/%&#xff0c;浮点数可以参与除法运算&#xff0c;但不能参与取余运算 a%b&#xff1a;表示取模或取余 关系运算符&#xff1a;<,>,>,<,,! 逻辑运算符:!,&&,|| &&,||逻辑运算符是从左到右&#xff0c;依次运算&#…

OpenCV学习(三)——响应鼠标事件(获取点击点坐标和颜色,利用鼠标进行绘图)

响应鼠标事件 3. 响应鼠标事件3.1 获取鼠标点击的坐标3.2 获取鼠标点击像素点的颜色3.3 在鼠标点击的位置生成圆3.4 通过拖动鼠标来绘制填充矩形3.5 通过拖动鼠标绘制未填充矩形3.6 使用鼠标选点绘制多边形3.7 按住鼠标左键进行绘图 3. 响应鼠标事件 使用OpenCV读取图像&#…