大数据深度学习ResNet深度残差网络详解:网络结构解读与PyTorch实现教程

文章目录

  • 大数据深度学习ResNet深度残差网络详解:网络结构解读与PyTorch实现教程
  • 一、深度残差网络(Deep Residual Networks)简介
    • 深度学习与网络深度的挑战
    • 残差学习的提出
    • 为什么ResNet有效?
  • 二、深度学习与梯度消失问题
    • 梯度消失问题定义
    • 为什么会出现梯度消失?
      • 激活函数
      • 初始化方法
      • 网络深度
    • 如何解决梯度消失问题
  • 三、残差块(Residual Blocks)基础
    • 残差块的核心思想
    • 结构组成
    • 残差块的变体
  • 四、ResNet架构
      • 架构组成
    • 4.1 初始卷积层
      • 功能和作用
      • 结构详解
      • 为何不使用多个小卷积核?
      • 小结
    • 4.2 残差块组(Residual Block Groups)
      • 功能和作用
      • 结构详解
      • 残差块组与特征图大小
      • 小结
    • 4.3 全局平均池化(Global Average Pooling)
      • 功能和作用
      • 结构详解
      • 与全连接层的比较
      • 小结
    • 4.4 全连接层(Fully Connected Layer)
      • 功能和作用
      • 结构详解
      • 激活函数与Dropout
      • 小结
  • 五、实战:使用PyTorch构建ResNet模型
    • 5.1 构建ResNet模型
      • 前置条件
      • 构建Residual Block
      • 构建ResNet-18
      • 模型测试
    • 5.2 训练与评估
      • 数据预处理与加载
      • 模型训练
      • 模型评估
  • 六、总结
  • 六、总结

大数据深度学习ResNet深度残差网络详解:网络结构解读与PyTorch实现教程

本文深入探讨了深度残差网络(ResNet)的核心概念和架构组成。我们从深度学习和梯度消失问题入手,逐一解析了残差块、初始卷积层、残差块组、全局平均池化和全连接层的作用和优点。文章还包含使用PyTorch构建和训练ResNet模型的实战部分,带有详细的代码和解释。

在这里插入图片描述

一、深度残差网络(Deep Residual Networks)简介

深度残差网络(Deep Residual Networks,简称ResNet)自从2015年首次提出以来,就在深度学习领域产生了深远影响。通过一种创新的“残差学习”机制,ResNet成功地训练了比以往模型更深的神经网络,从而显著提高了多个任务的性能。深度残差网络通过引入残差学习和特殊的网络结构,解决了传统深度神经网络中的梯度消失问题,并实现了高效、可扩展的深层模型。

深度学习与网络深度的挑战

在深度学习中,网络的“深度”(即层数)通常与模型的能力成正比。然而,随着网络深度的增加,一些问题也随之出现,最突出的是梯度消失/爆炸问题。这使得深层网络难以训练。

残差学习的提出

在这里插入图片描述

传统的深度神经网络试图学习目标函数 ( H(x) ),但是在ResNet中,每个网络层实际上学习的是一个残差函数 ( F(x) = H(x) - x )。然后,这个残差结果与输入 ( x ) 相加,形成 ( H(x) = F(x) + x )。这一机制使得网络更容易学习身份映射,进而缓解了梯度消失问题。

# PyTorch中的残差块实现
import torch
import torch.nn as nnclass ResidualBlock(nn.Module):def __init__(self, in_channels, out_channels, stride=1):super(ResidualBlock, self).__init__()self.conv1 = nn.Conv2d(in_channels, out_channels, kernel_size=3, stride=stride, padding=1)self.bn1 = nn.BatchNorm2d(out_channels)self.relu = nn.ReLU(inplace=True)self.conv2 = nn.Conv2d(out_channels, out_channels, kernel_size=3, stride=1, padding=1)self.bn2 = nn.BatchNorm2d(out_channels)self.shortcut = nn.Sequential()if stride != 1 or in_channels != out_channels:self.shortcut = nn.Sequential(nn.Conv2d(in_channels, out_channels, kernel_size=1, stride=stride),nn.BatchNorm2d(out_channels))def forward(self, x):out = self.relu(self.bn1(self.conv1(x)))out = self.bn2(self.conv2(out))out += self.shortcut(x)out = self.relu(out)return out# 输出示例
x = torch.randn(64, 3, 32, 32)
block = ResidualBlock(3, 64)
out = block(x)
print(out.shape)  # 输出:torch.Size([64, 64, 32, 32])

为什么ResNet有效?

  • 解决梯度消失问题:通过残差连接,梯度能够更容易地反向传播。
  • 参数效率:与传统的深层网络相比,ResNet能以更少的参数实现更好的性能。

二、深度学习与梯度消失问题

在深入研究深度残差网络(ResNet)之前,理解梯度消失问题是至关重要的。该问题长期以来一直是训练深层神经网络的主要难点。本节将讲解梯度消失问题的基本原理,以及这一问题如何影响深度学习模型的训练。

梯度消失问题定义

梯度消失问题发生在神经网络的反向传播过程中,具体表现为网络中某些权重的梯度接近或变为零。这导致这些权重几乎不会更新,从而阻碍了网络的训练。

数学上,假设我们有一个误差函数 ( E ),对于网络中的某个权重 ( w ),如果 ( \frac{\partial E}{\partial w} ) 趋近于零,则表明出现了梯度消失问题。

为什么会出现梯度消失?

激活函数

使用Sigmoid或者Tanh等饱和激活函数时,其导数在两端极小,这很容易导致梯度消失。

初始化方法

权重初始化不当也可能导致梯度消失。例如,如果初始化权重过小,那么激活函数的输出和梯度都可能非常小。

网络深度

网络越深,梯度在反向传播过程中经过的层就越多,导致梯度消失问题更加严重。

如何解决梯度消失问题

  • 使用ReLU激活函数:ReLU(Rectified Linear Unit)激活函数能够缓解梯度消失。
  • 合适的权重初始化:如He初始化或Glorot初始化。
  • 使用短接结构(Skip Connections):这是ResNet解决梯度消失问题的核心机制。
# 使用ReLU和He初始化的简单示例
import torch.nn as nnclass SimpleNetwork(nn.Module):def __init__(self):super(SimpleNetwork, self).__init__()self.layer1 = nn.Linear(10, 50)nn.init.kaiming_normal_(self.layer1.weight, nonlinearity='relu')  # He初始化self.relu = nn.ReLU()def forward(self, x):x = self.layer1(x)x = self.relu(x)return x# 输出示例
x = torch.randn(32, 10)
model = SimpleNetwork()
out = model(x)
print(out.shape)  # 输出:torch.Size([32, 50])

三、残差块(Residual Blocks)基础

残差块(Residual Blocks)是深度残差网络(Deep Residual Networks,或ResNet)中的基本构建单元。通过使用残差块,ResNet有效地解决了梯度消失问题,并能训练极深的网络。本节将深入探讨残差块的基础概念、设计与实现。残差块作为ResNet的基础组成部分,其设计充分考虑了训练稳定性和模型性能。通过引入残差学习和短接连接,ResNet能够有效地训练深度网络,从而在多个任务上达到先进的性能。
在这里插入图片描述

残差块的核心思想

在传统的卷积神经网络(CNN)中,每个卷积层试图学习输入与输出之间的映射。残差块则采用了不同的策略:它们试图学习输入与输出之间的残差映射,即:

[
F(x) = H(x) - x
]

其中,( F(x) ) 是残差函数,( H(x) ) 是目标映射函数,( x ) 是输入。然后,( F(x) ) 与输入 ( x ) 相加,得到最终输出:

[
H(x) = F(x) + x
]

结构组成

一个基础的残差块通常包含以下几个部分:

  • 卷积层:用于特征提取。
  • 批量归一化(Batch Normalization):用于加速训练和改善模型泛化。
  • 激活函数:通常使用ReLU。
  • 短接连接(Skip Connection):直接连接输入和输出。
# 残差块的PyTorch实现
import torch
import torch.nn as nnclass ResidualBlock(nn.Module):def __init__(self, in_channels, out_channels, stride=1):super(ResidualBlock, self).__init__()self.conv1 = nn.Conv2d(in_channels, out_channels, kernel_size=3, stride=stride, padding=1)self.bn1 = nn.BatchNorm2d(out_channels)self.relu = nn.ReLU(inplace=True)self.conv2 = nn.Conv2d(out_channels, out_channels, kernel_size=3, stride=1, padding=1)self.bn2 = nn.BatchNorm2d(out_channels)self.shortcut = nn.Sequential()if stride != 1 or in_channels != out_channels:self.shortcut = nn.Sequential(nn.Conv2d(in_channels, out_channels, kernel_size=1, stride=stride),nn.BatchNorm2d(out_channels))def forward(self, x):out = self.relu(self.bn1(self.conv1(x)))out = self.bn2(self.conv2(out))out += self.shortcut(x)out = self.relu(out)return out# 输出示例
x = torch.randn(64, 3, 32, 32)
block = ResidualBlock(3, 64)
out = block(x)
print(out.shape)  # 输出:torch.Size([64, 64, 32, 32])

残差块的变体

  • Bottleneck Blocks:在更深的ResNet(如ResNet-152)中,为了减少计算量,通常使用“瓶颈”结构,即先通过一个小的卷积核(如1x1)降维,再进行3x3卷积,最后通过1x1卷积恢复维度。

四、ResNet架构

在这里插入图片描述

本节将介绍ResNet(深度残差网络)的整体架构,以及它在计算机视觉和其他领域的应用。一个标准的ResNet模型由多个残差块组成,通常开始于一个普通的卷积层和池化层,用于进行初步的特征提取。接下来是一系列的残差块,最后是全局平均池化层和全连接层。

架构组成

  • 初始卷积层:用于初步特征提取。
  • 残差块组(Residual Blocks Group):包含多个残差块。
  • 全局平均池化(Global Average Pooling):减小维度。
  • 全连接层:用于分类或其他任务。

4.1 初始卷积层

在这里插入图片描述

在进入深度残差网络的主体结构之前,第一层通常是一个初始卷积层。这个卷积层的主要任务是对输入图像进行一定程度的空间下采样(Spatial Downsampling)和特征抽取。

功能和作用

  1. 空间下采样(Spatial Downsampling): 初始卷积层通常具有较大的卷积核和步长(stride),用于减少后续层需要处理的空间维度,从而降低计算复杂度。
  2. 特征抽取: 初始卷积层能够抓取图像的基础特征,如边缘、纹理等,为后续的特征抽取工作打下基础。

结构详解

在ResNet-18和ResNet-34中,这一初始卷积层通常由一个7x7大小的卷积核、步长(stride)为2和填充(padding)为3组成。这个层后面通常还会跟随一个批量归一化(Batch Normalization)层和ReLU激活函数。

self.conv1 = nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3)
self.bn1 = nn.BatchNorm2d(64)
self.relu = nn.ReLU(inplace=True)

为何不使用多个小卷积核?

在一些其他网络架构中,初始层可能由多个小卷积核(如3x3)组成,那么为什么ResNet要使用一个较大的7x7卷积核呢?主要原因是,一个大的卷积核可以在相同数量的参数下,提供更大的感受野(Receptive Field),从而更有效地捕获图像的全局信息。

小结

初始卷积层在整个ResNet架构中扮演着非常重要的角色。它不仅完成了对输入图像的基础特征抽取,还通过空间下采样减轻了后续计算的负担。这些设计细节共同使得ResNet能在保持高性能的同时,具有更低的计算复杂度。

4.2 残差块组(Residual Block Groups)

在这里插入图片描述

在初始卷积层之后,紧接着就是ResNet的核心组成部分,也就是残差块组(Residual Block Groups)。这些残差块组成了ResNet架构中的主体,负责高级特征的抽取和传递。

功能和作用

  1. 特征抽取: 每个残差块组负责从其前一组中提取的特征中提取更高级的特征。
  2. 非线性性能增强: 通过残差链接,每个残差块组能够学习输入与输出之间的复杂非线性映射。
  3. 避免梯度消失和爆炸: 残差块组内的Skip Connection(跳过连接)能够更好地传递梯度,有助于训练更深的网络。

结构详解

在标准的ResNet-18或ResNet-34模型中,通常会包括几组残差块。每一组都有一定数量的残差块,这些块的数量和组的深度有关。

  • 第一组可能包括2个残差块,用64个输出通道。
  • 第二组可能包括2个残差块,用128个输出通道。
  • 第三组可能包括2个残差块,用256个输出通道。
  • 第四组可能包括2个残差块,用512个输出通道。
# 示例代码,表示第一组残差块
self.layer1 = nn.Sequential(ResidualBlock(64, 64),ResidualBlock(64, 64)
)

残差块组与特征图大小

每一组的第一个残差块通常会减小特征图的尺寸(即进行下采样),而增加输出通道数。这样做可以保证模型的计算效率,同时能抓住更多层次的特征。

小结

残差块组是ResNet架构中最核心的部分,通过逐层抽取更高级的特征并通过残差连接优化梯度流动,这些设计使得ResNet模型能够有效并且准确地进行图像分类以及其他计算机视觉任务。

4.3 全局平均池化(Global Average Pooling)

在这里插入图片描述

在通过一系列残差块组进行特征抽取和非线性映射之后,ResNet通常使用全局平均池化层(Global Average Pooling,简称GAP)作为网络的最后一个卷积层。与传统的全连接层相比,全局平均池化有几个显著优点。

功能和作用

  1. 降维: 全局平均池化层将每个特征图(Feature Map)缩减为一个单一的数值,从而显著减小模型参数和计算量。
  2. 防止过拟合: 由于其简单性和少量的参数,全局平均池化有助于防止模型过拟合。
  3. 改善泛化能力: 简化的网络结构能更好地泛化到未见过的数据。

结构详解

全局平均池化层简单地计算每个特征图的平均值。假设我们有一个形状为(batch_size, num_channels, height, width)的特征图,全局平均池化将输出一个形状为(batch_size, num_channels)的张量。

# PyTorch中的全局平均池化
self.global_avg_pooling = nn.AdaptiveAvgPool2d((1, 1))

与全连接层的比较

在许多传统的卷积神经网络(如AlexNet)中,网络的末端通常包括几个全连接层。然而,全连接层往往包含大量的参数,从而增加了过拟合的风险。与之相比,全局平均池化由于其参数更少、计算更简单,因此更受现代深度学习架构的青睐。

小结

全局平均池化是ResNet架构的一个重要组成部分,它不仅显著减小了模型的参数数量,还有助于提高模型的泛化能力。这些优点使得全局平均池化在许多现代卷积神经网络中都有广泛的应用。

4.4 全连接层(Fully Connected Layer)

在这里插入图片描述

在全局平均池化(GAP)之后,ResNet架构通常包含一个或多个全连接层(Fully Connected Layer)。全连接层在ResNet中的主要目的是为了进行分类或者回归任务。

功能和作用

  1. 分类或回归: 全连接层的主要任务是根据前层特征进行分类或回归。
  2. 增加模型复杂度: 相比GAP,全连接层可以增加模型的复杂度,从而拟合更复杂的函数。
  3. 特征整合: 全连接层能够整合前面各层的信息,输出一个固定大小的特征向量。

结构详解

全连接层通常接收全局平均池化层输出的平坦化(flattened)向量,并通过一系列线性变换与激活函数生成输出。例如,在分类问题中,全连接层通常输出一个与类别数相等的节点。

# PyTorch中的全连接层示例
self.fc = nn.Linear(512, num_classes)  # 假设全局平均池化后有512个通道,num_classes为分类数量

激活函数与Dropout

全连接层之后通常会接一个激活函数,如ReLU或者Softmax,以引入非线性。有时也会使用Dropout层来防止过拟合,尤其是在全连接层的节点数较多时。

小结

虽然全连接层相对简单,但它在ResNet以及其他深度学习模型中占据重要地位。全连接层是进行分类或回归的关键,同时也为模型提供了最后的机会进行特征整合和学习复杂映射。


五、实战:使用PyTorch构建ResNet模型

5.1 构建ResNet模型

在这一部分中,我们将使用PyTorch框架来实现一个简化版的ResNet-18模型。我们的目标是构建一个可以在CIFAR-10数据集上进行分类任务的模型。

前置条件

确保您已经安装了PyTorch和其他必要的库。

pip install torch torchvision

构建Residual Block

首先,让我们实现一个残差块。这是前面章节已经介绍过的内容。

import torch
import torch.nn as nnclass ResidualBlock(nn.Module):def __init__(self, in_channels, out_channels, stride=1):super(ResidualBlock, self).__init__()self.conv1 = nn.Conv2d(in_channels, out_channels, kernel_size=3, stride=stride, padding=1)self.bn1 = nn.BatchNorm2d(out_channels)self.relu = nn.ReLU(inplace=True)self.conv2 = nn.Conv2d(out_channels, out_channels, kernel_size=3, stride=1, padding=1)self.bn2 = nn.BatchNorm2d(out_channels)self.shortcut = nn.Sequential()if stride != 1 or in_channels != out_channels:self.shortcut = nn.Sequential(nn.Conv2d(in_channels, out_channels, kernel_size=1, stride=stride),nn.BatchNorm2d(out_channels))

构建ResNet-18

接下来,我们使用残差块来构建完整的ResNet-18模型。

class ResNet18(nn.Module):def __init__(self, num_classes=10):super(ResNet18, self).__init__()self.conv1 = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1)self.bn1 = nn.BatchNorm2d(64)self.relu = nn.ReLU(inplace=True)self.layer1 = self._make_layer(64, 64, 2)self.layer2 = self._make_layer(64, 128, 2, stride=2)self.layer3 = self._make_layer(128, 256, 2, stride=2)self.layer4 = self._make_layer(256, 512, 2, stride=2)self.avgpool = nn.AdaptiveAvgPool2d((1, 1))self.fc = nn.Linear(512, num_classes)def _make_layer(self, in_channels, out_channels, blocks, stride=1):layers = []layers.append(ResidualBlock(in_channels, out_channels, stride))for _ in range(1, blocks):layers.append(ResidualBlock(out_channels, out_channels))return nn.Sequential(*layers)def forward(self, x):x = self.conv1(x)x = self.bn1(x)x = self.relu(x)x = self.layer1(x)x = self.layer2(x)x = self.layer3(x)x = self.layer4(x)x = self.avgpool(x)x = torch.flatten(x, 1)x = self.fc(x)return x

以上代码定义了一个用于CIFAR-10分类任务的ResNet-18模型。在这个模型中,我们使用了前面定义的ResidualBlock类,并通过_make_layer函数来堆叠多个残差块。

模型测试

接下来,我们可以测试这个模型以确保其结构是正确的。

# 创建一个模拟输入
x = torch.randn(64, 3, 32, 32)# 实例化模型
model = ResNet18(num_classes=10)# 前向传播
output = model(x)# 输出形状应为(64, 10),因为我们有64个样本和10个类别
print(output.shape)  # 输出:torch.Size([64, 10])

5.2 训练与评估

在成功构建了ResNet-18模型之后,下一步就是进行模型的训练和评估。在这一部分,我们将介绍如何在CIFAR-10数据集上完成这两个步骤。

数据预处理与加载

首先,我们需要准备数据。使用PyTorch的torchvision库,我们可以非常方便地下载和预处理CIFAR-10数据集。

import torch
import torchvision
import torchvision.transforms as transforms# 数据预处理
transform = transforms.Compose([transforms.RandomCrop(32, padding=4),transforms.RandomHorizontalFlip(),transforms.ToTensor(),transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010)),
])# 加载数据集
trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=128, shuffle=True)testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=128, shuffle=False)

模型训练

训练模型通常需要指定损失函数和优化器,并反复进行前向传播、计算损失、反向传播和参数更新。

import torch.optim as optim# 实例化模型并移至GPU
model = ResNet18(num_classes=10).cuda()# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.1, momentum=0.9, weight_decay=5e-4)# 训练模型
for epoch in range(10):  # 运行10个周期for i, data in enumerate(trainloader, 0):inputs, labels = datainputs, labels = inputs.cuda(), labels.cuda()# 清零梯度缓存optimizer.zero_grad()# 前向传播,计算损失,反向传播outputs = model(inputs)loss = criterion(outputs, labels)loss.backward()# 更新参数optimizer.step()

模型评估

训练完成后,我们需要评估模型的性能。这通常通过在测试集上计算模型的准确率来完成。

# 切换模型为评估模式
model.eval()correct = 0
total = 0
with torch.no_grad():for data in testloader:images, labels = dataimages, labels = images.cuda(), labels.cuda()outputs = model(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f'Accuracy of the network on the 10000 test images: {100 * correct / total}%')

六、总结

上计算模型的准确率来完成。

# 切换模型为评估模式
model.eval()correct = 0
total = 0
with torch.no_grad():for data in testloader:images, labels = dataimages, labels = images.cuda(), labels.cuda()outputs = model(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f'Accuracy of the network on the 10000 test images: {100 * correct / total}%')

六、总结

通过深入探讨ResNet的关键组成部分,包括深度残差网络、梯度消失问题、残差块、初始卷积层、残差块组、全局平均池化以及全连接层,我们不仅理解了其背后的设计思想和优势,还通过PyTorch实现了一个完整的ResNet模型并进行了训练与评估。ResNet通过其独特的残差连接有效地解决了深度网络中的梯度消失问题,并且在多项视觉任务中实现了突破性的性能。这些优点使得ResNet成为现代深度学习架构中不可或缺的一部分。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/630891.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

2024年腾讯云轻量服务器和CVM云服务器性能如何?

腾讯云轻量服务器和云服务器有什么区别?为什么轻量应用服务器价格便宜?是因为轻量服务器CPU内存性能比云服务器CVM性能差吗?轻量应用服务器适合中小企业或个人开发者搭建企业官网、博客论坛、微信小程序或开发测试环境,云服务器CV…

RaspberryPi(树莓派)配置 VNC

RaspberryPi(树莓派)是可以通过 VNC 来连接到机器上进行图形化操作的。 什么 VNC VNC(Virtual Network Computing),为一种使用RFB协议的屏幕画面分享及远程操作软件。此软件借由网络,可发送键盘与鼠标的动…

node.js(express.js)+mysql实现注册功能

文章目录 实现步骤一、获取客户端提交到服务器的用户信息,对表单中的数据,进行合法性的效验 代码如下:二、检测用户名是否被占用三、对密码进行加密四、插入新用户(完整代码)总结 实现步骤 一、获取客户端提交到服务器的用户信息…

plc红绿灯程序

引言: PLC(Programmable Logic Controller,可编程逻辑控制器)是一种用于工业自动化控制的电子设备。西门子的SIMATIC S7-200是这类设备的一个流行系列,广泛应用于小型至中等规模的自动化项目中。它具有以下特点&#…

常见的设计模式(模板与方法,观察者模式,策略模式)

前言 随着时间的推移,软件代码越来越庞大,随着而来的就是如何维护日趋庞大的软件系统。在面向对象开发出现之前,使用的是面向过程开发来设计大型的软件程序,面向过程开发将软件分成一个个单独的模块,模块之间使用函数…

[足式机器人]Part2 Dr. CAN学习笔记-Advanced控制理论 Ch04-17 串讲

本文仅供学习使用 本文参考: B站:DR_CAN Dr. CAN学习笔记-Advanced控制理论 Ch04-17 串讲

7.6 MySQL基本函数的使用(❤❤❤)

7.6 MySQL基本函数的使用 1. 提要2. 数字函数3. 字符函数3.1 替换字符3.2 左填充字符及截取字符串 4. 日期函数4.1 日期函数4.2 表达式占位符4.3 日期偏移计算4.4 日期间隔 5. 条件函数5.1 IF语句5.2 case...when语句 1. 提要 2. 数字函数 3. 字符函数 3.1 替换字符 -- INSERT…

[剪藏] - 任泽平年终演讲精华:点燃希望——2024中国经济十大预测

任泽平年终演讲精华:点燃希望——2024中国经济十大预测 泽平宏观 2023-12-23 08:01 发表于上海 12月22日22:30,任泽平年终秀“点燃希望乐观者前行——2024中国经济十大预测”圆满收官。 泽平宏观、北京广播电视台、上海高净值研究院、北京时间等携手打…

Gorm 应用开发时区问题与unique唯一索引字段数据冲突问题

文章目录 一、定义表模型时区问题1.1 time.Time 与int641.2 优势 二、unique唯一索引字段数据冲突问题 一、定义表模型时区问题 1.1 time.Time 与int64 一般情况下,我们在定义表模型的时候,会使用time.Time,但是会根据当前时间存储。返回给…

现代密码学 考点汇总(下)

现代密码学 考点汇总 写在最前面考试范围一、给一个简单的方案,判断是否cca安全二、随机预言机模型之下的简单应用 2. MAC概念回顾MAC的定义适应性CMA(Chosen Message Attack)PPT攻击者不可忽略的概率(negl(n))总结 案…

three.js 点按钮,相机飞行靠近观察设备

效果&#xff1a; 代码&#xff1a; <template><div><el-container><el-main><div class"box-card-left"><div id"threejs" style"border: 1px solid red"></div><div class"box-right&quo…

vue2+webpack升级vue3+vite,报错Cannot read properties of null (reading ‘isCE‘)

同学们可以私信我加入学习群&#xff01; 正文开始 前言问题分析解决总结 前言 系列文章&#xff1a;vue2webpack升级vue3vite&#xff0c;修改插件兼容性bug 前面的文章主要是介绍&#xff0c;在升级初始阶段遇到的一些显而易见的兼容性问题和bug。随着项目迭代的不断深入&a…

视频美颜SDK技术解析与技术对比

当下&#xff0c;各类应用和服务纷纷采用视频美颜SDK&#xff0c;以提供更加令人满意的视觉效果。本文将深入探讨视频美颜SDK的技术原理&#xff0c;同时对比不同SDK的特性&#xff0c;为开发者和决策者提供全面的技术参考。 一、技术原理解析 1.图像处理基础 视频美颜SDK基…

易懂的方式讲解ARM中断原理以及中断嵌套方法

ARM有七种模式&#xff0c;我们这里只讨论SVC、IRQ和FIQ模式。 我们可以假设ARM核心有两根中断引脚&#xff08;实际上是看不见的&#xff09;&#xff0c;一根叫 irq pin, 一根叫fiq pin。在ARM的cpsr中&#xff0c;有一个I位和一个F位&#xff0c;分别用来禁止IRQ和FIQ。 先…

MyBatisPlus学习笔记三-核心功能

接上篇&#xff1a; MyBatisPlus学习笔记二-CSDN博客 1、核心功能-IService开发基础业务接口 1.1、介绍 1.2、引用依赖 1.3、配置文件 1.4、用例-新增 1.5、用例-删除 1.6、用例-根据id查询 1.7、用例-根据ids查询 2、核心功能-IService开发复杂业务接口 2.1、实例-更新 3、…

Elasticsearch各种文档操作2

本文来记录下Elasticsearch各种文档操作 文章目录 初始化文档数据过滤字段查询文档概述指定想要显示的字段示例 初始化文档数据 在进行各种文档操作之前&#xff0c;我们先进行初始化文档数据的工作 过滤字段查询文档 概述 默认情况下&#xff0c;Elasticsearch 在搜索的结果中…

vite和webpack的区别和作用

前言 Vite 和 Webpack 都是现代化的前端构建工具&#xff0c;它们可以帮助开发者优化前端项目的构建和性能。虽然它们的目标是相似的&#xff0c;但它们在设计和实现方面有许多不同之处。 一、Vite详解和作用 vite 是什么 vite —— 一个由 vue 作者尤雨溪开发的 web 开发工…

CMake+QT+大漠插件的桌面应用开发(QThread)

文章目录 CMakeQT大漠插件的桌面应用开发&#xff08;QThread&#xff09;简介环境项目结构配置编译环境代码 CMakeQT大漠插件的桌面应用开发&#xff08;QThread&#xff09; 简介 在CMakeQT大漠插件的桌面应用开发中已经给出了QT配合大漠插件开发桌面应用的样例 不过由于主…

系统配置dns主从服务器

一、准备两台主机&#xff0c;区分主从 二、完全区域传送 1、主DNS服务器配置 #安装相关的包 [rootoula1 ~]# yum install bind -y#关闭防火墙 [rootoula1 ~]# systemctl stop firewalld [rootoula1 ~]# setenforce 0#修改配置主文件 [rootoula1 ~]# vim /etc/named.conf opt…

pygame学习(三)——支持多种类型的事件

大家好&#xff01;我是码银&#x1f970; 欢迎关注&#x1f970;&#xff1a; CSDN&#xff1a;码银 公众号&#xff1a;码银学编程 实时事件循环 为了保证程序的持续刷新、保持打开的状态&#xff0c;我们会创建一个无限循环&#xff0c;通常使用的是while语句&#xff0c;w…