【深度学习】— 多输入多输出通道、多通道输入的卷积、多输出通道、1×1 卷积层、汇聚层、多通道汇聚层

【深度学习】— 多输入多输出通道、多通道输入的卷积、多输出通道、1×1 卷积层、汇聚层、多通道汇聚层

  • 多输入多输出通道
  • 多通道输入的卷积
    • 示例:多通道的二维互相关运算
  • 多输出通道
    • 实现多通道输出的互相关运算
  • 1×1 卷积层
      • 1×1 卷积的作用
  • 使用全连接层实现 1×1 卷积
    • 小结
  • 汇聚层
    • 汇聚层的作用
    • 最大汇聚层和平均汇聚层
  • 汇聚层的实现
    • 实现汇聚层
    • 示例:验证二维最大汇聚和平均汇聚
  • 填充和步幅在汇聚层中的应用
    • 默认步幅与汇聚窗口大小相同
    • 自定义填充和步幅
    • 不同的矩形汇聚窗口与不同的填充和步幅
  • 多通道汇聚层
    • 示例:多通道汇聚操作
    • 小结

多输入多输出通道

在之前的示例中,我们仅展示了单个输入和单个输出通道的卷积操作,这使得我们可以将输入、卷积核和输出视为二维张量。然而,在实际应用中,输入数据和卷积层常常包含多个通道。例如,彩色图像通常具有 RGB 通道,分别表示红、绿和蓝三种颜色。

当我们引入多个通道时,输入和隐藏表示都变成了三维张量。例如,每个 RGB 输入图像的形状通常为 ( channels × height × width ) = ( 3 , h , w ) (\text{channels} \times \text{height} \times \text{width}) = (3, h, w) (channels×height×width)=(3,h,w),其中第一个轴表示通道(channel)维度。

多通道输入的卷积

当输入数据包含多个通道时,卷积核也需要相应地包含与输入通道数相同的通道数,以便对各通道进行互相关运算。假设输入数据的通道数为 c i c_i ci,则卷积核的输入通道数也应为 c i c_i ci

假设卷积核的窗口形状为 ( k h , k w ) (k_h, k_w) (kh,kw),则:

  • c i = 1 c_i = 1 ci=1 时,卷积核是一个形状为 ( k h , k w ) (k_h, k_w) (kh,kw) 的二维张量。
  • c i > 1 c_i > 1 ci>1 时,每个输入通道都需要一个 ( k h , k w ) (k_h, k_w) (kh,kw) 形状的二维卷积核。因此,卷积核的整体形状为 ( c i , k h , k w ) (c_i, k_h, k_w) (ci,kh,kw)

在多通道输入的卷积运算中,对每个输入通道的二维张量与卷积核对应通道的二维张量分别进行互相关运算。然后,将各通道的运算结果相加,得到最终的二维输出张量。

示例:多通道的二维互相关运算

如下图所示(图 6.4.1),我们演示了一个具有两个输入通道的二维互相关运算。阴影部分表示第一个输出元素及其计算所涉及的输入和卷积核张量的元素。

  1. 输入通道:假设输入数据有两个通道,每个通道为一个二维张量。
  2. 卷积核通道:卷积核同样具有两个通道,每个通道包含一个 ( k h , k w ) (k_h, k_w) (kh,kw) 的二维滤波器。
  3. 输出计算:对于每个输出元素,将输入的每个通道与对应的卷积核通道进行互相关操作,并将结果求和。

这种方式允许卷积层在多个输入通道上进行特征学习,从而提取出更丰富的特征。

在这里插入图片描述

为了加深对多输入通道卷积的理解,我们可以实现一个简单的多输入通道互相关运算。基本思想是对每个输入通道执行互相关操作,并将各通道的结果相加,得到最终的输出。

import torch# 定义多输入通道的互相关运算函数
def corr2d_multi_in(X, K):# 对每个通道执行互相关运算,然后将结果相加return sum(d2l.corr2d(x, k) for x, k in zip(X, K))

我们可以使用对应于图 6.4.1 的输入张量 X 和卷积核张量 K 来验证这个多输入通道互相关运算的输出。

# 构造输入张量 X 和卷积核张量 K
X = torch.tensor([[[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]], [[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]]])K = torch.tensor([[[0.0, 1.0], [2.0, 3.0]], [[1.0, 2.0], [3.0, 4.0]]])# 计算多通道互相关的结果
output = corr2d_multi_in(X, K)
print(output)

输出:

tensor([[ 56.,  72.],[104., 120.]])

通过这个示例,我们可以看到,对于多输入通道的互相关运算,每个通道的互相关结果相加后得到的输出符合预期。这一方法有效地组合了多输入通道的信息,有助于提取更丰富的特征。

多输出通道

到目前为止,无论输入通道有多少,我们在卷积层中都只有一个输出通道。然而,在实际的神经网络中,每一层通常包含多个输出通道,这对于深度学习模型来说至关重要。随着神经网络层数的加深,输出通道的数量常常增加,而空间分辨率则逐步降低,以换取更大的通道深度。

每个输出通道可以视为对不同特征的响应,但这些通道并非独立学习的,而是通过优化以共同使用。因此,多输出通道不仅仅是多个单通道检测器的简单组合。

假设输入通道数为 c i c_i ci,输出通道数为 c o c_o co,卷积核的高度和宽度分别为 k h k_h kh k w k_w kw。为了获得多个通道的输出,我们为每个输出通道创建一个形状为 ( c i , k h , k w ) (c_i, k_h, k_w) (ci,kh,kw) 的卷积核张量,这样卷积核的形状为 ( c o , c i , k h , k w ) (c_o, c_i, k_h, k_w) (co,ci,kh,kw)。在互相关运算中,每个输出通道使用对应的卷积核与所有输入通道进行运算,然后汇总结果。

实现多通道输出的互相关运算

我们可以实现一个函数来计算多个输出通道的卷积操作:

import torch# 定义多输入多输出通道的互相关运算函数
def corr2d_multi_in_out(X, K):# 迭代卷积核 K 的第0个维度,每次对输入 X 进行互相关运算# 最后将结果堆叠成一个输出张量return torch.stack([corr2d_multi_in(X, k) for k in K], 0)

接下来,通过将核张量 KK+1(每个元素加1)和 K+2 连接起来,构造一个具有 3 个输出通道的卷积核。

# 构造一个具有 3 个输出通道的卷积核张量
K = torch.stack((K, K + 1, K + 2), 0)
print(K.shape)

输出:

torch.Size([3, 2, 2, 2])

这表示我们有 3 个输出通道,每个输出通道的卷积核有 2 个输入通道,且每个输入通道的卷积核大小为 2x2。

现在,我们对输入张量 X 和卷积核张量 K 执行互相关运算,输出包含 3 个通道。第一个通道的结果应与之前多输入单输出通道的结果一致:

# 计算多输入多输出通道的卷积结果
output = corr2d_multi_in_out(X, K)
print(output)

输出

tensor([[[ 56., 72.],[104., 120.]],[[ 76., 100.],[148., 172.]],[[ 96., 128.],[192., 224.]]])

1×1 卷积层

1×1 卷积层,即卷积核大小为 ( 1 , 1 ) (1, 1) (1,1) 的卷积层,表面上看起来似乎没有多大意义。卷积的本质通常在于提取相邻像素间的相关特征,而 1×1 卷积显然无法做到这一点。然而,1×1 卷积在许多深层网络的设计中十分流行,并有着独特的作用。

由于采用了最小的窗口,1×1 卷积失去了在高度和宽度维度上捕捉相邻元素相互作用的能力。事实上,1×1 卷积的唯一计算发生在通道维度上。图 6.4.2 展示了使用 1×1 卷积核的多输入多输出通道的互相关计算,其中输入和输出具有相同的高度和宽度。输出中的每个元素都是从输入图像中同一位置的多个通道元素的线性组合。

在这里插入图片描述

在这种情况下,可以将 1×1 卷积视为一个在每个像素位置应用的全连接层,即将输入的多个通道值映射为输出的多个通道值。由于 1×1 卷积仍然是一个卷积层,跨像素位置的权重是一致的。这种卷积层需要的权重维度为 ( c o , c i , 1 , 1 ) (c_o, c_i, 1, 1) (co,ci,1,1),外加一个偏置项。

1×1 卷积的作用

1×1 卷积主要用于以下几种情况:

  1. 增加或减少通道维度:通过调整输出通道数,1×1 卷积可以增加或减少通道数,帮助控制模型复杂度。
  2. 跨通道特征融合:在不改变空间分辨率的前提下,通过线性组合各通道的信息,使得不同通道的特征得以融合。
  3. 非线性特征映射:配合非线性激活函数,1×1 卷积能够在网络中实现跨通道的非线性映射。

因此,尽管 1×1 卷积不会改变输入的空间维度,它在深层网络中起到了连接通道特征、调控模型复杂度的关键作用。

使用全连接层实现 1×1 卷积

在 1×1 卷积中,每个输出像素仅与输入中相同位置的像素相关。因此,我们可以通过将 1×1 卷积转化为全连接层来实现,这需要对输入和输出的数据形状进行调整。

import torch# 使用全连接层实现 1×1 卷积
def corr2d_multi_in_out_1x1(X, K):c_i, h, w = X.shape  # 输入的通道数和空间维度c_o = K.shape[0]     # 输出通道数X = X.reshape((c_i, h * w))  # 调整输入的形状K = K.reshape((c_o, c_i))    # 调整卷积核的形状# 全连接层中的矩阵乘法Y = torch.matmul(K, X)return Y.reshape((c_o, h, w))  # 调整输出的形状

当执行 1×1 卷积时,该函数等效于我们之前实现的多输入多输出通道的互相关函数 corr2d_multi_in_out。以下示例验证了两者的结果一致性:

# 生成样本数据进行验证
X = torch.normal(0, 1, (3, 3, 3))  # 输入数据 (3 个通道,3x3 大小)
K = torch.normal(0, 1, (2, 3, 1, 1))  # 卷积核 (2 个输出通道,3 个输入通道,1x1 大小)# 使用两种方法计算卷积
Y1 = corr2d_multi_in_out_1x1(X, K)
Y2 = corr2d_multi_in_out(X, K)# 验证两者输出一致
assert float(torch.abs(Y1 - Y2).sum()) < 1e-6

以上代码验证了使用全连接层实现的 1×1 卷积与直接使用互相关运算的结果相同。

小结

  • 多输入多输出通道扩展了卷积层的建模能力。
  • 当在每个像素位置独立应用时,卷积层等效于全连接层。
  • 卷积层通常用于调整网络层的通道数量,从而控制模型的复杂性。

汇聚层

在图像处理任务中,我们希望逐渐降低隐藏表示的空间分辨率,并聚集信息。随着神经网络层数的增加,网络的感受野会扩大,每个神经元对输入的敏感区域增大。对于全局图像分类问题(例如“图像是否包含一只猫?”),网络的最后一层需要能够感知整个输入。因此,通过逐步聚合信息,网络可以生成更加粗糙、全局化的特征表示。

此外,在检测较低层次的特征(例如边缘)时,我们通常希望这些特征具有某种平移不变性。现实中,物体几乎不可能始终出现在同一像素位置上,即使相机稳定地拍摄物体,细微的抖动也可能导致图像中元素左右移动一两个像素。因此,保持平移不变性对提高模型的鲁棒性尤为重要。

汇聚层的作用

汇聚层(Pooling Layer)的作用包括:

  1. 降低卷积层对位置的敏感性;
  2. 降低对空间降采样表示的敏感性。

最大汇聚层和平均汇聚层

汇聚层类似于卷积层,由一个固定形状的窗口组成。该窗口根据步幅大小在输入的各个区域上滑动,并在每个位置计算一个输出值。与卷积层不同,汇聚层没有需要学习的参数,它的计算是确定性的,通常是计算汇聚窗口中元素的最大值或平均值。

  • 最大汇聚层(Max Pooling):输出汇聚窗口中元素的最大值。
  • 平均汇聚层(Average Pooling):输出汇聚窗口中元素的平均值。

汇聚窗口从输入张量的左上角开始,按从左到右、从上到下的顺序在输入张量内滑动。在汇聚窗口到达的每个位置,它计算该窗口中输入子张量的最大值或平均值,这取决于我们选择了最大汇聚层还是平均汇聚层。
在这里插入图片描述
在这里插入图片描述

这种汇聚操作能够有效地降低特征的空间分辨率,同时保留重要的统计信息,有助于网络对特征的平移不变性和降采样表示的适应性。

汇聚层的实现

汇聚层使用固定大小的窗口在输入数据上滑动,并在每个位置计算窗口内元素的最大值或平均值。这些操作分别称为最大汇聚平均汇聚。汇聚层的窗口形状为 ( p h , p w ) (p_h, p_w) (ph,pw),且步幅一般与窗口大小相同。

在对象边缘检测的示例中,最大汇聚层可以帮助保持卷积层对某些模式的识别能力,即使输入在高度或宽度方向上移动了一个像素,卷积层仍能识别出模式。这种特性使得汇聚层能够有效地增强卷积神经网络的平移不变性。

实现汇聚层

下面的 pool2d 函数实现了汇聚层的前向传播,类似于 6.2 节中的 corr2d 函数。与卷积层不同,汇聚层没有卷积核,输出仅为输入中每个区域的最大值或平均值。

import torch# 定义汇聚层的实现函数
def pool2d(X, pool_size, mode='max'):p_h, p_w = pool_sizeY = torch.zeros((X.shape[0] - p_h + 1, X.shape[1] - p_w + 1))for i in range(Y.shape[0]):for j in range(Y.shape[1]):if mode == 'max':Y[i, j] = X[i: i + p_h, j: j + p_w].max()  # 最大汇聚elif mode == 'avg':Y[i, j] = X[i: i + p_h, j: j + p_w].mean()  # 平均汇聚return Y

示例:验证二维最大汇聚和平均汇聚

我们可以使用输入张量 X 来验证二维最大汇聚和平均汇聚的输出:

# 构建示例输入张量
X = torch.tensor([[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]])# 验证二维最大汇聚层
print(pool2d(X, (2, 2)))

输出:

tensor([[4., 5.],[7., 8.]])

对于平均汇聚层:

# 验证二维平均汇聚层
print(pool2d(X, (2, 2), 'avg'))

输出:

tensor([[2., 3.],[5., 6.]])

在此示例中,最大汇聚输出了每个汇聚窗口内的最大值,而平均汇聚输出了每个汇聚窗口内的平均值。这种汇聚操作可以有效地降低卷积层对位置的敏感性,同时帮助进行空间降采样。

填充和步幅在汇聚层中的应用

与卷积层类似,汇聚层也可以通过设置填充和步幅来改变输出的形状。在深度学习框架中,我们可以通过内置的二维最大汇聚层来演示填充和步幅的效果。

首先,构造一个输入张量 X,其形状为 (1, 1, 4, 4),即一个样本数和通道数均为 1 的 4x4 矩阵。

import torch
from torch import nn# 构造输入张量 X
X = torch.arange(16, dtype=torch.float32).reshape((1, 1, 4, 4))
print(X)

输出:

tensor([[[[ 0., 1., 2., 3.],[ 4., 5., 6., 7.],[ 8., 9., 10., 11.],[12., 13., 14., 15.]]]])

默认步幅与汇聚窗口大小相同

默认情况下,深度学习框架中的步幅与汇聚窗口的大小相同。例如,如果我们使用一个形状为 (3, 3) 的汇聚窗口,默认步幅为 (3, 3)

# 使用 (3, 3) 汇聚窗口,步幅默认为 (3, 3)
pool2d = nn.MaxPool2d(3)
print(pool2d(X))

输出:

tensor([[[[10.]]]])

自定义填充和步幅

我们也可以手动设置填充和步幅。例如,使用汇聚窗口 (3, 3),填充为 1,步幅为 2

# 设置 (3, 3) 汇聚窗口,填充为 1,步幅为 2
pool2d = nn.MaxPool2d(3, padding=1, stride=2)
print(pool2d(X))

输出:

tensor([[[[ 5., 7.],[13., 15.]]]])

不同的矩形汇聚窗口与不同的填充和步幅

我们还可以使用矩形汇聚窗口,并分别设置填充和步幅的高度和宽度。例如,使用汇聚窗口大小 (2, 3),步幅为 (2, 3),填充为 (0, 1)

# 使用 (2, 3) 的矩形汇聚窗口,步幅为 (2, 3),填充为 (0, 1)
pool2d = nn.MaxPool2d((2, 3), stride=(2, 3), padding=(0, 1))
print(pool2d(X))

输出:

tensor([[[[ 5., 7.],[13., 15.]]]])

通过设定汇聚窗口、填充和步幅的大小,我们可以灵活地控制汇聚层的输出形状。汇聚层通过降低特征图的空间分辨率,帮助模型逐步聚合特征,并增强平移不变性。

多通道汇聚层

在处理多通道输入数据时,汇聚层会在每个输入通道上独立进行操作,而不像卷积层那样对通道维度进行汇总。这意味着汇聚层的输出通道数与输入通道数一致。

示例:多通道汇聚操作

我们先在通道维度上将张量 XX + 1 连接起来,以构造一个具有 2 个通道的输入:

import torch
from torch import nn# 创建一个 4x4 的输入张量 X
X = torch.arange(16, dtype=torch.float32).reshape((1, 1, 4, 4))# 将 X 和 X+1 在通道维度上拼接,形成一个具有 2 个通道的输入张量
X = torch.cat((X, X + 1), 1)
print(X)

输出:

tensor([[[[ 0., 1., 2., 3.],[ 4., 5., 6., 7.],[ 8., 9., 10., 11.],[12., 13., 14., 15.]],[[ 1., 2., 3., 4.],[ 5., 6., 7., 8.],[ 9., 10., 11., 12.],[13., 14., 15., 16.]]]])

使用 3x3 的最大汇聚窗口,填充为 1,步幅为 2。在每个通道上,汇聚层将独立进行操作:

# 使用 3x3 的最大汇聚层,填充为 1,步幅为 2
pool2d = nn.MaxPool2d(3, padding=1, stride=2)
print(pool2d(X))

输出:

tensor([[[[ 5., 7.],[13., 15.]],[[ 6., 8.],[14., 16.]]]])

可以看到,输出仍然包含 2 个通道,每个通道的汇聚结果对应于输入张量的每个通道的汇聚操作。

小结

  • 最大汇聚层输出该窗口内的最大值,而平均汇聚层输出窗口内的平均值。
  • 汇聚层的主要优势之一是减轻卷积层对位置的敏感性。
  • 可以在汇聚层中指定填充和步幅,以控制输出形状。
  • 使用最大汇聚层及大于 1 的步幅,可减少空间维度(如高度和宽度)。
  • 汇聚层的输出通道数与输入通道数相同。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/59853.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Spring——入门

概述 Spring是什么 Spring是一款主流的Java EE轻量级开源框架&#xff0c;其目的适用于简化Java企业级应用开发难度和开发周期。Spring用途不仅限于服务器端的开发&#xff0c;从简单性、可测试性和松耦合的角度而言&#xff0c;任何Java应用都可以从Spring中受益。Spring框架…

计算机毕业设计Python+Neo4j中华古诗词可视化 古诗词智能问答系统 古诗词数据分析 古诗词情感分析 PyTorch Tensorflow LSTM

温馨提示&#xff1a;文末有 CSDN 平台官方提供的学长联系方式的名片&#xff01; 温馨提示&#xff1a;文末有 CSDN 平台官方提供的学长联系方式的名片&#xff01; 温馨提示&#xff1a;文末有 CSDN 平台官方提供的学长联系方式的名片&#xff01; 作者简介&#xff1a;Java领…

vue+exceljs前端下载、导出xlsx文件

首先安装插件 npm install exceljs file-saver第一种 简单导出 //页面引入 import ExcelJS from exceljs; import {saveAs} from file-saver; export default {methods: { /** 导出操作 */async handleExportFun() {let that this// 获取当前年月日 用户下载xlsx的文件名称设…

潮玩宇宙方块兽系统开发:可定制UI与多种游戏内嵌助力个性化体验

潮玩宇宙方块兽系统开发正在推动潮玩与游戏的融合&#xff0c;通过个性化的UI设计和多游戏内嵌模式&#xff0c;为用户带来了独一无二的体验。本文将从可定制UI、多游戏内嵌功能以及系统实现等方面入手&#xff0c;探讨如何构建一个极具吸引力的潮玩宇宙方块兽系统。 一、可定制…

【Windows修改Docker Desktop(WSL2)内存分配大小】

记录一下遇到使用Docker Desktop占用内存居高不下的问题 自从使用了Docker Desktop&#xff0c;电脑基本每天都需要重启&#xff0c;内存完全不够用&#xff0c;从16g扩展到24&#xff0c;然后到40G&#xff0c;还是不够用&#xff1b;打开Docker Desktop 运行时间一长&#x…

无人机之姿态融合算法篇

无人机的姿态融合算法是无人机飞行控制中的核心技术之一&#xff0c;它通过将来自不同传感器的数据进行融合&#xff0c;以实现更加精确、可靠的姿态检测。 一、传感器选择与数据预处理 无人机姿态融合算法通常依赖于多种传感器&#xff0c;包括加速度计、陀螺仪、磁力计等。这…

大语言模型LLMs在医学领域的最新进展总结

我是娜姐 迪娜学姐 &#xff0c;一个SCI医学期刊编辑&#xff0c;探索用AI工具提效论文写作和发表。 相比其他学科&#xff0c;医学AI&#xff0c;是发表学术成果最多的领域。 医学数据的多样性和复杂性&#xff08;包括文本、图像、基因组数据等&#xff09;&#xff0c;使得…

项目:使用LNMP搭建私有云存储

一、准备工作 恢复快照&#xff0c;关闭安全软件 systemctl status firewalld //检查防火墙是否关闭getenforce //查看SElinux的执行状态which nmcli //检查虚拟机网络状态 二、搭建LNMP环境 yum -y nstall nginx mariadb-server php* //搭建环境三、上传软件 …

初学者指南:用例图——开启您的软件工程之旅

目录 背景&#xff1a; 基本组成&#xff1a; 关联&#xff08;Assciation&#xff09;&#xff1a; 包含&#xff08;Include&#xff09;&#xff1a; 扩展&#xff08;Extend&#xff09;&#xff1a; 泛化&#xff08;Inheritance&#xff09;&#xff1a; 完整银行…

linux进程的状态之环境变量

我们在前面了解了进程的状态及相关概念 接下来我们接着上一篇进程的状态接着了解环境变量 进程的状态 文章目录 目录 文章目录 前言 二、环境变量 1、常见环境变量 2、查看环境变量 3、修改PATH 4、HOME 5、PATH ​编辑 6、和环境变量相关的命令 三、环境变量的组织…

仪表板展示|DataEase看中国:历年双十一电商销售数据分析

背景介绍 2024年“双十一”购物季正在火热进行中。自2009年首次推出至今&#xff0c;“双十一”已经成为中国乃至全球最大的购物狂欢节&#xff0c;并且延伸到了全球范围内的电子商务平台。随着人们消费水平的提升以及电子商务的普及&#xff0c;线上销售模式也逐渐呈现多元化…

读数据工程之道:设计和构建健壮的数据系统32序列化和云网络

1. 序列化 1.1. 仅仅通过从CSV转换到Parquet序列化&#xff0c;任务性能就提高了上百倍 1.2. 基于行的序列化 1.2.1. 基于行的序列化是按行来组织数据 1.2.2. 对于那些半结构化的数据&#xff08;支持嵌套和模式变化的数据对象&#xff09;​&#xff0c;基于行的序列化需要…

【软件工程】ATAM架构权衡评估方法

ATAM架构权衡评估方法 概述质量属性有哪些&#xff1f;质量属性的效用树怎么构建&#xff1f;如何确定质量属性的优先级&#xff1f; 概述 ATAM&#xff08;Architecture Tradeoff Analysis Method&#xff09;是一种系统架构评估方法&#xff0c;由卡梅隆大学软件工程协会提出…

了解数据库分区

分区是将一个表或索引按照某种规则划分为多个更小的、更易于管理的部分。分区是将表的数据分成更小、更易于管理的部分的过程。分区有一些显著的好处&#xff0c;包括改善查询性能、增强数据库的可用性和可维护性。 1.为什么要分区&#xff1f; 表分区&#xff08;Partitioning…

深度学习⑨GANs

Discriminative and Generative Models Deep learning中主要两种模型 判别模型专注于从输入预测输出,例如分类任务。学习数据点和标签之间的特征 生成模型则试图理解数据是如何产生的,能够生成新的数据样本。理解数据分布和是否可以被预测 Quiz time: Discriminative mo…

区块链技术在供应链管理中的应用

&#x1f493; 博客主页&#xff1a;瑕疵的CSDN主页 &#x1f4dd; Gitee主页&#xff1a;瑕疵的gitee主页 ⏩ 文章专栏&#xff1a;《热点资讯》 区块链技术在供应链管理中的应用 区块链技术在供应链管理中的应用 区块链技术在供应链管理中的应用 引言 区块链技术概述 定义与…

CelebV-Text——从文本生成人脸视频的数据集

概述 近年来&#xff0c;生成模型在根据文本生成和编辑视频方面受到了广泛关注。然而&#xff0c;由于缺乏合适的数据集&#xff0c;生成人脸视频领域仍然是一个挑战。特别是&#xff0c;生成的视频帧质量较低&#xff0c;与输入文本的相关性较弱。在本文中&#xff0c;我们通…

【重学 MySQL】八十二、深入探索 CASE 语句的应用

【重学 MySQL】八十二、深入探索 CASE 语句的应用 CASE语句的两种形式CASE语句的应用场景数据分类动态排序条件计算在 SELECT 子句中使用在 WHERE子句中使用在 ORDER BY 子句中使用 注意事项 在MySQL中&#xff0c;CASE 语句提供了一种强大的方式来实现条件分支逻辑&#xff0c…

基于卷积神经网络的农作物病虫害识别系统(pytorch框架,python源码)

更多图像分类、图像识别、目标检测等项目可从主页查看 功能演示&#xff1a; 基于卷积神经网络的农作物病虫害检测&#xff08;pytorch框架&#xff09;_哔哩哔哩_bilibili &#xff08;一&#xff09;简介 基于卷积神经网络的农作物病虫害识别系统是在pytorch框架下实现的…

VLAN 高级技术实验

目录 一、实验背景 二、实验任务 三、实验步骤 四、实验总结 一、实验背景 假如你是公司的网络管理员&#xff0c;为了节省内网的IP地址空间&#xff0c;你决定在内网部署VLAN聚合&#xff0c;同时为了限制不同业务之间的访问&#xff0c;决定同时部署MUX VLAN。 二、实验…