昇思MindSpore 应用学习-DCGAN生成漫画头像-CSDN

日期

心得

昇思MindSpore 应用学习-DCGAN生成漫画头像(AI代码学习)

DCGAN生成漫画头像

在下面的教程中,我们将通过示例代码说明DCGAN网络如何设置网络、优化器、如何计算损失函数以及如何初始化模型权重。在本教程中,使用的动漫头像数据集共有70,171张动漫头像图片,图片大小均为96*96。

GAN基础原理

这部分原理介绍参考GAN图像生成。

DCGAN原理

DCGAN(深度卷积对抗生成网络,Deep Convolutional Generative Adversarial Networks)是GAN的直接扩展。不同之处在于,DCGAN会分别在判别器和生成器中使用卷积和转置卷积层。
它最早由Radford等人在论文Unsupervised Representation Learning With Deep Convolutional Generative Adversarial Networks中进行描述。判别器由分层的卷积层、BatchNorm层和LeakyReLU激活层组成。输入是3x64x64的图像,输出是该图像为真图像的概率。生成器则是由转置卷积层、BatchNorm层和ReLU激活层组成。输入是标准正态分布中提取出的隐向量z𝑧,输出是3x64x64的RGB图像。
本教程将使用动漫头像数据集来训练一个生成式对抗网络,接着使用该网络生成动漫头像图片。

数据准备与处理

首先我们将数据集下载到指定目录下并解压。示例代码如下:

from download import download  # 导入download模块中的download方法url = "https://download.mindspore.cn/dataset/Faces/faces.zip"  # 指定要下载的文件的URLpath = download(url, "./faces", kind="zip", replace=True)  # 下载指定URL的文件,解压到"./faces"目录,若存在则替换

解析:

  1. from download import download:导入download模块中的download函数,用于网络文件下载。
    • API: download是一个用于下载文件的函数,通常支持多种下载选项。
  2. url = "https://download.mindspore.cn/dataset/Faces/faces.zip":定义要下载的文件的URL地址。
    • 这是一个指向ZIP格式数据集的链接。
  3. path = download(url, "./faces", kind="zip", replace=True):调用download函数,下载指定的ZIP文件,并将其解压到指定的路径"./faces"
    • url:要下载的文件的网络地址。
    • "./faces":文件下载后要保存的本地目录。
    • kind="zip":指定下载文件的类型为ZIP格式。
    • replace=True:如果目标路径已经存在同名文件,则替换它。

下载后的数据集目录结构如下:

./faces/faces
├── 0.jpg
├── 1.jpg
├── 2.jpg
├── 3.jpg
├── 4.jpg...
├── 70169.jpg
└── 70170.jpg

数据处理

首先为执行过程定义一些输入:

batch_size = 128          # 批量大小
image_size = 64           # 训练图像空间大小
nc = 3                    # 图像彩色通道数
nz = 100                  # 隐向量的长度
ngf = 64                  # 特征图在生成器中的大小
ndf = 64                  # 特征图在判别器中的大小
num_epochs = 10           # 训练周期数
lr = 0.0002               # 学习率
beta1 = 0.5               # Adam优化器的beta1超参数

定义create_dataset_imagenet函数对数据进行处理和增强操作。

import numpy as np  # 导入NumPy库,通常用于数组和矩阵操作
import mindspore.dataset as ds  # 导入MindSpore的数据集模块
import mindspore.dataset.vision as vision  # 导入MindSpore的视觉数据处理模块def create_dataset_imagenet(dataset_path):"""数据加载"""dataset = ds.ImageFolderDataset(dataset_path,  # 创建一个ImageFolderDataset实例,指定数据集路径num_parallel_workers=4,  # 设置并行工作线程数为4shuffle=True,  # 数据打乱decode=True)  # 解码图像数据# 数据增强操作transforms = [vision.Resize(image_size),  # 调整图像大小vision.CenterCrop(image_size),  # 中心裁剪图像vision.HWC2CHW(),  # 将图像格式从HWC转为CHWlambda x: ((x / 255).astype("float32"))  # 将图像数据归一化到[0, 1]范围并转换为float32类型]# 数据映射操作dataset = dataset.project('image')  # 仅选择图像数据dataset = dataset.map(transforms, 'image')  # 对图像数据应用转换操作# 批量操作dataset = dataset.batch(batch_size)  # 将数据集分批处理return dataset  # 返回处理后的数据集dataset = create_dataset_imagenet('./faces')  # 调用函数创建数据集,路径为'./faces'

解析:

  1. import numpy as np:导入NumPy库,通常用于处理数组和矩阵运算,尽管在此段代码中未直接使用。
  2. import mindspore.dataset as dsimport mindspore.dataset.vision as vision:导入MindSpore的dataset模块和视觉处理模块,用于处理和增强数据集。
  3. def create_dataset_imagenet(dataset_path)::定义一个函数用于创建ImageNet数据集,并传入数据集的路径。
  4. dataset = ds.ImageFolderDataset(dataset_path, ...)
    • API: ImageFolderDataset用于从指定路径加载图像数据集,支持数据的并行处理和打乱。
    • num_parallel_workers=4:设置4个并行工作者以提高数据加载速度。
    • shuffle=True:每次迭代前打乱数据,增强模型的鲁棒性。
    • decode=True:对图像进行解码处理,以便后续处理。
  5. transforms:定义数据增强的操作列表,具体包括:
    • vision.Resize(image_size):调整图像到指定的尺寸。
    • vision.CenterCrop(image_size):对图像进行中心裁剪。
    • vision.HWC2CHW():将图像维度从HWC(高度、宽度、通道)转换为CHW(通道、高度、宽度)。
    • lambda x: ((x / 255).astype("float32")):将像素值归一化到[0, 1]之间,并转换为浮点型。
  6. dataset = dataset.project('image'):从数据集中选择图像数据进行后续处理。
  7. dataset = dataset.map(transforms, 'image'):对选择的图像数据应用前面定义的变换操作。
  8. dataset = dataset.batch(batch_size):将数据集分成批次,以便于模型训练时一次处理多个样本。
  9. return dataset:返回处理后的数据集供后续使用。
  10. dataset = create_dataset_imagenet('./faces'):调用定义的函数,传入数据集路径,得到经过处理的图像数据集。

通过create_dict_iterator函数将数据转换成字典迭代器,然后使用matplotlib模块可视化部分训练数据。

import matplotlib.pyplot as plt  # 导入matplotlib.pyplot库,用于绘制图形和可视化def plot_data(data):# 可视化部分训练数据plt.figure(figsize=(10, 3), dpi=140)  # 创建一个图形,设置其大小和分辨率for i, image in enumerate(data[0][:30], 1):  # 遍历数据中的前30张图像plt.subplot(3, 10, i)  # 创建一个3行10列的子图,指定当前图像位置plt.axis("off")  # 关闭坐标轴显示plt.imshow(image.transpose(1, 2, 0))  # 显示图像,将图像从CHW格式转换为HWC格式plt.show()  # 展示绘制的图形sample_data = next(dataset.create_tuple_iterator(output_numpy=True))  # 从数据集中获取一个样本数据,输出为NumPy格式
plot_data(sample_data)  # 调用plot_data函数可视化获取的样本数据

解析:

  1. import matplotlib.pyplot as plt:导入matplotlib库中的pyplot模块,用于绘图和数据可视化。
  2. def plot_data(data)::定义一个函数用于可视化传入的数据。
  3. plt.figure(figsize=(10, 3), dpi=140):创建一个新的图形窗口,设置图形的大小为10x3英寸,分辨率为140 DPI(每英寸点数)。
    • API: figure()用于初始化一个新图形。
  4. for i, image in enumerate(data[0][:30], 1):
    • enumerate(data[0][:30], 1):遍历传入数据的前30张图像,data[0]通常是一个包含图像的数组,1表示索引从1开始。
    • i是当前图像的索引,image是当前图像数据。
  5. plt.subplot(3, 10, i):在当前图形中创建一个3行10列的子图,定位到第i个子图中。
    • API: subplot()用于在图形中添加子图。
  6. plt.axis("off"):关闭当前子图的坐标轴显示,以便只显示图像。
    • API: axis()用于控制坐标轴的显示。
  7. plt.imshow(image.transpose(1, 2, 0)):将图像从CHW格式(通道、高度、宽度)转换为HWC格式(高度、宽度、通道),并显示图像。
    • API: imshow()用于显示图像。
  8. plt.show():展示所有绘制的图形。
    • API: show()用于显示当前图形。
  9. sample_data = next(dataset.create_tuple_iterator(output_numpy=True))
    • API: create_tuple_iterator()用于生成一个迭代器,以便逐批访问数据集中的样本,output_numpy=True表示将数据输出为NumPy数组。
    • next(...)获取迭代器的下一个样本数据。
  10. plot_data(sample_data):调用之前定义的函数,传入获取到的样本数据进行可视化。

image.png

构造网络

当处理完数据后,就可以来进行网络的搭建了。按照DCGAN论文中的描述,所有模型权重均应从mean为0,sigma为0.02的正态分布中随机初始化。

生成器

生成器G的功能是将隐向量z映射到数据空间。由于数据是图像,这一过程也会创建与真实图像大小相同的 RGB 图像。在实践场景中,该功能是通过一系列Conv2dTranspose转置卷积层来完成的,每个层都与BatchNorm2d层和ReLu激活层配对,输出数据会经过tanh函数,使其返回[-1,1]的数据范围内。
DCGAN论文生成图像如下所示:

图片来源:Unsupervised Representation Learning With Deep Convolutional Generative Adversarial Networks.
我们通过输入部分中设置的nzngfnc来影响代码中的生成器结构。nz是隐向量z的长度,ngf与通过生成器传播的特征图的大小有关,nc是输出图像中的通道数。
以下是生成器的代码实现:

import mindspore as ms  # 导入MindSpore库
from mindspore import nn, ops  # 从MindSpore中导入神经网络模块nn和操作模块ops
from mindspore.common.initializer import Normal  # 从MindSpore中导入正态分布初始化器# 定义权重和伽马的初始化方式
weight_init = Normal(mean=0, sigma=0.02)  # 权重初始化为均值为0,标准差为0.02的正态分布
gamma_init = Normal(mean=1, sigma=0.02)  # 伽马初始化为均值为1,标准差为0.02的正态分布class Generator(nn.Cell):"""DCGAN网络生成器"""def __init__(self):super(Generator, self).__init__()  # 调用父类构造函数self.generator = nn.SequentialCell(  # 定义生成器为一个顺序的神经网络nn.Conv2dTranspose(nz, ngf * 8, 4, 1, 'valid', weight_init=weight_init),  # 转置卷积层,输出通道为ngf*8nn.BatchNorm2d(ngf * 8, gamma_init=gamma_init),  # 批归一化层nn.ReLU(),  # ReLU激活函数nn.Conv2dTranspose(ngf * 8, ngf * 4, 4, 2, 'pad', 1, weight_init=weight_init),  # 转置卷积层,输出通道为ngf*4nn.BatchNorm2d(ngf * 4, gamma_init=gamma_init),  # 批归一化层nn.ReLU(),  # ReLU激活函数nn.Conv2dTranspose(ngf * 4, ngf * 2, 4, 2, 'pad', 1, weight_init=weight_init),  # 转置卷积层,输出通道为ngf*2nn.BatchNorm2d(ngf * 2, gamma_init=gamma_init),  # 批归一化层nn.ReLU(),  # ReLU激活函数nn.Conv2dTranspose(ngf * 2, ngf, 4, 2, 'pad', 1, weight_init=weight_init),  # 转置卷积层,输出通道为ngfnn.BatchNorm2d(ngf, gamma_init=gamma_init),  # 批归一化层nn.ReLU(),  # ReLU激活函数nn.Conv2dTranspose(ngf, nc, 4, 2, 'pad', 1, weight_init=weight_init),  # 转置卷积层,输出通道为ncnn.Tanh()  # 使用Tanh激活函数以获得输出范围[-1, 1])def construct(self, x):  # 定义前向传播过程return self.generator(x)  # 返回生成器的输出generator = Generator()  # 实例化生成器

解析:

  1. import mindspore as ms:导入MindSpore库,用于构建和训练深度学习模型。
  2. from mindspore import nn, ops:从MindSpore中导入nn(神经网络模块)和ops(操作模块)。
  3. from mindspore.common.initializer import Normal:导入正态分布初始化器,用于初始化神经网络参数。
  4. weight_init = Normal(mean=0, sigma=0.02):定义权重的初始化方式,使用均值为0,标准差为0.02的正态分布。
  5. gamma_init = Normal(mean=1, sigma=0.02):定义伽马的初始化方式,与权重初始化类似。
  6. class Generator(nn.Cell)::定义一个生成器类,继承自nn.Cell,用于构建DCGAN的生成器网络。
  7. def __init__(self)::构造函数,初始化生成器的网络结构。
  8. super(Generator, self).__init__():调用父类的构造函数。
  9. self.generator = nn.SequentialCell(...):使用SequentialCell构建网络,包含多个层次。
  10. nn.Conv2dTranspose(...):转置卷积层,逐层增大特征图的尺寸。
  • 参数解释:
    • 输入通道数和输出通道数。
    • 卷积核的大小(例如4)。
    • 步幅(stride)。
    • 填充方式(padding)。
  1. nn.BatchNorm2d(...):批归一化层,优化训练过程,加速收敛。
  2. nn.ReLU():ReLU激活函数,非线性激活。
  3. nn.Tanh():最后一层使用Tanh激活函数,使输出在[-1, 1]范围内。
  4. def construct(self, x)::定义前向传播方法。
  5. return self.generator(x):将输入 x 传入生成器,返回生成结果。
  6. generator = Generator():实例化生成器对象。

判别器

如前所述,判别器D是一个二分类网络模型,输出判定该图像为真实图的概率。通过一系列的Conv2dBatchNorm2dLeakyReLU层对其进行处理,最后通过Sigmoid激活函数得到最终概率。
DCGAN论文提到,使用卷积而不是通过池化来进行下采样是一个好方法,因为它可以让网络学习自己的池化特征。
判别器的代码实现如下:

class Discriminator(nn.Cell):"""DCGAN网络判别器"""def __init__(self):super(Discriminator, self).__init__()  # 调用父类构造函数self.discriminator = nn.SequentialCell(  # 定义判别器为一个顺序的神经网络nn.Conv2d(nc, ndf, 4, 2, 'pad', 1, weight_init=weight_init),  # 卷积层,输入通道为nc,输出通道为ndfnn.LeakyReLU(0.2),  # Leaky ReLU激活函数,负半轴有小的斜率nn.Conv2d(ndf, ndf * 2, 4, 2, 'pad', 1, weight_init=weight_init),  # 卷积层,输出通道为ndf*2nn.BatchNorm2d(ndf * 2, gamma_init=gamma_init),  # 批归一化层nn.LeakyReLU(0.2),  # Leaky ReLU激活函数nn.Conv2d(ndf * 2, ndf * 4, 4, 2, 'pad', 1, weight_init=weight_init),  # 卷积层,输出通道为ndf*4nn.BatchNorm2d(ndf * 4, gamma_init=gamma_init),  # 批归一化层nn.LeakyReLU(0.2),  # Leaky ReLU激活函数nn.Conv2d(ndf * 4, ndf * 8, 4, 2, 'pad', 1, weight_init=weight_init),  # 卷积层,输出通道为ndf*8nn.BatchNorm2d(ndf * 8, gamma_init=gamma_init),  # 批归一化层nn.LeakyReLU(0.2),  # Leaky ReLU激活函数nn.Conv2d(ndf * 8, 1, 4, 1, 'valid', weight_init=weight_init),  # 最后一个卷积层,输出通道为1)self.adv_layer = nn.Sigmoid()  # 使用Sigmoid激活函数将输出限制在[0, 1]区间def construct(self, x):out = self.discriminator(x)  # 通过判别器进行前向传播out = out.reshape(out.shape[0], -1)  # 将输出展平为二维数组return self.adv_layer(out)  # 返回经过Sigmoid激活后的结果discriminator = Discriminator()  # 实例化判别器

解析:

  1. class Discriminator(nn.Cell)::定义一个判别器类,继承自nn.Cell,用于构建DCGAN的判别器网络。
  2. def __init__(self)::构造函数,初始化判别器的网络结构。
  3. super(Discriminator, self).__init__():调用父类的构造函数。
  4. self.discriminator = nn.SequentialCell(...):使用SequentialCell构建判别器,由多个层次组成。
  5. nn.Conv2d(...):普通卷积层。
    • 参数解释:
      • 输入通道数(如 nc)和输出通道数(如 ndf)。
      • 卷积核的大小(如4)。
      • 步幅(如2)。
      • 填充方式(如 'pad')。
      • 填充数量(如1)。
  6. nn.LeakyReLU(0.2):Leaky ReLU激活函数,避免神经元完全失活,负侧有0.2的斜率。
  7. nn.BatchNorm2d(...):批归一化层,优化训练过程,加速收敛。
  8. self.adv_layer = nn.Sigmoid():定义一个Sigmoid层,将最终的输出压缩到[0, 1]区间。
  9. def construct(self, x)::定义前向传播方法。
  10. out = self.discriminator(x):通过判别器进行前向传播,得到输出。
  11. out = out.reshape(out.shape[0], -1):将输出展平为二维数组,第一维为批量大小,第二维为特征数量。
  12. return self.adv_layer(out):将展平后的输出通过Sigmoid激活,返回最终结果。
  13. discriminator = Discriminator():实例化判别器对象。

模型训练

损失函数

当定义了DG后,接下来将使用MindSpore中定义的二进制交叉熵损失函数BCELoss。

# 定义损失函数
adversarial_loss = nn.BCELoss(reduction='mean')  # 使用二元交叉熵损失函数,计算生成器和判别器的对抗损失

解析:

  1. adversarial_loss = nn.BCELoss(reduction='mean'):定义对抗损失函数,使用二元交叉熵损失(Binary Cross Entropy Loss,BCELoss)来衡量生成器和判别器的性能。
    • BCELoss:适用于二分类问题,计算预测值和真实值之间的差异。
    • reduction=‘mean’:表示对损失值进行平均处理,即将所有样本的损失求平均值。这种方式能够避免因为不同批次的样本数量不同而导致的损失不一致。

在DCGAN中,生成器试图生成能够以假乱真的图像,而判别器则试图区分真实图像和生成图像。使用BCELoss作为损失函数,可以有效地衡量生成图像的真实度,从而指导生成器和判别器进行优化。

优化器

这里设置了两个单独的优化器,一个用于D,另一个用于G。这两个都是lr = 0.0002beta1 = 0.5的Adam优化器。

# 为生成器和判别器设置优化器
optimizer_D = nn.Adam(discriminator.trainable_params(), learning_rate=lr, beta1=beta1)  # 设置判别器的Adam优化器
optimizer_G = nn.Adam(generator.trainable_params(), learning_rate=lr, beta1=beta1)  # 设置生成器的Adam优化器
optimizer_G.update_parameters_name('optim_g.')  # 更新生成器优化器的参数名称前缀
optimizer_D.update_parameters_name('optim_d.')  # 更新判别器优化器的参数名称前缀

解析:

  1. optimizer_D = nn.Adam(discriminator.trainable_params(), learning_rate=lr, beta1=beta1):为判别器创建Adam优化器。
    • discriminator.trainable_params():获取判别器模型中可训练的参数。
    • learning_rate=lr:设置学习率,lr 为预先定义的学习率值。
    • beta1=beta1:设置Adam优化器的β1参数,用于控制一阶矩估计的衰减。
  2. optimizer_G = nn.Adam(generator.trainable_params(), learning_rate=lr, beta1=beta1):为生成器创建Adam优化器。
    • generator.trainable_params():获取生成器模型中可训练的参数。
  3. optimizer_G.update_parameters_name('optim_g.'):更新生成器优化器的参数名称前缀为 optim_g.,有助于在训练过程中清晰区分不同模型的参数。
  4. optimizer_D.update_parameters_name('optim_d.'):更新判别器优化器的参数名称前缀为 optim_d.,同样是为了在训练中便于管理和识别不同模型的参数。

使用Adam优化器是因为其自适应学习率能够在训练过程中提供更好的收敛性,适合用于生成对抗网络(GAN)的训练。

训练模型

训练分为两个主要部分:训练判别器和训练生成器。

  • 训练判别器

训练判别器的目的是最大程度地提高判别图像真伪的概率。按照Goodfellow的方法,是希望通过提高其随机梯度来更新判别器,所以我们要最大化logD(x)+log(1−D(G(z))的值。

  • 训练生成器

如DCGAN论文所述,我们希望通过最小化log(1−D(G(z)))来训练生成器,以产生更好的虚假图像。
在这两个部分中,分别获取训练过程中的损失,并在每个周期结束时进行统计,将fixed_noise批量推送到生成器中,以直观地跟踪G的训练进度。
下面实现模型训练正向逻辑:

def generator_forward(real_imgs, valid):# 将噪声采样为发生器的输入z = ops.standard_normal((real_imgs.shape[0], nz, 1, 1))  # 生成随机噪声,形状为(batch_size, nz, 1, 1)# 生成一批图像gen_imgs = generator(z)  # 使用生成器生成图像# 损失衡量发生器绕过判别器的能力g_loss = adversarial_loss(discriminator(gen_imgs), valid)  # 计算生成器的损失return g_loss, gen_imgs  # 返回生成器损失和生成的图像def discriminator_forward(real_imgs, gen_imgs, valid, fake):# 衡量鉴别器从生成的样本中对真实样本进行分类的能力real_loss = adversarial_loss(discriminator(real_imgs), valid)  # 计算真实图像的损失fake_loss = adversarial_loss(discriminator(gen_imgs), fake)  # 计算生成图像的损失d_loss = (real_loss + fake_loss) / 2  # 计算判别器的平均损失return d_loss  # 返回判别器损失grad_generator_fn = ms.value_and_grad(generator_forward, None,optimizer_G.parameters,  # 计算生成器的梯度has_aux=True)  # 指定返回辅助信息
grad_discriminator_fn = ms.value_and_grad(discriminator_forward, None,optimizer_D.parameters)  # 计算判别器的梯度@ms.jit
def train_step(imgs):valid = ops.ones((imgs.shape[0], 1), mindspore.float32)  # 创建一个全为1的张量,作为真实样本的标签fake = ops.zeros((imgs.shape[0], 1), mindspore.float32)  # 创建一个全为0的张量,作为生成样本的标签(g_loss, gen_imgs), g_grads = grad_generator_fn(imgs, valid)  # 计算生成器损失和梯度optimizer_G(g_grads)  # 更新生成器参数d_loss, d_grads = grad_discriminator_fn(imgs, gen_imgs, valid, fake)  # 计算判别器损失和梯度optimizer_D(d_grads)  # 更新判别器参数return g_loss, d_loss, gen_imgs  # 返回生成器损失、判别器损失和生成的图像

解析:

  1. def generator_forward(real_imgs, valid)::定义生成器的前向传播函数。
    • z = ops.standard_normal((real_imgs.shape[0], nz, 1, 1)):生成一个服从标准正态分布的随机噪声,作为生成器的输入。
    • gen_imgs = generator(z):将随机噪声输入生成器,生成图像。
    • g_loss = adversarial_loss(discriminator(gen_imgs), valid):通过判别器计算生成器生成的图像的损失。
    • return g_loss, gen_imgs:返回生成器损失和生成的图像。
  2. def discriminator_forward(real_imgs, gen_imgs, valid, fake)::定义判别器的前向传播函数。
    • real_loss = adversarial_loss(discriminator(real_imgs), valid):计算真实图像的损失。
    • fake_loss = adversarial_loss(discriminator(gen_imgs), fake):计算生成图像的损失。
    • d_loss = (real_loss + fake_loss) / 2:求取真实与生成图像损失的平均值,得到判别器的损失。
    • return d_loss:返回判别器损失。
  3. grad_generator_fn = ms.value_and_grad(...):使用value_and_grad函数为生成器前向传播定义一个函数,计算生成器的损失和梯度,has_aux=True表示还需返回辅助信息。
  4. grad_discriminator_fn = ms.value_and_grad(...):同样为判别器前向传播定义一个函数,计算判别器的损失和梯度。
  5. @ms.jit:使用JIT编译器加速train_step函数的执行。
  6. def train_step(imgs)::定义训练步长函数。
    • valid = ops.ones((imgs.shape[0], 1), mindspore.float32):创建一个全为1的张量,表示真实样本的标签。
    • fake = ops.zeros((imgs.shape[0], 1), mindspore.float32):创建一个全为0的张量,表示生成样本的标签。
    • (g_loss, gen_imgs), g_grads = grad_generator_fn(imgs, valid):计算生成器损失和梯度。
    • optimizer_G(g_grads):更新生成器参数。
    • d_loss, d_grads = grad_discriminator_fn(imgs, gen_imgs, valid, fake):计算判别器损失和梯度。
    • optimizer_D(d_grads):更新判别器参数。
    • return g_loss, d_loss, gen_imgs:返回生成器损失、判别器损失和生成的图像。

这个训练过程通过不断优化生成器和判别器,使得生成器生成的图像越来越真实,同时使得判别器的分类性能得到提升。

循环训练网络,每经过50次迭代,就收集生成器和判别器的损失,以便于后面绘制训练过程中损失函数的图像。

import mindsporeG_losses = []  # 用于存储生成器损失
D_losses = []  # 用于存储判别器损失
image_list = []  # 用于存储生成的图像total = dataset.get_dataset_size()  # 获取训练数据集的总大小
for epoch in range(num_epochs):  # 开始训练的循环generator.set_train()  # 设置生成器为训练模式discriminator.set_train()  # 设置判别器为训练模式# 为每轮训练读入数据for i, (imgs, ) in enumerate(dataset.create_tuple_iterator()):  # 遍历数据集g_loss, d_loss, gen_imgs = train_step(imgs)  # 执行一次训练步骤if i % 100 == 0 or i == total - 1:  # 每100个批次或最后一个批次输出训练记录print('[%2d/%d][%3d/%d]   Loss_D:%7.4f  Loss_G:%7.4f' % (epoch + 1, num_epochs, i + 1, total, d_loss.asnumpy(), g_loss.asnumpy()))  # 打印当前损失D_losses.append(d_loss.asnumpy())  # 存储判别器损失G_losses.append(g_loss.asnumpy())  # 存储生成器损失# 每个epoch结束后,使用生成器生成一组图片generator.set_train(False)  # 将生成器设置为评估模式fixed_noise = ops.standard_normal((batch_size, nz, 1, 1))  # 生成固定的随机噪声img = generator(fixed_noise)  # 使用生成器生成图像image_list.append(img.transpose(0, 2, 3, 1).asnumpy())  # 将图像维度调整并存储为numpy数组# 保存网络模型参数为ckpt文件mindspore.save_checkpoint(generator, "./generator.ckpt")  # 保存生成器参数mindspore.save_checkpoint(discriminator, "./discriminator.ckpt")  # 保存判别器参数

解析:

  1. G_losses = []D_losses = []:初始化用于存储生成器和判别器损失的列表。
  2. image_list = []:初始化用于存储生成的图像的列表。
  3. total = dataset.get_dataset_size():获取训练数据集的大小,便于在训练过程中跟踪进度。
  4. for epoch in range(num_epochs)::遍历每个训练轮次(epoch)。
  5. generator.set_train()discriminator.set_train():将生成器和判别器设置为训练模式,启用 dropout 和 batch normalization 等训练特性。
  6. for i, (imgs, ) in enumerate(dataset.create_tuple_iterator())::通过创建一个元组迭代器遍历数据集,获取每个批次的图像数据。
  7. g_loss, d_loss, gen_imgs = train_step(imgs):执行训练步骤,计算生成器和判别器的损失,并生成图像。
  8. if i % 100 == 0 or i == total - 1::每100个批次或最后一个批次时输出训练损失。
    • 使用print语句格式化输出当前的轮次、批次和损失值。
  9. D_losses.append(d_loss.asnumpy())G_losses.append(g_loss.asnumpy()):将当前损失值转换为numpy数组并添加到相应的列表中,以便后续分析和可视化。
  10. generator.set_train(False):在每个epoch结束后,将生成器设置为评估模式,以便生成图像时不使用 dropout 等训练特性。
  11. fixed_noise = ops.standard_normal((batch_size, nz, 1, 1)):生成一个固定的随机噪声,用于生成图像,以便在不同的epoch中进行比较。
  12. img = generator(fixed_noise):使用生成器生成图像。
  13. image_list.append(img.transpose(0, 2, 3, 1).asnumpy()):调整生成的图像张量的维度,将其转换为numpy数组并存储。
  14. mindspore.save_checkpoint(generator, "./generator.ckpt")mindspore.save_checkpoint(discriminator, "./discriminator.ckpt"):将生成器和判别器的模型参数保存为ckpt文件,以便后续恢复或分析。

这一段代码实现了一个生成对抗网络的训练过程,通过不断优化生成器和判别器,使生成器能够生成越来越真实的图像。训练过程中的损失被记录并可用于后续分析,同时每个epoch结束后保存模型参数以防止训练丢失。

结果展示

运行下面代码,描绘DG损失与训练迭代的关系图:

plt.figure(figsize=(10, 5))  # 创建一个图形,设定大小为10x5英寸
plt.title("Generator and Discriminator Loss During Training")  # 设置图形的标题
plt.plot(G_losses, label="G", color='blue')  # 绘制生成器损失曲线,标签为"G",颜色为蓝色
plt.plot(D_losses, label="D", color='orange')  # 绘制判别器损失曲线,标签为"D",颜色为橙色
plt.xlabel("iterations")  # 设置x轴标签为"iterations"
plt.ylabel("Loss")  # 设置y轴标签为"Loss"
plt.legend()  # 显示图例
plt.show()  # 显示图形

解析:

  1. plt.figure(figsize=(10, 5)):创建一个新的图形对象,并设置其大小为10x5英寸。
  2. plt.title("Generator and Discriminator Loss During Training"):为图形设置标题,描述图形的内容。
  3. plt.plot(G_losses, label="G", color='blue'):绘制生成器损失的曲线,使用蓝色作为曲线颜色,并设置标签为"G"。
  4. plt.plot(D_losses, label="D", color='orange'):绘制判别器损失的曲线,使用橙色作为曲线颜色,并设置标签为"D"。
  5. plt.xlabel("iterations"):设置x轴的标签,表示训练的迭代次数。
  6. plt.ylabel("Loss"):设置y轴的标签,表示损失值。
  7. plt.legend():显示图例,以便通过标签识别不同的曲线。
  8. plt.show():显示创建的图形。

这段代码用于可视化训练过程中生成器和判别器的损失变化。通过观察损失曲线,可以了解模型的训练状态以及生成器和判别器的表现。这对于调试和优化GAN(生成对抗网络)模型非常重要。
image.png
可视化训练过程中通过隐向量fixed_noise生成的图像。

import matplotlib.pyplot as plt  # 导入matplotlib.pyplot用于绘图
import matplotlib.animation as animation  # 导入matplotlib.animation用于动画创建
import numpy as np  # 导入numpy用于数值计算(确保代码运行)def showGif(image_list):show_list = []  # 初始化一个列表,用于存储每个epoch的图像fig = plt.figure(figsize=(8, 3), dpi=120)  # 创建一个图形,设置大小和分辨率for epoch in range(len(image_list)):  # 遍历每个epochimages = []  # 初始化当前epoch的图像列表for i in range(3):  # 假设每个epoch生成3行图像# 将当前epoch的每一行图像拼接在一起row = np.concatenate((image_list[epoch][i * 8:(i + 1) * 8]), axis=1)  # 将每8张图像在水平方向上拼接images.append(row)  # 将拼接后的行图像添加到images中# 将所有行图像在垂直方向上拼接,并限制像素值在0到1之间img = np.clip(np.concatenate((images[:]), axis=0), 0, 1)  plt.axis("off")  # 关闭坐标轴show_list.append([plt.imshow(img)])  # 将当前图像添加到动画列表中# 创建动画,设置每个图像的显示间隔和循环延迟ani = animation.ArtistAnimation(fig, show_list, interval=1000, repeat_delay=1000, blit=True)  ani.save('./dcgan.gif', writer='pillow', fps=1)  # 保存动画为GIF文件showGif(image_list)  # 调用函数,生成并保存GIF

解析:

  1. import matplotlib.pyplot as pltimport matplotlib.animation as animation:导入绘图和动画所需的库。
  2. import numpy as np:导入NumPy库以进行数值处理。
  3. def showGif(image_list)::定义一个函数,用于显示生成的图像并保存为GIF。
  4. show_list = []:初始化一个空列表,用于存储每个epoch的图像信息。
  5. fig = plt.figure(figsize=(8, 3), dpi=120):创建一个图形对象,设置其大小为8x3英寸,分辨率为120 DPI。
  6. for epoch in range(len(image_list))::遍历图像列表中的每个epoch。
  7. images = []:初始化一个空列表,用于存储当前epoch的行图像。
  8. for i in range(3)::假设每个epoch生成3行图像。
    • row = np.concatenate((image_list[epoch][i * 8:(i + 1) * 8]), axis=1):将当前epoch中的8张图像在水平方向拼接成一行图像。
    • images.append(row):将拼接好的行图像添加到images列表中。
  9. img = np.clip(np.concatenate((images[:]), axis=0), 0, 1):将所有行图像在垂直方向拼接,并限制像素值在0到1之间,以确保图像的显示范围。
  10. plt.axis("off"):关闭坐标轴,以便只显示图像。
  11. show_list.append([plt.imshow(img)]):将当前图像的显示信息添加到动画列表中。
  12. ani = animation.ArtistAnimation(...):创建图像动画,设置每帧的显示间隔为1000毫秒(1秒),并设置重复延迟为1000毫秒。
  13. ani.save('./dcgan.gif', writer='pillow', fps=1):以1帧每秒的速度保存动画为GIF文件。
  14. showGif(image_list):调用函数,生成并保存GIF动画。

这段代码用于创建一个GIF动画,展示生成对抗网络(GAN)训练过程中生成器生成的图像变化。通过查看GIF,可以直观地观察到生成器在不同epoch中生成的图像质量如何变化。

从上面的图像可以看出,随着训练次数的增多,图像质量也越来越好。如果增大训练周期数,当num_epochs达到50以上时,生成的动漫头像图片与数据集中的较为相似,下面我们通过加载生成器网络模型参数文件来生成图像,代码如下:

# 从文件中获取模型参数并加载到网络中
mindspore.load_checkpoint("./generator.ckpt", generator)  # 加载生成器的训练好的模型参数fixed_noise = ops.standard_normal((batch_size, nz, 1, 1))  # 生成固定的随机噪声,用于生成图像
img64 = generator(fixed_noise).transpose(0, 2, 3, 1).asnumpy()  # 使用生成器生成图像并调整维度为(H, W, C)fig = plt.figure(figsize=(8, 3), dpi=120)  # 创建一个图形,设置大小和分辨率
images = []  # 初始化一个列表,用于存储拼接后的图像
for i in range(3):  # 假设我们希望展示3行图像images.append(np.concatenate((img64[i * 8:(i + 1) * 8]), axis=1))  # 将生成的每8张图像在水平方向拼接成一行
img = np.clip(np.concatenate((images[:]), axis=0), 0, 1)  # 将所有行图像在垂直方向拼接,并限制像素值在0到1之间
plt.axis("off")  # 关闭坐标轴
plt.imshow(img)  # 显示拼接好的图像
plt.show()  # 显示图形

解析:

  1. mindspore.load_checkpoint("./generator.ckpt", generator):从指定的文件中加载生成器的模型参数到生成器网络中。
  2. fixed_noise = ops.standard_normal((batch_size, nz, 1, 1)):生成固定的标准正态分布随机噪声,用于生成图像。batch_size是每个批次的图像数量,nz是噪声的维度。
  3. img64 = generator(fixed_noise).transpose(0, 2, 3, 1).asnumpy():使用生成器生成图像,并将输出的维度从 (N, C, H, W) 转换为 (N, H, W, C) 格式,以便进行可视化。
  4. fig = plt.figure(figsize=(8, 3), dpi=120):创建一个新的图形窗口,设置其大小为8x3英寸,分辨率为120 DPI。
  5. images = []:初始化一个空列表,用于存储生成图像的拼接结果。
  6. for i in range(3)::循环3次,每次处理一行图像。
    • images.append(np.concatenate((img64[i * 8:(i + 1) * 8]), axis=1)):将当前行的8张图像在水平方向上拼接,并添加到images列表中。
  7. img = np.clip(np.concatenate((images[:]), axis=0), 0, 1):将所有行图像在垂直方向拼接,并使用np.clip确保像素值限制在0到1之间,以便于显示。
  8. plt.axis("off"):关闭坐标轴,以便仅显示生成的图像。
  9. plt.imshow(img):将拼接后的图像显示在图形中。
  10. plt.show():最终显示图形。

这一段代码实现了加载训练好的生成器模型,并使用该模型生成固定噪声的图像,然后将生成的图像进行拼接,最后展示生成的图像。通过这种方式,用户可以直观地看到生成器生成的图像效果。
image.png

整体代码

#!/usr/bin/env python
# coding: utf-8# # DCGAN生成漫画头像
# 导入下载库并定义数据集下载链接
from download import download
url = "https://download.mindspore.cn/dataset/Faces/faces.zip"
path = download(url, "./faces", kind="zip", replace=True)  # 下载数据集# 定义一些超参数
batch_size = 128          # 批量大小
image_size = 64           # 训练图像空间大小
nc = 3                    # 图像彩色通道数
nz = 100                  # 隐向量的长度
ngf = 64                  # 特征图在生成器中的大小
ndf = 64                  # 特征图在判别器中的大小
num_epochs = 10           # 训练周期数
lr = 0.0002               # 学习率
beta1 = 0.5               # Adam优化器的beta1超参数import numpy as np
import mindspore.dataset as ds
import mindspore.dataset.vision as visiondef create_dataset_imagenet(dataset_path):"""数据加载"""dataset = ds.ImageFolderDataset(dataset_path,num_parallel_workers=4,shuffle=True,decode=True)# 数据增强操作transforms = [vision.Resize(image_size),                # 调整图像大小vision.CenterCrop(image_size),            # 中心裁剪图像vision.HWC2CHW(),                         # 调整图像通道顺序lambda x: ((x / 255).astype("float32"))   # 归一化到[0,1]范围]# 数据映射操作dataset = dataset.project('image')dataset = dataset.map(transforms, 'image')# 批量操作dataset = dataset.batch(batch_size)return datasetdataset = create_dataset_imagenet('./faces')  # 创建数据集import matplotlib.pyplot as pltdef plot_data(data):# 可视化部分训练数据plt.figure(figsize=(10, 3), dpi=140)for i, image in enumerate(data[0][:30], 1):plt.subplot(3, 10, i)plt.axis("off")plt.imshow(image.transpose(1, 2, 0))  # 转置以匹配matplotlib的格式plt.show()sample_data = next(dataset.create_tuple_iterator(output_numpy=True))
plot_data(sample_data)  # 显示样本数据# DCGAN网络生成器实现
import mindspore as ms
from mindspore import nn, ops
from mindspore.common.initializer import Normalweight_init = Normal(mean=0, sigma=0.02)  # 权重初始化
gamma_init = Normal(mean=1, sigma=0.02)    # γ的初始化class Generator(nn.Cell):"""DCGAN网络生成器"""def __init__(self):super(Generator, self).__init__()self.generator = nn.SequentialCell(nn.Conv2dTranspose(nz, ngf * 8, 4, 1, 'valid', weight_init=weight_init),nn.BatchNorm2d(ngf * 8, gamma_init=gamma_init),nn.ReLU(),nn.Conv2dTranspose(ngf * 8, ngf * 4, 4, 2, 'pad', 1, weight_init=weight_init),nn.BatchNorm2d(ngf * 4, gamma_init=gamma_init),nn.ReLU(),nn.Conv2dTranspose(ngf * 4, ngf * 2, 4, 2, 'pad', 1, weight_init=weight_init),nn.BatchNorm2d(ngf * 2, gamma_init=gamma_init),nn.ReLU(),nn.Conv2dTranspose(ngf * 2, ngf, 4, 2, 'pad', 1, weight_init=weight_init),nn.BatchNorm2d(ngf, gamma_init=gamma_init),nn.ReLU(),nn.Conv2dTranspose(ngf, nc, 4, 2, 'pad', 1, weight_init=weight_init),nn.Tanh()  # 输出范围[-1, 1])def construct(self, x):return self.generator(x)generator = Generator()  # 实例化生成器# DCGAN网络判别器实现
class Discriminator(nn.Cell):"""DCGAN网络判别器"""def __init__(self):super(Discriminator, self).__init__()self.discriminator = nn.SequentialCell(nn.Conv2d(nc, ndf, 4, 2, 'pad', 1, weight_init=weight_init),nn.LeakyReLU(0.2),nn.Conv2d(ndf, ndf * 2, 4, 2, 'pad', 1, weight_init=weight_init),nn.BatchNorm2d(ngf * 2, gamma_init=gamma_init),nn.LeakyReLU(0.2),nn.Conv2d(ndf * 2, ndf * 4, 4, 2, 'pad', 1, weight_init=weight_init),nn.BatchNorm2d(ngf * 4, gamma_init=gamma_init),nn.LeakyReLU(0.2),nn.Conv2d(ndf * 4, ndf * 8, 4, 2, 'pad', 1, weight_init=weight_init),nn.BatchNorm2d(ngf * 8, gamma_init=gamma_init),nn.LeakyReLU(0.2),nn.Conv2d(ndf * 8, 1, 4, 1, 'valid', weight_init=weight_init))self.adv_layer = nn.Sigmoid()  # Sigmoid激活函数def construct(self, x):out = self.discriminator(x)out = out.reshape(out.shape[0], -1)  # 重塑输出形状return self.adv_layer(out)discriminator = Discriminator()  # 实例化判别器# 定义损失函数
adversarial_loss = nn.BCELoss(reduction='mean')# 为生成器和判别器设置优化器
optimizer_D = nn.Adam(discriminator.trainable_params(), learning_rate=lr, beta1=beta1)
optimizer_G = nn.Adam(generator.trainable_params(), learning_rate=lr, beta1=beta1)# 定义训练步骤
def generator_forward(real_imgs, valid):z = ops.standard_normal((real_imgs.shape[0], nz, 1, 1))  # 生成随机噪声gen_imgs = generator(z)  # 生成图像g_loss = adversarial_loss(discriminator(gen_imgs), valid)  # 计算生成器损失return g_loss, gen_imgsdef discriminator_forward(real_imgs, gen_imgs, valid, fake):real_loss = adversarial_loss(discriminator(real_imgs), valid)  # 真实图像损失fake_loss = adversarial_loss(discriminator(gen_imgs), fake)  # 生成图像损失d_loss = (real_loss + fake_loss) / 2  # 判别器损失return d_lossgrad_generator_fn = ms.value_and_grad(generator_forward, None, optimizer_G.parameters, has_aux=True)
grad_discriminator_fn = ms.value_and_grad(discriminator_forward, None, optimizer_D.parameters)@ms.jit
def train_step(imgs):valid = ops.ones((imgs.shape[0], 1), mindspore.float32)  # 真实标签fake = ops.zeros((imgs.shape[0], 1), mindspore.float32)  # 生成标签(g_loss, gen_imgs), g_grads = grad_generator_fn(imgs, valid)  # 计算生成器损失optimizer_G(g_grads)  # 更新生成器d_loss, d_grads = grad_discriminator_fn(imgs, gen_imgs, valid, fake)  # 计算判别器损失optimizer_D(d_grads)  # 更新判别器return g_loss, d_loss, gen_imgs# 训练模型
G_losses = []
D_losses = []
image_list = []total = dataset.get_dataset_size()
for epoch in range(num_epochs):generator.set_train()discriminator.set_train()for i, (imgs, ) in enumerate(dataset.create_tuple_iterator()):g_loss, d_loss, gen_imgs = train_step(imgs)if i % 100 == 0 or i == total - 1:print('[%2d/%d][%3d/%d]   Loss_D:%7.4f  Loss_G:%7.4f' % (epoch + 1, num_epochs, i + 1, total, d_loss.asnumpy(), g_loss.asnumpy()))D_losses.append(d_loss.asnumpy())G_losses.append(g_loss.asnumpy())generator.set_train(False)fixed_noise = ops.standard_normal((batch_size, nz, 1, 1))  # 生成固定噪声img = generator(fixed_noise)  # 生成图像image_list.append(img.transpose(0, 2, 3, 1).asnumpy())  # 保存生成图像# 保存网络模型参数为ckpt文件
mindspore.save_checkpoint(generator, "./generator.ckpt")
mindspore.save_checkpoint(discriminator, "./discriminator.ckpt")# 绘制损失图
plt.figure(figsize=(10, 5))
plt.title("Generator and Discriminator Loss During Training")
plt.plot(G_losses, label="G", color='blue')
plt.plot(D_losses, label="D", color='orange')
plt.xlabel("iterations")
plt.ylabel("Loss")
plt.legend()
plt.show()# 可视化生成的图像
import matplotlib.animation as animationdef showGif(image_list):show_list = []fig = plt.figure(figsize=(8, 3), dpi=120)for epoch in range(len(image_list)):images = []for i in range(3):row = np.concatenate((image_list[epoch][i * 8:(i + 1) * 8]), axis=1)  # 拼接图像images.append(row)img = np.clip(np.concatenate((images[:]), axis=0), 0, 1)  # 限制像素值plt.axis("off")show_list.append([plt.imshow(img)])ani = animation.ArtistAnimation(fig, show_list, interval=1000, repeat_delay=1000, blit=True)ani.save('./dcgan.gif', writer='pillow', fps=1)showGif(image_list)# 加载生成器模型参数并生成图像
mindspore.load_checkpoint("./generator.ckpt", generator)
fixed_noise = ops.standard_normal((batch_size, nz, 1, 1))
img64 = generator(fixed_noise).transpose(0, 2, 3, 1).asnumpy()fig = plt.figure(figsize=(8, 3), dpi=120)
images = []
for i in range(3):images.append(np.concatenate((img64[i * 8:(i + 1) * 8]), axis=1))  # 拼接生成的图像
img = np.clip(np.concatenate((images[:]), axis=0), 0, 1)
plt.axis("off")
plt.imshow(img)
plt.show()

解析:

  1. 数据下载与处理
    • download(url, "./faces", kind="zip", replace=True):下载动漫头像数据集并解压到指定路径。
    • create_dataset_imagenet函数:用于加载和预处理数据,包括图像缩放、裁剪和归一化。
  2. 网络构建
    • Generator类:定义DCGAN生成器,包含一系列转置卷积层和激活函数,生成RGB图像。
    • Discriminator类:定义DCGAN判别器,包含卷积层和激活函数,输出图像为真实图像的概率。
  3. 训练过程
    • 使用二进制交叉熵损失函数(BCELoss)来评估生成器和判别器的性能。
    • 优化器使用Adam优化算法,分别为生成器和判别器设置。
  4. 生成与展示
    • train_step函数:实现了生成器和判别器的训练步骤。
    • 训练后,生成图像并保存模型参数。
    • 最后,通过加载生成器参数生成新图像并可视化。

通过本教程,可以了解如何使用DCGAN生成动漫头像,并掌握基本的模型构建与训练过程。

# 加载生成器模型参数并生成图像
mindspore.load_checkpoint("./generator.ckpt", generator)# 使用标准正态分布生成固定的随机噪声
fixed_noise = ops.standard_normal((batch_size, nz, 1, 1))# 通过生成器生成图像
img64 = generator(fixed_noise).transpose(0, 2, 3, 1).asnumpy()# 创建一个图形用于显示生成的图像
fig = plt.figure(figsize=(8, 3), dpi=120)
images = []# 将生成的图像按行进行拼接
for i in range(3):images.append(np.concatenate((img64[i * 8:(i + 1) * 8]), axis=1))  # 每行拼接8张图像# 合并所有行并限制像素值在0到1之间
img = np.clip(np.concatenate((images[:]), axis=0), 0, 1)# 关闭坐标轴并显示生成的图像
plt.axis("off")
plt.imshow(img)
plt.show()

解析:

  1. 加载生成器模型
    • mindspore.load_checkpoint("./generator.ckpt", generator):加载之前训练好的生成器模型参数,这样我们可以使用训练好的模型生成图像。
  2. 生成固定噪声
    • fixed_noise = ops.standard_normal((batch_size, nz, 1, 1)):生成一个固定的标准正态分布随机噪声,作为生成器的输入。这里的batch_size表示生成多少张图像,nz是隐向量的维度。
  3. 生成图像
    • img64 = generator(fixed_noise).transpose(0, 2, 3, 1).asnumpy():通过生成器生成图像,并将输出的维度从 (N, C, H, W) 转换为 (N, H, W, C) 格式,以便使用 matplotlib 进行可视化。
  4. 创建图形并拼接图像
    • fig = plt.figure(figsize=(8, 3), dpi=120):创建一个新的图形窗口,设置其大小和分辨率。
    • 使用np.concatenate将生成的图像按行拼接,每行展示8张图像。
  5. 显示生成的图像
    • plt.axis("off"):关闭坐标轴,以便仅显示生成的图像。
    • plt.imshow(img):将拼接后的图像显示在图形中。
    • plt.show():最终显示图形。

通过这一段代码,我们可以使用训练好的DCGAN生成新的动漫头像,并直观地查看生成结果。随着训练次数的增加,生成的图像质量会逐渐提升。当训练周期达到50个以上时,生成的头像与真实的动漫头像会更加相似。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/51302.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

vue2和el-input无法修改和写入,并且不报错

文章目录 一. 业务场景描述二. 原因分析三.解决方案3.1 方案一 原生标签(不建议)3.2 方案二 父子传递(不建议)3.3 方案三 vuex,pinia 状态传值(不建议)3.4 方案四 vue初始化属性 (建…

Java从入门到精通(十三)~ 枚举和注解

晚上好,愿这深深的夜色给你带来安宁,让温馨的夜晚抚平你一天的疲惫,美好的梦想在这个寂静的夜晚悄悄成长。 文章目录 目录 前言 一、枚举 1.1 枚举的概念 ​编辑 1.2 枚举的特点 1.3 枚举的实际运用 1. 状态机,描述属性的…

Nginx配置详解

1. Nginx安装 进入到/usr/local目录下,执行命令: yum install -y nginx通过如下命令启动nginx服务 systemctl start nginx通过如下命令,设置nginx开启自启动 systemctl enable nginxnginx默认占用80端口。 访问ip:80,可以看到…

Open3D 点云按xyz轴等距切片

目录 一、概述 1.1原理 1.2实现步骤 1.3应用 二、代码实现 2.1关键函数 2.2完整代码 三、实现效果 3.1原始点云 3.2按x轴切片 3.3按y轴切片 3.4按z轴切片 Open3D点云算法汇总及实战案例汇总的目录地址: Open3D点云算法与点云深度学习案例汇总&#xff…

Java中线程池的基本使用

参考这个课程,讲的非常详细 27.线程池使用步骤总结_哔哩哔哩_bilibili 应用场景 商品秒杀 文件上传 订票系统 自定义线程池(让我们了解底层逻辑的) 构造方法 饱和机制 就是我们的队列饱和后我们该怎么处理 是拒绝这个任务还是啥…

Aria2 任意文件写入漏洞

目录 Aria2介绍漏洞描述漏洞复现 Aria2介绍 Aria2是一个在命令行下运行,多协议,多来源下载工具(HTTP / HTTPS,FTP,BitTorrent,Metalink),内建XML-RPC用户界面。Aria提供RPC服务器&a…

流媒体服务器一:使用成熟的流媒体SRS 搭建 RTMP流媒体服务器

1 安装和测试srs流媒体服务器 服务器:SRS(Simple RTMP Server,⽀持RTMP、HTTP-FLV,HLS) 推流端:ffmpeg OBS 拉流端:ffplay VLC srs播放器 1.1 安装srs流媒体服务器 官网 SRS (Simple Realtime Server) | SRS 码…

18746 逆序数

这个问题可以使用归并排序的思想来解决。在归并排序的过程中,我们可以统计逆序数的数量。当我们合并两个已经排序的数组时,如果左边的数组中的元素��于右边的数组中的元素,那么就存在逆序,逆序数的数量就是…

IEC104转MQTT网关支持MQTT对接Ignition、阿里云、华为云、亚马逊AWS、ThingsBoard、Zabbix平台助力远程管理

钡铼推出了一款专为电力系统设计的数据采集网关——IEC104转MQTT网关BE113,感兴趣的朋友接着往下看: 一、网关概述 IEC104转MQTT(Ignition)网关BE113是一款专为电力系统设计的数据采集网关,支持DL/T645和IEC104等协议的设备。上行支持MQTT协…

二、3 函数递归

自己间接或直接调用自己(可大大减少代码量) 1、举例 2、递归必须有停下来的条件 3、举例 普通求解数组长度 递归求解

Java进制,进制的转换

目录 进制 进制介绍 案例演示 进制的图示 进制的转化(基本功) 二进制转换成十进制 八进制转换成十进制 十六进制转换成十进制 十进制转换成二进制 十进制转换成八进制 十进制转换成十六进制 二进制转换成八进制 二进制转换成十六进制 …

Linux信号上

信号 概念 信号是由于进程产生,但是由内核调度传递给另一个进程: 产生信号 按键产生信号: Ctrc --> 2)SIGINT(终止/中断) Ctrz --> 20)SIGTSTOP(终端暂停) Ctr\ --> 3)SIGQUIT(退出) 系统调用产生: kill(2), raise, abort软件条件产生: 如定…

从与原始的Transformer architecture比较来理解GPT

从与原始的Transformer architecture比较来理解GPT flyfish 一、Transformer architecture 先说名词 不同的文献和资料中有不同的名字,其实是一样的意思 1 编码器-解码器多头注意力机制(Encoder-Decoder Multi-Head Attention Mechanism) …

爬虫-实战爬取虎扑ACG帖子

要求如下: 爬取虎扑步行街 ACG 版面的数据,要求使用多线程来并发爬取。范围是第一页的所有帖子,每个帖子包含标题、主题内容和第一页的所有回复内容。最后打印出爬到的所有帖子的标题。 网址是:ACG圈 - 虎扑社区。 针对上面的要求,我们进行分析: 首先是要使用多线程范…

韩顺平0基础学java——第39天

p820-841 jdbc和连接池 1.JDBC为访问不同的数据库提供了统一的接口,为使用者屏蔽了细节问题。 2.Java程序员使用JDBC,可以连接任何提供了JDBC驱动程序的数据库系统,从而完成对数据库的各种操作。 3.jdbc原理图 JDBC带来的好处 2.JDBC带来的…

结构体笔记

结构体 C语言中的数据类型: 基本数据类型:char/int/short/double/float/long 构造数据类型:数组,指针,结构体,共用体,枚举 概念: 结构体是用户自定义的一种数据类型&#xff0c…

《Milvus Cloud向量数据库指南》——ChatGLM:从GLM-130B到GLM-4

ChatGLM:从GLM-130B到GLM-4的跨越:智谱AI在通用人工智能领域的深度探索与实践 在人工智能的浩瀚星空中,智谱AI如同一颗璀璨的新星,以其独特的技术视角和坚定的创新步伐,在通用人工智能(AGI)的征途上留下了深刻的足迹。技术生态总监贾伟在近期的一次分享中,不仅为我们描…

20.rabbitmq插件实现延迟队列

问题 前面谈到基于死信的延迟队列,存在的问题:如果第一个消息延时时间很长,而第二个消息延时时间很短,第二个消息并不会优先得到执行。 下载插件 地址:https://github.com/rabbitmq/rabbitmq-delayed-message-excha…

49.TFT_LCD液晶屏驱动设计与验证(2)

(1)Visio视图: (2)控制模块Verilog代码: module tft_ctrl(input clk_33M ,input reset_n ,input [23:0] data_in ,output [9:0] hang…