GAN!生成对抗网络GAN全维度介绍与实战

目录

  • 一、引言
    • 1.1 生成对抗网络简介
    • 1.2 应用领域概览
    • 1.3 GAN的重要性
  • 二、理论基础
    • 2.1 生成对抗网络的工作原理
      • 2.1.1 生成器
        • 生成过程
      • 2.1.2 判别器
        • 判别过程
      • 2.1.3 训练过程
        • 训练代码示例
      • 2.1.4 平衡与收敛
    • 2.2 数学背景
      • 2.2.1 损失函数
        • 生成器损失
        • 判别器损失
      • 2.2.2 优化方法
        • 优化代码示例
      • 2.2.3 高级概念
    • 2.3 常见架构及变体
      • 2.3.1 DCGAN(深度卷积生成对抗网络)
        • 代码结构示例
      • 2.3.2 WGAN(Wasserstein生成对抗网络)
      • 2.3.3 CycleGAN
      • 2.3.4 InfoGAN
      • 2.3.5 其他变体
  • 三、实战演示
    • 3.1 环境准备和数据集
      • 3.1.1 环境要求
        • 软件依赖
        • 代码示例:安装依赖
        • 硬件要求
      • 3.1.2 数据集选择与预处理
        • 数据集选择
        • 数据预处理
        • 代码示例:数据加载与预处理
      • 小结
    • 3.2 生成器构建
      • 架构设计
        • 全连接层
        • 卷积层
      • 输入潜在空间
      • 激活函数和归一化
      • 反卷积技巧
      • 与判别器的协调
      • 小结
    • 3.3 判别器构建
      • 判别器的角色和挑战
      • 架构设计
        • 代码示例:卷积判别器
      • 激活函数和归一化
      • 损失函数设计
      • 正则化和稳定化
      • 特殊架构设计
      • 与生成器的协调
      • 小结
    • 3.4 损失函数和优化器
      • 损失函数
        • 1. 原始GAN损失
        • 2. Wasserstein GAN损失
        • 3. LSGAN(最小平方损失)
        • 4. hinge损失
      • 优化器
        • 1. SGD
        • 2. Adam
        • 3. RMSProp
      • 超参数选择
      • 小结
    • 3.5 模型训练
      • 训练循环
        • 代码示例:训练循环
      • 训练稳定化
      • 模型评估
      • 超参数调优
      • 调试和可视化
      • 分布式训练
      • 小结
    • 3.6 结果分析和可视化
      • 结果可视化
        • 1. 生成样本展示
        • 2. 特征空间可视化
        • 3. 训练过程动态
      • 量化评估
        • 1. Inception Score (IS)
        • 2. Fréchet Inception Distance (FID)
      • 模型解释
      • 应用场景分析
      • 持续监测和改进
      • 小结
  • 四、总结
        • 1. 理论基础
        • 2. 实战实现
        • 3. 技术挑战与前景
      • 展望

本文为生成对抗网络GAN的研究者和实践者提供全面、深入和实用的指导。通过本文的理论解释和实际操作指南,读者能够掌握GAN的核心概念,理解其工作原理,学会设计和训练自己的GAN模型,并能够对结果进行有效的分析和评估。

作者 TechLead,拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收AI产品研发负责人

一、引言

1.1 生成对抗网络简介

file

生成对抗网络(GAN)是深度学习的一种创新架构,由Ian Goodfellow等人于2014年首次提出。其基本思想是通过两个神经网络,即生成器(Generator)和判别器(Discriminator),相互竞争来学习数据分布。

  • 生成器:负责从随机噪声中学习生成与真实数据相似的数据。
  • 判别器:尝试区分生成的数据和真实数据。

两者之间的竞争推动了模型的不断进化,使得生成的数据逐渐接近真实数据分布。

1.2 应用领域概览

GANs在许多领域都有广泛的应用,从艺术和娱乐到更复杂的科学研究。以下是一些主要的应用领域:

  • 图像生成:如风格迁移、人脸生成等。
  • 数据增强:通过生成额外的样本来增强训练集。
  • 医学图像分析:例如通过GAN生成医学图像以辅助诊断。
  • 声音合成:利用GAN生成或修改语音信号。

file
file
file

1.3 GAN的重要性

GAN的提出不仅在学术界引起了广泛关注,也在工业界取得了实际应用。其重要性主要体现在以下几个方面:

  • 数据分布学习:GAN提供了一种有效的方法来学习复杂的数据分布,无需任何明确的假设。
  • 多学科交叉:通过与其他领域的结合,GAN开启了许多新的研究方向和应用领域。
  • 创新能力:GAN的生成能力使其在设计、艺术和创造性任务中具有潜在的用途。

二、理论基础

2.1 生成对抗网络的工作原理

生成对抗网络(GAN)由两个核心部分组成:生成器(Generator)和判别器(Discriminator),它们共同工作以达到特定的目标。
file

2.1.1 生成器

生成器负责从一定的随机分布(如正态分布)中抽取随机噪声,并通过一系列的神经网络层将其映射到数据空间。其目标是生成与真实数据分布非常相似的样本,从而迷惑判别器。

生成过程

def generator(z):# 输入:随机噪声z# 输出:生成的样本# 使用多层神经网络结构生成样本# 示例代码,输出生成的样本return generated_sample

2.1.2 判别器

判别器则尝试区分由生成器生成的样本和真实的样本。判别器是一个二元分类器,其输入可以是真实数据样本或生成器生成的样本,输出是一个标量,表示样本是真实的概率。

判别过程

def discriminator(x):# 输入:样本x(可以是真实的或生成的)# 输出:样本为真实样本的概率# 使用多层神经网络结构判断样本真伪# 示例代码,输出样本为真实样本的概率return probability_real

2.1.3 训练过程

生成对抗网络的训练过程是一场两个网络之间的博弈,具体分为以下几个步骤:

  1. 训练判别器:固定生成器,使用真实数据和生成器生成的数据训练判别器。
  2. 训练生成器:固定判别器,通过反向传播调整生成器的参数,使得判别器更难区分真实和生成的样本。

训练代码示例

# 训练判别器和生成器
# 示例代码,同时注释后增加指令的输出

2.1.4 平衡与收敛

GAN的训练通常需要仔细平衡生成器和判别器的能力,以确保它们同时进步。此外,GAN的训练收敛性也是一个复杂的问题,涉及许多技术和战略。

2.2 数学背景

生成对抗网络的理解和实现需要涉及多个数学概念,其中主要包括概率论、最优化理论、信息论等。

2.2.1 损失函数

损失函数是GAN训练的核心,用于衡量生成器和判别器的表现。

生成器损失

生成器的目标是最大化判别器对其生成样本的错误分类概率。损失函数通常表示为:

L_G = -\mathbb{E}[\log D(G(z))]

其中,(G(z)) 表示生成器从随机噪声 (z) 生成的样本,(D(x)) 是判别器对样本 (x) 为真实的概率估计。

判别器损失

判别器的目标是正确区分真实数据和生成数据。损失函数通常表示为:

L_D = -\mathbb{E}[\log D(x)] - \mathbb{E}[\log (1 - D(G(z)))]

其中,(x) 是真实样本。

2.2.2 优化方法

GAN的训练涉及复杂的非凸优化问题,常用的优化算法包括:

  • 随机梯度下降(SGD):基本的优化算法,适用于大规模数据集。
  • Adam:自适应学习率优化算法,通常用于GAN的训练。

优化代码示例

# 使用PyTorch的Adam优化器
from torch.optim import Adamoptimizer_G = Adam(generator.parameters(), lr=0.0002, betas=(0.5, 0.999))
optimizer_D = Adam(discriminator.parameters(), lr=0.0002, betas=(0.5, 0.999))

2.2.3 高级概念

  • Wasserstein距离:在某些GAN变体中,用于衡量生成分布与真实分布之间的距离。
  • 模式崩溃:训练过程中生成器可能会陷入生成有限样本的情况,导致训练失败。

这些数学背景为理解生成对抗网络的工作原理提供了坚实基础,并揭示了训练过程中的复杂性和挑战性。通过深入探讨这些概念,读者可以更好地理解GAN的内部运作,从而进行更高效和有效的实现。

2.3 常见架构及变体

生成对抗网络自从提出以来,研究者们已经提出了许多不同的架构和变体,以解决原始GAN存在的一些问题,或者更好地适用于特定应用。

2.3.1 DCGAN(深度卷积生成对抗网络)

file
DCGAN是使用卷积层的GAN变体,特别适用于图像生成任务。

  • 特点:使用批量归一化,LeakyReLU激活函数,无全连接层等。
  • 应用:图像生成,特征学习等。

代码结构示例

# DCGAN生成器的PyTorch实现
import torch.nn as nnclass DCGAN_Generator(nn.Module):def __init__(self):super(DCGAN_Generator, self).__init__()# 定义卷积层等

2.3.2 WGAN(Wasserstein生成对抗网络)

WGAN通过使用Wasserstein距离来改进GAN的训练稳定性。

  • 特点:使用Wasserstein距离,剪裁权重等。
  • 优势:训练更稳定,可解释性强。

2.3.3 CycleGAN

CycleGAN用于进行图像到图像的转换,例如将马的图像转换为斑马的图像。

  • 特点:使用循环一致损失确保转换的可逆性。
  • 应用:风格迁移,图像转换等。

2.3.4 InfoGAN

InfoGAN通过最大化潜在代码和生成样本之间的互信息,使得潜在空间具有更好的解释性。

  • 特点:使用互信息作为额外损失。
  • 优势:潜在空间具有解释性,有助于理解生成过程。

2.3.5 其他变体

此外还有许多其他的GAN变体,例如:

  • ProGAN:逐渐增加分辨率的方法来生成高分辨率图像。
  • BigGAN:大型生成对抗网络,适用于大规模数据集上的图像生成。

生成对抗网络的这些常见架构和变体展示了GAN在不同场景下的灵活性和强大能力。理解这些不同的架构可以帮助读者选择适当的模型来解决具体问题,也揭示了生成对抗网络研究的多样性和丰富性。


三、实战演示

3.1 环境准备和数据集

file

在进入GAN的实际编码和训练之前,我们首先需要准备适当的开发环境和数据集。这里的内容会涵盖所需库的安装、硬件要求、以及如何选择和处理适用于GAN训练的数据集。

3.1.1 环境要求

构建和训练GAN需要一些特定的软件库和硬件支持。

软件依赖

  • Python 3.x: 编写和运行代码的语言环境。
  • PyTorch: 用于构建和训练深度学习模型的库。
  • CUDA: 如果使用GPU训练,则需要安装。

代码示例:安装依赖

# 安装PyTorch
pip install torch torchvision

硬件要求

  • GPU: 推荐使用具有足够内存的NVIDIA GPU,以加速计算。

3.1.2 数据集选择与预处理

GAN可以用于多种类型的数据,例如图像、文本或声音。以下是数据集选择和预处理的一般指南:

数据集选择

  • 图像生成:常用的数据集包括CIFAR-10, MNIST, CelebA等。
  • 文本生成:可以使用WikiText, PTB等。

数据预处理

  • 规范化:将图像像素值缩放到特定范围,例如[-1, 1]。
  • 数据增强:旋转、裁剪等增强泛化能力。

代码示例:数据加载与预处理

# 使用PyTorch加载CIFAR-10数据集
from torchvision import datasets, transformstransform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5,), (0.5,))
])train_dataset = datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)

小结

环境准备和数据集的选择与预处理是实施GAN项目的关键初始步骤。选择适当的软件、硬件和数据集,并对其进行适当的预处理,将为整个项目的成功奠定基础。读者应充分考虑这些方面,以确保项目从一开始就在可行和有效的基础上进行。

3.2 生成器构建

生成器是生成对抗网络中的核心部分,负责从潜在空间的随机噪声中生成与真实数据相似的样本。以下是更深入的探讨:
file

架构设计

生成器的设计需要深思熟虑,因为它决定了生成数据的质量和多样性。

全连接层

适用于较简单的数据集,如MNIST。

class SimpleGenerator(nn.Module):def __init__(self):super(SimpleGenerator, self).__init__()self.main = nn.Sequential(nn.Linear(100, 256),nn.ReLU(),nn.Linear(256, 512),nn.ReLU(),nn.Linear(512, 784),nn.Tanh())def forward(self, input):return self.main(input)

卷积层

适用于更复杂的图像数据生成,如DCGAN。

class ConvGenerator(nn.Module):def __init__(self):super(ConvGenerator, self).__init__()self.main = nn.Sequential(# 逆卷积层nn.ConvTranspose2d(100, 512, 4),nn.BatchNorm2d(512),nn.ReLU(),# ...)def forward(self, input):return self.main(input)

输入潜在空间

  • 维度选择:潜在空间的维度选择对于模型的生成能力有重要影响。
  • 分布选择:通常使用高斯分布或均匀分布。

激活函数和归一化

  • ReLU和LeakyReLU:常用在生成器的隐藏层。
  • Tanh:通常用于输出层,将像素值缩放到[-1, 1]。
  • 批归一化:帮助提高训练稳定性。

反卷积技巧

  • 逆卷积:用于上采样图像。
  • PixelShuffle:更高效的上采样方法。

与判别器的协调

  • 设计匹配:生成器和判别器的设计应相互协调。
  • 卷积层参数共享:有助于增强生成能力。

小结

生成器构建是一个复杂和细致的过程。通过深入了解生成器的各个组成部分和它们是如何协同工作的,我们可以设计出适应各种任务需求的高效生成器。不同类型的激活函数、归一化、潜在空间设计以及与判别器的协同工作等方面的选择和优化是提高生成器性能的关键。

3.3 判别器构建

生成对抗网络(GAN)的判别器是一个二分类模型,用于区分生成的数据和真实数据。以下是判别器构建的详细内容:

判别器的角色和挑战

  • 角色:区分真实数据和生成器生成的虚假数据。
  • 挑战:平衡生成器和判别器的能力。

架构设计

  • 卷积网络:常用于图像数据,效率较高。
  • 全连接网络:对于非图像数据,例如时间序列。

代码示例:卷积判别器

class ConvDiscriminator(nn.Module):def __init__(self):super(ConvDiscriminator, self).__init__()self.main = nn.Sequential(nn.Conv2d(3, 64, 4, stride=2, padding=1),nn.LeakyReLU(0.2),# ...nn.Sigmoid() # 二分类输出)def forward(self, input):return self.main(input)

激活函数和归一化

  • LeakyReLU:增加非线性,防止梯度消失。
  • Layer Normalization:训练稳定性。

损失函数设计

  • 二分类交叉熵损失:常用损失函数。
  • Wasserstein距离:WGAN中使用,理论基础坚实。

正则化和稳定化

  • 正则化:如L1、L2正则化防止过拟合。
  • Gradient Penalty:例如WGAN-GP中,增加训练稳定性。

特殊架构设计

  • PatchGAN:局部感受域的判别器。
  • 条件GAN:结合额外信息的判别器。

与生成器的协调

  • 协同训练:注意保持生成器和判别器训练的平衡。
  • 渐进增长:例如ProGAN中,逐步增加分辨率。

小结

判别器的设计和实现是复杂的多步过程。通过深入了解判别器的各个组件以及它们是如何协同工作的,我们可以设计出适应各种任务需求的强大判别器。判别器的架构选择、激活函数、损失设计、正则化方法,以及如何与生成器协同工作等方面的选择和优化,是提高判别器性能的关键因素。

3.4 损失函数和优化器

损失函数和优化器是训练生成对抗网络(GAN)的关键组件,它们共同决定了GAN的训练速度和稳定性。

损失函数

损失函数量化了GAN的生成器和判别器之间的竞争程度。

1. 原始GAN损失

  • 生成器损失:欺骗判别器。
  • 判别器损失:区分真实和虚假样本。
# 判别器损失
real_loss = F.binary_cross_entropy(D_real, ones_labels)
fake_loss = F.binary_cross_entropy(D_fake, zeros_labels)
discriminator_loss = real_loss + fake_loss# 生成器损失
generator_loss = F.binary_cross_entropy(D_fake, ones_labels)

2. Wasserstein GAN损失

  • 理论优势:更连续的梯度。
  • 训练稳定性:解决模式崩溃问题。

3. LSGAN(最小平方损失)

  • 减小梯度消失:在训练早期。

4. hinge损失

  • 鲁棒性:对噪声和异常值具有鲁棒性。

优化器

优化器负责根据损失函数的梯度更新模型的参数。

1. SGD

  • 基本但强大
  • 学习率调整:如学习率衰减。

2. Adam

  • 自适应学习率
  • 用于大多数情况:通常效果很好。

3. RMSProp

  • 适用于非平稳目标
  • 自适应学习率
# 示例
optimizer_G = optim.Adam(generator.parameters(), lr=0.0002, betas=(0.5, 0.999))
optimizer_D = optim.Adam(discriminator.parameters(), lr=0.0002, betas=(0.5, 0.999))

超参数选择

  • 学习率:重要的调整参数。
  • 动量参数:例如Adam中的beta。
  • 批大小:可能影响训练稳定性。

小结

损失函数和优化器在GAN的训练中起着核心作用。损失函数界定了生成器和判别器之间的竞争关系,而优化器则决定了如何根据损失函数的梯度来更新这些模型的参数。在设计损失函数和选择优化器时需要考虑许多因素,包括训练的稳定性、速度、鲁棒性等。理解各种损失函数和优化器的工作原理,可以帮助我们为特定任务选择合适的方法,更好地训练GAN。

3.5 模型训练

在生成对抗网络(GAN)的实现中,模型训练是最关键的阶段之一。本节详细探讨模型训练的各个方面,包括训练循环、收敛监控、调试技巧等。

训练循环

训练循环是GAN训练的心脏,其中包括了前向传播、损失计算、反向传播和参数更新。

代码示例:训练循环

for epoch in range(epochs):for real_data, _ in dataloader:# 更新判别器optimizer_D.zero_grad()real_loss = ...fake_loss = ...discriminator_loss = real_loss + fake_lossdiscriminator_loss.backward()optimizer_D.step()# 更新生成器optimizer_G.zero_grad()generator_loss = ...generator_loss.backward()optimizer_G.step()

训练稳定化

GAN训练可能非常不稳定,下面是一些常用的稳定化技术:

  • 梯度裁剪:防止梯度爆炸。
  • 使用特殊的损失函数:例如Wasserstein损失。
  • 渐进式训练:逐步增加模型的复杂性。

模型评估

GAN没有明确的损失函数来评估生成器的性能,因此通常需要使用一些启发式的评估方法:

  • 视觉检查:人工检查生成的样本。
  • 使用标准数据集:例如Inception Score。
  • 自定义度量标准:与应用场景相关的度量。

超参数调优

  • 网格搜索:系统地探索超参数空间。
  • 贝叶斯优化:更高效的搜索策略。

调试和可视化

  • 可视化损失曲线:了解训练过程的动态。
  • 检查梯度:例如使用梯度直方图。
  • 生成样本检查:实时观察生成样本的质量。

分布式训练

  • 数据并行:在多个GPU上并行处理数据。
  • 模型并行:将模型分布在多个GPU上。

小结

GAN的训练是一项复杂和微妙的任务,涉及许多不同的组件和阶段。通过深入了解训练循环的工作原理,学会使用各种稳定化技术,和掌握模型评估和超参数调优的方法,我们可以更有效地训练GAN模型。

3.6 结果分析和可视化

生成对抗网络(GAN)的训练结果分析和可视化是评估模型性能、解释模型行为以及调整模型参数的关键环节。本节详细讨论如何分析和可视化GAN模型的生成结果。
file

结果可视化

可视化是理解GAN的生成能力的直观方法。常见的可视化方法包括:

1. 生成样本展示

  • 随机样本:从随机噪声生成的样本。
  • 插值样本:展示样本之间的平滑过渡。

2. 特征空间可视化

  • t-SNE和PCA:用于降维的技术,可以揭示高维特征空间的结构。

3. 训练过程动态

  • 损失曲线:观察训练稳定性。
  • 样本质量随时间变化:揭示生成器的学习过程。

量化评估

虽然可视化直观,但量化评估提供了更准确的性能度量。常用的量化方法包括:

1. Inception Score (IS)

  • 多样性和一致性的平衡
  • 在标准数据集上评估

2. Fréchet Inception Distance (FID)

  • 比较真实和生成分布
  • 较低的FID表示更好的性能

模型解释

理解GAN如何工作以及每个部分的作用可以帮助改进模型:

  • 敏感性分析:如何输入噪声的变化影响输出。
  • 特征重要性:哪些特征最影响判别器的决策。

应用场景分析

  • 实际使用情况下的性能
  • 与现实世界任务的结合

持续监测和改进

  • 自动化测试:保持模型性能的持续监测。
  • 迭代改进:基于结果反馈持续优化模型。

小结

结果分析和可视化不仅是GAN工作流程的最后一步,还是一个持续的、反馈驱动的过程,有助于改善和优化整个系统。可视化和量化分析工具提供了深入了解GAN性能的方法,从直观的生成样本检查到复杂的量化度量。通过这些工具,我们可以评估模型的优点和缺点,并做出有针对性的调整。

四、总结

生成对抗网络(GAN)作为一种强大的生成模型,在许多领域都有广泛的应用。本文全面深入地探讨了GAN的不同方面,涵盖了理论基础、常见架构、实际实现和结果分析。以下是主要的总结点:
file

1. 理论基础

  • 工作原理:GAN通过一个生成器和一个判别器的博弈过程实现强大的生成能力。
  • 数学背景:深入了解了损失函数、优化方法和稳定化策略。
  • 架构与变体:讨论了不同的GAN结构和它们的适用场景。

2. 实战实现

  • 环境准备:提供了准备训练环境和数据集的指导。
  • 模型构建:详细解释了生成器和判别器的设计以及损失函数和优化器的选择。
  • 训练过程:深入讨论了训练稳定性、模型评估、超参数调优等关键问题。
  • 结果分析:强调了可视化、量化评估和持续改进的重要性。

3. 技术挑战与前景

  • 训练稳定性:GAN训练可能不稳定,需要深入理解和恰当选择稳定化技术。
  • 评估标准:缺乏统一的评估标准仍是一个挑战。
  • 多样性与真实性的平衡:如何在保持生成样本多样性的同时确保其真实性。
  • 实际应用:将GAN成功地应用于实际问题,仍需进一步研究和实践。

展望

GAN的研究和应用仍然是一个快速发展的领域。随着技术的不断进步和更多的实际应用,我们期望未来能够看到更多高质量的生成样本,更稳定的训练方法,以及更广泛的跨领域应用。GAN的理论和实践的深入融合将为人工智能和机器学习领域开辟新的可能性。

作者 TechLead,拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收AI产品研发负责人

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/44783.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

收集的一些比较好的git网址

1、民间故事 https://github.com/folkstory/lingqiu/blob/master/%E4%BC%A0%E8%AF%B4%E9%83%A8%E5%88%86/%E4%BA%BA%E7%89%A9%E4%BC%A0%E8%AF%B4/%E2%80%9C%E6%B5%B7%E5%BA%95%E6%8D%9E%E6%9C%88%E2%80%9D%E7%9A%84%E6%AD%A6%E4%B8%BE.md 2、童话故事 https://gutenberg.org/c…

12. Docker可视化工具

目录 1、前言 2、Docker UI 2.1、部署Docker UI 2.2、管理容器 3、Portainer 3.1、部署Portainer 3.2、管理容器 3.3、添加远程Docker 4、Shipyard 1、前言 Docker 提供了命令行工具来管理 Docker 的镜像和运行 Docker 的容器。我们也可以使用图形工具来管理 Docker。…

C# 观察者模式

一、概述 观察者模式是一种常用的设计模式,它属于行为型模式。在C#中,观察者模式通过定义一种一对多的依赖关系,使得当一个对象的状态发生变化时,所有依赖于它的对象都会得到通知并自动更新。这种模式可以实现松耦合,…

Ribbon负载均衡

Ribbon与Eureka的关系 Eureka的服务拉取与负载均衡都是由Ribbon来实现的。 当服务发送http://userservice/user/xxxhtt://userservice/user/xxx请求时,是无法到达userservice服务的,会通过Ribbon会把这个请求拦截下来,通过Eureka-server转换…

常见排序集锦-C语言实现数据结构

目录 排序的概念 常见排序集锦 1.直接插入排序 2.希尔排序 3.选择排序 4.堆排序 5.冒泡排序 6.快速排序 hoare 挖坑法 前后指针法 非递归 7.归并排序 非递归 排序实现接口 算法复杂度与稳定性分析 排序的概念 排序 :所谓排序,就是使一串记录&#…

排名前 6 位的数学编程语言

0 说明 任何对数学感兴趣或计划学习数学的人,都应该至少对编程语言有一定的流利程度。您不仅会更有就业能力,还可以更深入地理解和探索数学。那么你应该学习什么语言呢? 1.python 对于任何正在学习数学的人来说,Python都是一门很棒…

【Linux从入门到精通】动静态库的原理与制作详解

本篇文章主要是围绕动静态库的原理与制作进行展开讲解的。其中涉及到了inode的概念引入和软硬连接的讲解。会结合实际操作对这些抽象的概念进行解释,希望会对你有所帮助。 文章目录 一、inode 概念 二、软硬链接 2、1 软连接 2、2 硬链接 三、动静态库概念 3、1 静态…

编织梦想:SpringBoot AOP 教程与自定义日志切面完整实战

什么是 AOP AOP 是指通过预编译方式和运行期动态代理的方式,在不修改源代码的情况下对程序进行功能增强的一种技术。AOP 不是面向对象编程(OOP)的替代品,而是 OOP 的补充和扩展。它是一个新的维度,用来表达横切问题&a…

常见前端基础面试题(HTML,CSS,JS)(三)

JS 中如何进行数据类型的转换? 类型转换可以分为两种,隐性转换和显性转换 显性转换 主要分为三大类:数值类型、字符串类型、布尔类型 三大类的原始类型值的转换规则我就不一一列举了 数值类型(引用类型转换) Numbe…

设计模式之状态模式(State)的C++实现

1、状态模式的提出 在组件功能开发过程中,某些对象的状态经常面临变化,不同的状态,其对象的操作行为不同。比如根据状态写的if else条件情况,且这种条件变化是经常变化的,这样的代码不易维护。可以使用状态模式解决这…

如何在window下cmd窗口执行linux指令?

1.Git:https://git-scm.com/downloads(官网地址) 2.根据自己的实际路径,添加两个环境变量 3.重启电脑

删除有序链表中重复的元素-II(链表)

乌!蒙!山!连!着!山!外!山! 题目: 思路: 双指针,slow和fast,并且增加标记flag初始为1。 如果slow指向节点值等于fast指向节点值&…

Servlet 初步学习

文章目录 Servlet1 简介2 快速入门3 执行流程4 生命周期5 方法介绍6 体系结构7 urlPattern配置8 XML配置 Servlet 1 简介 Servlet是JavaWeb最为核心的内容,它是Java提供的一门 动态 web资源开发技术。 使用Servlet就可以实现,根据不同的登录用户在页面…

什么是cURL?

cURL无处不在。它几乎隐藏在所有设备中,例如汽车,蓝光播放器等。它通过互联网协议传输任意类型数据。 在本文中,我们将揭开cURL神秘命令行工具的面纱,解释它是如何成为一种通用代码的,并举例说明其用法。 cURL是什么意…

PHP海外代购管理系统mysql数据库web结构apache计算机软件工程网页wamp

一、源码特点 PHP 海外代购管理系统是一套完善的web设计系统,对理解php编程开发语言有帮助,系统具有完整的源代码和数据库,系统主要采用B/S模式开发。 代码下载 https://download.csdn.net/download/qq_41221322/88229435 论文 https://…

Redis中的分布式锁及其延生的问题

前言 本文将着重介绍Redis中的分布式锁及其与出现的死锁和锁误删问题 什么是分布式锁 首先问题就是什么是分布式锁,分布式锁就是分布式系统中实现并发控制的一种锁机制,它可以保证多个节点在同一个时间只有有一个能成功竞争到系统资源(共享…

LeetCode算法递归类—二叉树中的最大路径和

目录 124. 二叉树中的最大路径和 - 力扣(LeetCode) 题解: 代码: 运行结果: 二叉树中的 路径 被定义为一条节点序列,序列中每对相邻节点之间都存在一条边。同一个节点在一条路径序列中 至多出现一次 。该…

基于Opencv的虚拟拖拽项目

预备知识 勾股定理 跟随移动算法 手势识别图解 项目源代码 """ 演示一个简单的虚拟拖拽 步骤: 1、opencv 读取视频流 2、在视频图像上画一个方块 3、通过mediapipe库获取手指关节坐标 4、判断手指是否在方块上 5、是,方块跟着移动 6、…

密码学学习笔记(十九):密码学关键术语的解释1

数据加密标准(DES) 数据加密标准是使用最广泛的加密体制,它于1977年被美国国家标准和技术研究所(NIST)采纳为联邦信息处理标准FIPS PUB 46。 DES3DESAES明文分组长度(位)6464128密文分组长度(位)6464128密钥长度&…

详解junit

目录 1.概述 2.断言 3.常用注解 3.1.Test 3.2.Before 3.3.After 3.4.BeforeClass 3.5.AfterClass 4.异常测试 5.超时测试 6.参数化测试 1.概述 什么是单元测试: 单元测试,是针对最小的功能单元编写测试代码,在JAVA中最小的功能单…