2024.4.7周报

摘要

在本周阅读的文献中,提出了基于Transformer的GAN模型,GAN的生成器和鉴别器,都是基于Transformer的编码器架构构建的,通过处理图像的方式处理时间序列数据作为该模型的输入。该模型能够生成各种长度的多维时间序列数据,对原始信号模式和二维数据点分布的可视化比较显示了原始数据和合成数据的相似性。原始GAN的优化主要在于最小化真实分布和生成分布之间的js散度,而JS散度因其没有重叠则值不变的特性,导致GAN的优化存在梯度下降等问题。Wasserstein距离相比KL散度、JS散度,即便两个分布没有重叠,Wasserstein距离仍然能够反映它们的远近。

Abstract

The literature read this week proposes a Transformer based GAN model. The generator and discriminator of GAN are both built on the encoder architecture of Transformer, processing time-series data as input to the model through image processing.This model can generate multidimensional time series data of various lengths, and the visual comparison of the original signal pattern and the distribution of two-dimensional data points shows the similarity between the original data and the synthesized data. The optimization of the original GAN mainly focuses on minimizing the JS divergence between the true distribution and the generated distribution, while the JS divergence, due to its non overlapping nature, remains unchanged, resulting in gradient descent and other problems in the optimization of GAN. Compared to KL divergence and JS divergence, Wasserstein distance can still reflect their distance even if the two distributions do not overlap.

文献阅读:基于Transformer的时间序列生成对抗网络

TTS-GAN: A Transformer-based Time-Series Generative Adversarial Network

https://arxiv.org/pdf/2202.02691v2.pdf

现有问题

  • 时间序列形式出现的信号测量是机器学习应用中最常用的数据类型之一,然而这些数据集通常很小,使得深度神经网络架构的训练无效。深度学习模型需要大量数据才能成功训练,在小数据集上训练具有大量可训练参数的深度学习模型会导致过度拟合和低泛化能力。 
  • 在此之前GAN创建时间序列主要依赖于基于递归神经网络(RNN)的架构,而RNN存在梯度消失等问题,在时间序列数据上表现得不尽人意。

提出方法

  • 采用图像处理的方式来处理时间序列数据,将一个时间序列数据,看作是一个高度等于1的图像。
  • 引入了TTS-GAN,一种基于Transformer的GAN,GAN模型的产生器网络和鉴别器网络均采用纯Transformer编码器结构构建。Transformer最初是为了处理非常长的序列数据而发明的,并且没有梯度消失问题,可以成功地生成与真实时间序列相似的任意长度的真实合成时间序列数据序列。

相关前提

GAN(生成对抗网络)

GAN相关的知识在第四十周周报:第四十周:文献阅读+GAN-CSDN博客

对于时间序列生成任务而言,GAN由生成器和鉴别器两种模型组成。这两个模型通常由神经网络实现,但它们可以用任何形式的可微系统实现,将数据从一个空间映射到另一个空间。在TTG-GAN模型生成时间序列数据任务中,生成器试图捕获真实示例的分布,以生成新的数据示例。鉴别器通常是一个二元分类器,尽可能准确地将生成的示例与真实示例区分开来。GAN的优化是一个极大极小优化问题,其目标是使生成器和鉴别器相互对抗直到达到平衡。然后,可以认为生成器捕获了真实示例的真实分布。

Transformer

Transformer相关的知识在第三十九周周报:第三十九周:文献阅读+Transformer-CSDN博客

Transformer是最先进的神经网络架构。与循环神经网络不同的是,在Transformer网络中,整个序列被馈送到Transformer模块的各个层中。然后通过关注前一层中所有其他token的潜在表示来计算这一层token 的表示。而所处理的多维时间序列数据在文本和图像上都具有相似性,这意味着一个序列同时包含了时间和空间信息。序列中的每个时间步就像一张图像上的一个像素。整个序列包含一个事件或多个事件发生,这类似于NLP任务中的一个句子。

方法论

时间序列处理

利用处理图像的方法来处理时间序列数据,可以将一个时间序列数据,看作是一个高度等于1的图像。时间步长是图像的宽度W,一个时间序列序列可以有一个单通道或多个通道,这些通道可以被看作是一个图像的通道数(RGB) c,因此输入序列可以用大小矩阵(Batch Size,C,1,W),然后选择一个patch大小为N,将序列划分为eq?W%3DN%5Ctimes%20patch。然后,我们在每个patch的末尾添加一个软位置编码值,该位置值在模型训练过程中学习。因此,识别器编码器块的输入将具有数据形状(Batch Size,C,(W=N) + 1)。

d8186652fd314234bde502b61f58f25e.png

时序数据处理

TTS-GAN (基于Transformer的时间序列生成对抗网络)

TTS-GAN包含两个主要组件,一个生成器和一个鉴别器,都是基于Transformer的编码器架构构建的。其中编码器是由两个复合块组成的。第一块由多头自注意模块构成,第二块由具有GELU激活函数的前馈MLP构成。在两个块之前应用规范化层,在每个块之后添加dropout层,两个块都使用残余连接。

c70f34f65f3c44d69749a6c0d9adc763.png

生成器模块的流程为: 

  1. 生成器首先接收一个一维向量,其中N个均匀分布的随机数值在(0,1)范围内,即eq?N_%7Bi%7D%5Csim%20U%280%2C1%29。N表示合成信号的潜在维数,是一个可调的超参数。
  2. 然后将向量映射到具有相同实际信号长度和M嵌入维数的序列,其中M也是一个可以改变的超参数;
  3. 接下来,将序列划分为多个patch,并在每个patch中添加一个位置编码值。
  4. 这些补丁然后被输入到Transformer的编码器块;
  5. 然后将编码器块输出通过Conv2D层传递,以降低合成数据的维数(Conv2D层设置为内核大小(1;1),不会改变合成数据的宽度和高度。)

鉴别器架构类似一种二值分类器,用于区分输入序列是实信号还是合成信号。在TTS-GAN中,将任何输入序列视为高度为1的图像,输入的时间步长是图像宽度。因此,要在时间序列输入上添加位置编码,我们只需要将宽度均匀地分成多个片段,保持每个片段的高度不变。

研究实验

实验目的

使用PCA和t-SNE定性可视化和相似性得分定量指标来评估TTS-GAN,并将其与Time-GAN进行比较,研究TTS-GAN是否性能优于Time-GAN,以及合成时间序列数据的可行性。

数据集

采用了三个数据集,分别是模拟正弦波、UniMiB人类活动识别(HAR)数据集和PTB诊断心电图数据库。共使用10000个模拟正弦波来训练GAN模型。对于UniMiB数据库,从24个受试者的记录中选择2类(跳跃和跑步)样本来训练GAN模型,这两个类分别有600和1572个样本。PTB Diagnostic ECG数据集包含正常和异常两类人类心跳信号,分别有4046和10506个样本。

评估标准

使用定性可视化和定量指标来评估TTS-GAN

  1. 原始数据可视化:对比TTS-GAN生成的合成数据样本与真实数据;
  2. 使用PCA和t-SNE进行可视化:进一步说明真实数据和合成数据之间的相似性;
  3. 相似性得分:定量比较真实序列和生成序列的相似度,定义了两个相似度分数,平均余弦相似度(avg_cos_sim)和平均Jensen-Shannon距离。。

实验结果分析

由于时间序列数据不容易被人类解释,使用PCA(主成分分析法)和t-SNE(用于高维数据降维到2维或者3维,并进行可视化)

9d1a7e8a714446899a9051d0ad60493d.png

将多维输出序列向量映射到两个维度,直观地观察合成数据与真实数据实例分布的相似性。

e5fba2922a3543f59de759462ac90643.png

为了进行更定量的比较,我们还测量了几个众所周知的信号特性,并将变压器生成的序列和rnn生成的序列与同类真实序列的相似性进行了比较。 

  • avg_cos_sim测量所有真实信号和同类合成信号之间的平均余弦相似度,接近1的值表示两个特征向量之间的相似性较高。
  • avg_jen_dis是所有特征向量距离的平均值,值接近于零意味着一对信号彼此之间的距离较小,因此具有相似的分布。

两个相似度分数被用来定量地进一步验证合成数据的保真度。从实验结果可以看出,对于不同的信号类别,合成样本的平均余弦相似度较高,Jensen-Shannon距离较低。此外,TTS-GAN在10个案例中有7个战胜了Time-GAN。总的来说,当对真实样本进行训练时,TTS-GAN作为真实时间序列生成器可行性很高。

db4f399814534e41aa42b448b1dcd3ad.png

文献贡献

  1. 创建了一个纯粹的基于Transformer的GAN模型来生成合成时间序列数据。
  2. 提出了几种启发式方法来更有效地训练基于时间序列数据的Transformer的GAN模型。
  3. 将生成序列的质量与真实序列和其他最先进的时间序列GAN算法生成的序列进行定性和定量比较。

 模型代码

生成器模块

生成器接收一维的输入向量,然后将向量映射到实际信号长度和M嵌入维数的序列,将序列划分为多个patch,并在每个patch中添加一个位置编码值。将添加了位置编码的向量输入到Transformer的编码器块;再将编码器块输出通过Conv2D层传递,以降低合成数据的维数

合成数据序列经过生成器的Transformer编码器层具有数据形状(隐藏维度,1,时间步长)将映射到(真实数据维度,1,步长)。通过这种方法,将随机噪声向量变换成与实际信号形状相同的序列。

class Generator(nn.Module):def __init__(self, seq_len=150, patch_size=15, channels=3, num_classes=9, latent_dim=100, embed_dim=10, depth=3,num_heads=5, forward_drop_rate=0.5, attn_drop_rate=0.5):#定义了序列长度为150、批次大小为15、通道数为3、潜空间的维度为100,编码输出维度为10,深度为3、正则化参数为0.5super(Generator, self).__init__()self.channels = channelsself.latent_dim = latent_dimself.seq_len = seq_lenself.embed_dim = embed_dimself.patch_size = patch_sizeself.depth = depthself.attn_drop_rate = attn_drop_rateself.forward_drop_rate = forward_drop_rateself.l1 = nn.Linear(self.latent_dim, self.seq_len * self.embed_dim)self.pos_embed = nn.Parameter(torch.zeros(1, self.seq_len, self.embed_dim))#将Transformer的Encoder模块作为生成器的块,设置了深度、维度、正则化参大小等参数self.blocks = Gen_TransformerEncoder(depth=self.depth,emb_size = self.embed_dim,drop_p = self.attn_drop_rate,forward_drop_p=self.forward_drop_rate)#定一个卷积层的容器self.deconv = nn.Sequential(#定义2维卷积层,卷积核的大小为1,卷积的步幅为1,padding为0nn.Conv2d(self.embed_dim, self.channels, 1, 1, 0))#前向传播层,输入一个张量zdef forward(self, z):#经过一层全连接层self.11后,将输出的张量x通过view函数变为三维张量x = self.l1(z).view(-1, self.seq_len, self.embed_dim)x = x + self.pos_embed   #添加位置编码H, W = 1, self.seq_lenx = self.blocks(x)#将x的维度变为x.shape[0]*1*x*shape[1]*x.shape[2]x = x.reshape(x.shape[0], 1, x.shape[1], x.shape[2])#permute函数:将指定的矩阵维度进行重新排序,将x的维度排序为[x.shape[0],x.shape[2],1,x.shape[1]]#deconv:反卷积函数output = self.deconv(x.permute(0, 3, 1, 2))#再将output通过view函数变为四维张量output = output.view(-1, self.channels, H, W)return output

生成器中的transformer的Encode模块 

其中Encode模块由两个复合块组成,第一个由多头注意力和add&Norm层组成,一个是add代表的残差结构,一个是Norm代表的归一化。第二个由全连接层和add&Norm层组成。

在两个块之前应用规范化层,在每个块之后添加dropout层。两个块都使用残余连接。

1029283e8a4d4135a35139b64388227e.png

#encode模块
class Gen_TransformerEncoderBlock(nn.Sequential):def __init__(self,emb_size,num_heads=5,drop_p=0.5,forward_expansion=4,forward_drop_p=0.5):super().__init__(
#两个复合模块ResidualAdd(nn.Sequential(#规范层                                                                                                                                nn.LayerNorm(emb_size),#多头注意力MultiHeadAttention(emb_size, num_heads, drop_p),#残余连接nn.Dropout(drop_p))),ResidualAdd(nn.Sequential(nn.LayerNorm(emb_size),FeedForwardBlock(emb_size, expansion=forward_expansion, drop_p=forward_drop_p),nn.Dropout(drop_p))))
#Encoder层由depth个Encode模块组成
class Gen_TransformerEncoder(nn.Sequential):def __init__(self, depth=8, **kwargs):super().__init__(*[Gen_TransformerEncoderBlock(**kwargs) for _ in range(depth)])    

 辨器中的Transformer的Encoder模块(与生成器中的一样)

class Dis_TransformerEncoderBlock(nn.Sequential):def __init__(self,emb_size=100,num_heads=5,drop_p=0.,forward_expansion=4,forward_drop_p=0.):super().__init__(ResidualAdd(nn.Sequential(nn.LayerNorm(emb_size),MultiHeadAttention(emb_size, num_heads, drop_p),nn.Dropout(drop_p))),ResidualAdd(nn.Sequential(nn.LayerNorm(emb_size),FeedForwardBlock(emb_size, expansion=forward_expansion, drop_p=forward_drop_p),nn.Dropout(drop_p))))class Dis_TransformerEncoder(nn.Sequential):def __init__(self, depth=8, **kwargs):super().__init__(*[Dis_TransformerEncoderBlock(**kwargs) for _ in range(depth)])

多头注意力模块

多头注意力就是在多个不同的投影空间中建立不同的投影信息,将输入矩阵,进行不同的投影,得到许多输出矩阵后,将其拼接在一起。
可以看出V K Q 是固定的单个值,而Linear层有3个,Scaled Dot-Product Attention 有3个,即3个多头;最后cancat在一起,然后Linear层转换变成一个和单头一样的输出值。

5b81248909484db18cef3a4de2eda54b.png

class MultiHeadAttention(nn.Module):def __init__(self, emb_size, num_heads, dropout):super().__init__()self.emb_size = emb_sizeself.num_heads = num_headsself.keys = nn.Linear(emb_size, emb_size)self.queries = nn.Linear(emb_size, emb_size)self.values = nn.Linear(emb_size, emb_size)self.att_drop = nn.Dropout(dropout)self.projection = nn.Linear(emb_size, emb_size)def forward(self, x: Tensor, mask: Tensor = None) -> Tensor:queries = rearrange(self.queries(x), "b n (h d) -> b h n d", h=self.num_heads)keys = rearrange(self.keys(x), "b n (h d) -> b h n d", h=self.num_heads)values = rearrange(self.values(x), "b n (h d) -> b h n d", h=self.num_heads)# batch, num_heads, query_len, key_lenenergy = torch.einsum('bhqd, bhkd -> bhqk', queries, keys)  if mask is not None:fill_value = torch.finfo(torch.float32).minenergy.mask_fill(~mask, fill_value)#缩放1/2scaling = self.emb_size ** (1 / 2)#softmaxatt = F.softmax(energy / scaling, dim=-1)att = self.att_drop(att)out = torch.einsum('bhal, bhlv -> bhav ', att, values)out = rearrange(out, "b h n d -> b n (h d)")out = self.projection(out)return out

 分类模块

class ClassificationHead(nn.Sequential):#类别数为2,编码大小为100def __init__(self, emb_size=100, n_classes=2):super().__init__()self.clshead = nn.Sequential(Reduce('b n e -> b e', reduction='mean'),#规范层nn.LayerNorm(emb_size),#线性层nn.Linear(emb_size, n_classes))def forward(self, x):#多层感知机聚类头(CLSHead),预测样本属于某一类的概率out = self.clshead(x)return out

编码器

class PatchEmbedding_Linear(nn.Module):#设置参数def __init__(self, in_channels = 21, patch_size = 16, emb_size = 100, seq_length = 1024):# self.patch_size = patch_sizesuper().__init__()#在此处更改conv2d参数self.projection = nn.Sequential(Rearrange('b c (h s1) (w s2) -> b (h w) (s1 s2 c)',s1 = 1, s2 = patch_size),nn.Linear(patch_size*in_channels, emb_size))self.cls_token = nn.Parameter(torch.randn(1, 1, emb_size))self.positions = nn.Parameter(torch.randn((seq_length // patch_size) + 1, emb_size))def forward(self, x: Tensor) -> Tensor:b, _, _, _ = x.shapex = self.projection(x)cls_tokens = repeat(self.cls_token, '() n e -> b n e', b=b)#将cls标记前置到输入x = torch.cat([cls_tokens, x], dim=1)#加上位置编码x += self.positionsreturn x        

辨别器

包括三个模块:编码模块、transformer的encode模块、分类器模块

class Discriminator(nn.Sequential):def __init__(self, in_channels=3,patch_size=15,emb_size=50, seq_length = 150,depth=3, n_classes=1, **kwargs):super().__init__(PatchEmbedding_Linear(in_channels, patch_size, emb_size, seq_length),Dis_TransformerEncoder(depth, emb_size=emb_size, drop_p=0.5, forward_drop_p=0.5, **kwargs),ClassificationHead(emb_size, n_classes))

原始GAN的缺陷

JS divergence不适合GAN优化

在原始GAN优化过程中,鉴别器D的优化就是在求  eq?P_Geq?P_%7Bdata%7D的JS散度,而生成器G的优化就是在缩小 eq?P_Geq?P_%7Bdata%7D的JS散度。而使用JS散度优化存在两个问题:

  1. JS散度只有在随机生成分布与真实分布有不可忽略重叠的时候才不为0,生成器面临梯度消失问题。
  2. 最优判别器下等价于既要最小化生成分布与真实分布直接的KL散度,又要最大化其JS散度,相互矛盾,导致梯度不稳定;而且KL散度的不对称性使得生成器宁可丧失多样性也不愿丧失准确性,导致collapse mode现象。

JS散度只有在随机生成分布与真实分布有不可忽略重叠的时候才不为0,而eq?P_%7BG%7Deq?P_%7Bdata%7D有一个关键特性就是重叠部分非常少,有两个方面的原因(以生成图片为例):

  • 从数据本身特性来说,eq?P_%7BG%7Deq?P_%7Bdata%7D都是要产生图片,而图片就是在高维空间中一条低维的流行,以二维空间为例,那么图片的分布就是一条直线,因此重叠几乎可以忽略。
  • 在计算Divergence的时候是不看eq?P_%7BG%7Deq?P_%7Bdata%7D的分布,而是通过sample出来的图片计算,因此就算eq?P_%7BG%7Deq?P_%7Bdata%7D有重叠的部分,如果sample的点不够多,Discriminator也很难发现有重叠,可能刚好就画了一条线将两者分布区分开来。

c5fc858e666d4691945542f72bad3c8c.png

原始GAN中存在的两个问题

第一个问题:判别器越好,生成器梯度消失越严重

在最优辨别器的条件下(即固定辨别器),原始GAN生成器的优化(loss)等价变换为最小化真实分布eq?P_%7Bdata%7D与生成分布eq?P_G之间的JS散度。因此我们会希望如果两个分布之间越接近它们的JS散度越小,我们通过优化JS散度就能将eq?P_G “拉向” eq?P_%7Bdata%7D。但只有在两个分布有所重叠的时候是成立的,如果两个分布完全没有重叠的部分,或者它们重叠的部分可忽略(下面解释什么叫可忽略),JS divergence特性就是两个分布没有重叠,那么算出来的divergence永远都是log2,这导致 Generator 无法知道训练是否带来结果的提升,训练学不到东西,因此导致梯度消失。
 

第二个问题:优化的另一种形式的生成器loss函数,等价于最小化一个不合理的距离衡量,既要最小化生成分布与真实分布直接的KL散度,又要最大化其JS散度,相互矛盾,导致两个问题,一是梯度不稳定,二是collapse mode即多样性不足。

一个要拉近,一个却要推远!在数值上则会导致梯度不稳定,这是JS散度项的问题。。

上面式子中的KL散度也有问题,KL散度不是一个对称的衡量

5545f0875ed5447fb1595e4b7007e673.png

第一种错误对应的是“生成器没能生成真实的样本”,惩罚微小;第二种错误对应的是“生成器生成了不真实的样本” ,惩罚巨大。第一种错误对应的是缺乏多样性,第二种错误对应的是缺乏准确性。这一放一打之下,生成器宁可多生成一些重复但是很“安全”的样本,也不愿意去生成多样性的样本。这种现象就是大家常说的

GAN的改进

除了 JS divergence,还可以使用其它的 divergence,即设置discriminator不一样的目标函数。Wasserstein距离相比KL散度、JS散度的优越性在于,即便两个分布没有重叠,Wasserstein距离仍然能够反映它们的远近。

Wasserstein distance

Wasserstein distance就是将P推着移动到Q的平均距离,如何推动使得平均距离最小,这个最小的距离值就是Wasserstein distance。

2d28567765ac4d8087990e4f5a738754.png

从JS divergence换到Wasserstein distance的好处:

假设可以计算Wasserstein distance的值,当使用Wasserstein distance来衡量divergence的时候,从eq?P_%7BG%7D移动到eq?P_%7Bdata%7D的距离d是很遥远的,想要”一步到位“是很难的,对于JS divergence而言,只有”一步到位“它的loss才会有差异,但是对于Wasserstein distance而言,需要步步递进,每次移动一点Wasserstein distance就会有变化,Wasserstein distance变化就可以训练Generator,去Minimize W distance。

WGAN 

用Wasserstein distance代替JS divergence的GAN 就叫做WGAN

Wasserstein distance的计算公式如下:

9eb2799eb91f43e78dedfbbe1e38dd45.png

在WGAN中,对判别器D做出了限制,D必须满足1-lipschitz的条件,也可以理解为D必须是一个足够平滑的Function。

eq?P_%7BG%7Deq?P_%7Bdata%7D没有重叠的时候,但两者相距很近的时候,要在eq?P_%7Bdata%7D上得分很高,就会取到正无穷,在eq?P_%7BG%7D取得分低就会到负无穷,那这个function的变化就会很大,D的训练就没办法收敛,因此在两组数据没有重叠的情况下,算出来的max值就会无限大。

c90ef59f9c0b493399812759b0089c9a.png

Q:为什么加上这个限制就可以解决无限大的问题?

A:这个限制是要求Discriminator不可以变化剧烈要平滑, 因此在两组数据挨得很近的时候,在平滑的限制下,real上的值不会非常大,generated上的值也不会特别小,因此计算得到的值就会比较小,这样的值才是Wasserstein distance。

WGAN中让判别器满足1-lipschitz的条件的方法其实相对较为简单,训练network的时候,更新参数后将权重w限制在c到-c之间,如下图所示:

7e72040e7ec8439181af44f1421c171b.png

WGAN与原始GAN第一种形式相比,只改了四点:

  1. 判别器最后一层去掉sigmoid(原始GAN是二分类任务,WGAN中判别器fw做的是近似拟合Wasserstein距离,属于回归任务,所以要把最后一层的sigmoid拿掉。)
  2. 生成器和判别器的loss不取log
  3. 每次更新判别器的参数之后把它们的参数w绝对值截断到不超过一个固定常数c

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/800878.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

7.1.4 Selenium 爬取京东商品信息实战

目录 1、实战内容 2、思路 3、分析 url 4、开始操作 1、得到 Cookies 2、访问页面,得到 response 3、解析页面 4、存入 MySQL 5、1-3步总代码 1、实战内容 爬取京东笔记本电脑商品的信息(如:价格、商品名、评论数量),存入 MySQL 中…

11-新热文章-实时计算

热点文章-实时计算 1 今日内容 1.1 定时计算与实时计算 1.2 今日内容 kafkaStream 什么是流式计算 kafkaStream概述 kafkaStream入门案例 Springboot集成kafkaStream 实时计算 用户行为发送消息 kafkaStream聚合处理消息 更新文章行为数量 替换热点文章数据 2 实时…

能源照明运作机制与智能调控技术实现途径

随着城市化进程的加速,智慧城市已成为现代城市发展的重要方向。能源照明作为城市基础设施的重要组成部分,其运作机制与智能调控技术的实现对于提高城市能源利用效率、促进可持续发展具有重要意义。 能源照明是一个涵盖广泛、错综复杂的领域,它…

Redis中的集群(一)

集群 概述 Redis集群是Redis提供的分布式数据库方案,集群通过分片(sharding)来进行数据共享,并提供复制和故障转移功能 节点 一个Redis集群通常由多个节点(node)组成,在刚开始的时候,每个节点都是相互独立的,它们都…

【优选算法专栏】专题十六:BFS解决最短路问题(二)

本专栏内容为:算法学习专栏,分为优选算法专栏,贪心算法专栏,动态规划专栏以及递归,搜索与回溯算法专栏四部分。 通过本专栏的深入学习,你可以了解并掌握算法。 💓博主csdn个人主页:小…

奇函数+(-)偶函数一定是非奇非偶函数?

今天遇到个有意思的题,跟大家分享一下,可能有的人不太了解: 首先说下结论:这题选D选项,以上均有可能; 开始证明: 非奇非偶函数的充要条件: 定义域是(一a,a)(a>0)或(一 oo,oo)的…

【Linux】软硬链接 / 动静态库

目录 一. 软硬链接1. 硬链接2. 软链接3. unlink4. 目录的硬链接 二. 动静态库1.1 静态库制作1.2 静态库使用2.1 动态库制作2.2 动态库使用3. 动态链接原理 一. 软硬链接 1. 硬链接 硬链接(hard link) 可以将它理解为原始文件的别名, 和原始文件使用相同的 inode 编号和 data …

Mysql底层原理七:InnoDB 行记录

1.行格式 1.1 Compact行格式 1.1.1 示意图 1.1.2 准备一下 1)建表 mysql> CREATE TABLE record_format_demo (-> c1 VARCHAR(10),-> c2 VARCHAR(10) NOT NULL,-> c3 CHAR(10),-> c4 VARCHAR(10)-> ) CHARSETascii ROW_FORMATCOM…

Blender怎么样启动默认移动和Cavity效果

在使用Blender的过程中,有一些特殊的技巧很重要。 比如默认地设置blender打开时,就是移动物体,这样怎么样设置的呢? 需要在界面里打开下面的菜单: 这样就找到默认设置的地方,把下面的移动勾选起来,这样点…

3.C++ Make

1.Makefile 1.1 什么是 Makefile 一个工程中有很多文件,文件之间都是相辅相成有着编译的先后顺序,但是如果自己手动根据编译顺序编译文件造成速度非常慢。Makefile 是”自动化编译“,只需一个 make 指令系统就会根据编译顺序帮自己编译文件…

Java-Tomcat

一、web补充技术 ①:B/S架构 主流的方式,只要有浏览器即可。编程方式直接基于socket即可 ②:javascript 简称js,早期只是实现在客户端的浏览器的动态效果,但服务端不会解释运行,所以本质上是静态资源。 …

UE4_动画基础_角色的缩放

以第三人称模板进行制作。 一、首先为角色缩放新建粒子效果 1、新建niagara system,重命名为NS_Shrink。 2、双击打开设置参数: 发射器重命名: Emitter State: 发射器一次喷发数量: 粒子初始大小,生命周…

Go协程池gopool源码解析

1、gopool简介 Repository:https://github.com/bytedance/gopkg/tree/develop/util/gopool gopool is a high-performance goroutine pool which aims to reuse goroutines and limit the number of goroutines. It is an alternative to the go keyword. gopool的…

【Linux进阶之路】地址篇

文章目录 一、ipv4地址1. 基本概念2. 分类3.CIDR4.特殊的ip地址 二、IP协议1. 协议字段2.分片与重组3.路由 三、NAT技术1.公有和私有2.NAT3.NAPT 四、ARP协议1.MAC地址2.ARP 五、DHCP协议六、DNS协议尾序 一、ipv4地址 1. 基本概念 概念:IP地址,英文全…

从零自制docker-8-【构建实现run命令的容器】

文章目录 log "github.com/sirupsen/logrus"args...go moduleimport第三方包失败package和 go import的导入go build . 和go runcli库log.SetFormatter(&log.JSONFormatter{})error和nil的关系cmd.Wait()和cmd.Start()arg……context.Args().Get(0)syscall.Exec和…

【Leetcode每日一题】 递归 - 验证二叉搜索树(难度⭐⭐)(53)

1. 题目解析 题目链接:98. 验证二叉搜索树 这个问题的理解其实相当简单,只需看一下示例,基本就能明白其含义了。 2.算法原理 中序遍历是二叉树遍历中的一种重要方式,它按照左子树、根节点、右子树的顺序访问每个节点。这种方式…

2024mathorcup妈妈杯数学建模A题思路模型

2024mathorcup妈妈杯数学建模A题思路模型:比赛开始后第一时间更新,更新见文末名片,下面对2022年B题进行介绍: 2022Mathorcup B题题目介绍 ​ B题无人仓的搬运机器人调度问题本题考在无人仓内的仓库管理问题之一,搬运机…

机场数据治理系列介绍(5)民用机场智慧能源系统评价体系设计

目录 一、背景 二、体系设计 1、评价体系设计维度 2、评价体系相关约定 3、评价指标体系框架设计 4、能源利用评价指标 5、环境友好评价指标 6、智慧管控评价指标 7、安全保障评价指标 三、具体落地措施 一、背景 在“双碳”国策之下,各类机场将能源系统建…

深入解析template,掌握C++模板的精髓!

掌握C模板(template)的优雅之道! 一、什么是模板?二、模板如何工作?三、C 中的模板类型3.1、 类模板3.2、 函数模板 四、模板参数推导4.1、模板参数推导示例4.2、函数模板参数推导4.3、类模板参数推导(C17 …

2024年MathorCup妈妈杯数学建模思路C题思路解析+参考成品

1 赛题思路 (赛题出来以后第一时间在群内分享,点击下方群名片即可加群) 2 比赛日期和时间 报名截止时间:2024年4月11日(周四)12:00 比赛开始时间:2024年4月12日(周五)8:00 比赛结束时间&…