论文解析八: GAN:Generative Adversarial Nets(生成对抗网络)

目录

    • 1.GAN:Generative Adversarial Nets(生成对抗网络)
    • 1、标题 + 作者
    • 2、摘要 Abstract
    • 3、导言 Introduction
      • GAN的介绍
    • 4、相关工作 Related work
    • 5、模型 Adversarial nets
      • 总结
    • 6.理论计算 Theoretical Results
      • 具体算法公式
      • 全局优化 Global Optimality of pg = pdata
      • 期望的计算如下图所示
    • 7.实验+总结
    • 8.评论
      • 写作
      • 对于GAN本身这个算法而言
      • 对于GAN本身这个算法而言

1.GAN:Generative Adversarial Nets(生成对抗网络)

1、标题 + 作者

机器学习中有两大类

  • 分辨模型:判断数据的类别或者预测实数值,一般我们就是这个
  • 生成模型(generative):生成数据

adversarial:对抗

Nets:networks

2、摘要 Abstract

文章提出了一个新的framework(framework通常是一个比较大的模型)用来估计生成模型,通过对抗的过程,同时会训练两个模型

  • **生成模型G:**用来抓取整个数据的分布(生成模型就是要对整个数据的分布进行建模,使得能够生成各种分布,这里的分布就是指的生成图片、文字或者电影等,在统计学中,整个世界是通过采样不同的分布来得到的,所以如果想要生成东西,就应该抓取整个数据的分布)
  • **辨别模型D:**用来估计样本到底是从真正的数据生成出来的还是来自生成模型生成出来的。
  • 生成模型尽量想让辨别模型犯错(生成模型一般是尽量使数据分布接近,但是这个地方有所不同,它是想让辨别模型犯错)

这个framework对应的是minmax two-player game(博弈论中一个很有名的两人对抗游戏)

在任何函数空间的 G 和 D 中存在一个独一无二的解( G 能够将数据的真实分布找出来,如果已经把真实数据发掘出来的,辨别模型 D 就做不了什么事情了),如果 G 和 D 是MLP的话,那么整个系统就可以通过误差的反向传播来进行训练

不需要使用任何马尔科夫链或着说对一个近似的推理过程展开,相比其他方法更加简单,而且实验效果非常好

3、导言 Introduction

深度学习是用来发现一些丰富的有层次的模型,这些模型能够对AI中各种应用的各种数据做概率分布的表示

  • 深度学习不仅仅是深度神经网络,更多的是对整个数据分布的特征表示,深度神经网络只是其中的一个手段

虽然深度学习在辨别模型上取得了很大进展,但是在生成模型上做的还是比较差(难点在于在最大化似然函数的时候要对概率分布进行很多近似,这个近似的计算比较困难)

深度学习在生成模型上进展不大,是因为要去近似概率分布分布来计算似然函数,这篇文章的关键是不用近似似然函数而可以用别的方法来得到一个计算上更好的模型

GAN的介绍

GAN本身是一个较大的框架,它并不限制生成器和判别器的具体结构。通常,生成器和判别器可以是任何类型的神经网络,包括卷积神经网络(CNN)、递归神经网络(RNN)等。但是最开始GAN这篇论文使用MLP来构建模型,这个框架中有两类模型

  • **生成模型:**类似于造假的人,他的目的是去生产假币
  • **辨别模型:**类似于警察,他的任务是将假币找出来,和真币区分开开来

造假者和警察会不断地学习,造假者会提升自己的造假技能,警察会提升自己判别真币和假币的性能,最终希望造假者能够赢得这场博弈,也就是说警察无法区分真币和假币,这时就能生成跟真实一样的数据了

但是这GAN这篇文章的框架下面的生成模型是一个MLP,它的输入是一个随机的噪音,MLP能够把产生随机噪音的分布(通常是一个高斯分布)映射到任何想要拟合的分布中。同理,如果判别模型也是MLP的情况下,在这个框架下的特例叫做adversarial nets,因为两个模型都是基于MLP,所以在训练的时候可以直接通过误差的反向传递而不需要像使用马尔科夫链类似的算法来对一个分布进行复杂的采样,从而具有计算上的优势

4、相关工作 Related work

视频中所读的版本是GAN在neurips上的最终版本,它是一个比较新的版本

在搜索的时候可能会搜索到arxiv版本,它是一个比较早期的版本,作者没有将最新的版本上传到arxiv上面

以上两个版本的主要区别就是相关工作是不不一样的

  • arxiv版本上面相关工作的部分其实什么都没写,写的并不相关
  • neurips的版本上写了很多真正相关的工作

第一段

首先阐述了其他方法所存在的问题:之前的方法是想要构造出一个分布函数出来,然后提供一些参数让他可以学习,通过最大化这些参数的对数似然函数来做这样的坏处是采样一个分布的时候计算比较困难(尤其是维度比较高的时候)

因为这些方法计算比较困难,所以开展了generative machines的相关工作,不再去构造这样一个分布出来,而是去学习一个模型去近似这个分布,这两种方法是有区别的

  • 前一种方法明确知道分布是什么,包里面的均值、方差等
  • 后一种方法不用去构造分布,只需要一个模型去近似想要的结果就可以了,缺点是不知道最后具体的分布是什么样的,好处是计算起来比较容易

在这里插入图片描述

  • 上式中对 f 的期望求导等价于对 f 自身求导,这也是为什么可以通过误差的反向传递对GAN进行求解

(下面是一些不重要的)

VAEs跟GAN非常类似

通过一个辨别模型来帮助生成模型,比如说NCE也用了这样的思路,但是NCE相对来说损失函数更加复杂一点,在求解上没有GAN的性能那么好

和predictability minimization算法的区别

  • 其实GAN就是predictability minimization反过来

一个真实有用的技术会在不同的领域不断被人重新发现给予新的名词,大家通常会将功劳归功于那个教会了大家这个技术的人,而不是最早发明他的人

adversarial examples和GAN的区别

  • adversarial examples是说通过构造一些和真实样本很像的假样本,能够糊弄到分类器,从而测试整个算法的稳定性

5、模型 Adversarial nets

这个框架最简单的应用是当生成器和辨别器都是MLP的时候,生成器需要去学一个在数据x上的Pg分布,x中每个值的分布都是由pg这个分布来控制的

​ GAN主要应用在图片生成方面,使用图片生成打一个例子,假设你在玩游戏,你的显示器是4K的分辨率每秒钟能输出60张图片,我要学一个生成器,也能生成跟游戏一样的图片,那么这个数据x,就是我们每次在显示器里面看到的4K分辨率的图片(大概800万像素),具体来说每一个像素是一个随机变量,那么你这个x就是一个长800万维的一个多维随机变量,我们认为每一个像素的值,它都是由后面的一个分布来控制的这个就是Pg

生成模型如何输出x

  • 首先在一个输入分布为Pz的噪音变量 z, 在噪音变量上定义一个先验,z可以认为是一个100维的向量,每一元素是均值为0,方差为1的高斯噪音
  • 生成模型就是把z映射成x,生成模型是MLP,他有一个可以学习的参数 θg

回到这个游戏的图片

  • 第一种办法是反汇编游戏代码,然后利用代码就知道游戏是如何生成出来的,这就类似于构造分布函数的方法,在计算上比较困难
  • 第二种办法是不管游戏程序是什么,假设用一个若干维的向量就足以表达游戏背后隐藏的逻辑,再学一个映设(MLP,MLP理论上可以拟合任何一个函数,所以可以通过构造一个差不多大小的向量,然后利用MLP强行将z映射成x,使得他们相似就可以了),这种方法的好处是计算比较简单,坏处是MLP不在乎背后真正的分布是什么,而是只是每次生成一个东西,看起来相似就行了

辨别器D也是一个MLP,它也有自己可以学习的参数 θd ,它的作用是将数据放进来之后输出一个标量,这个标量用来判断x到底是来自真实采样的数据还是生成出来的图片(以游戏为例,就是这个图片到底是来自游戏中的截图,还是生成器自己生成的图片),因为知道数据的来源,所以会给数据一个标号(如果来自真实的数据就是1,来自生成的数据就是0)

所以就采样一些数据来训练一个两类的分类器

在训练D的同时也会去训练G,G用来最小化log(1-D(G(z)))

  • z 代表随机噪音,放到G中就会生成图片,假设辨别器正确的话,辨别器D(G(z))的输出应该为0,表示是生成的数据,log(1-D(G(z)))这个式子最终为log1等于0
  • 但是如果辨别器没有做好,会输出一个大于0的数,在极端情况下输出1,即辨别器百分之百地确信生成模型所生成的辨别器来自真实的数据,即判断错误。则无论无何log(1-一个大于零小于1 的数)的最终结果就会变成一个负数,在极端情况下D(G(z))为1,则log0是负无穷大
  • 所以如果要训练G来最小化log(1-D(G(z)))就意味着,训练一个G使得辨别器尽量犯错,无法区分出来数据到底是来自真实数据还是生成模型所生成的数据

总结

在这里插入图片描述

  • 目标函数如上图中公式所示,是一个两人的minimax游戏
  • V(G,D)是一个价值函数,它有两项,如下。
  • 公式右边第一项是期望,x是采样真实分布,就是游戏中间的截图,那么我们把x放到辨别器D中,假设我们的辨别其是完美的情况下,这一项是等于1,log完之后等于0
  • 公式右边第二项是期望,z是采样噪音分布,把噪音放到生气器中生成我们要的x,然后再放入D中,同样假设D是完美情况下,D(x)等于0,log(1-0)等于0
  • 在D是完美的情况下,公式右边的两项应该都是等于0的
  • 如果D不完美、有误分类的情况下,这两项因为log的关系,都会变成一个负数值
  • 所以如果想要辨别器完美地分类这两类的话,就应该最大化D的值,最小化G,目标函数中有两个东西,一个是min,一个是max,和一般的训练步骤有所区别,一般只有一个min,或者只有一个max,这里既有min又有max,就是两个模型在相互对抗:D是尽量把数据分开,G是尽量使生成数据分不开,这个在博弈论中叫两人的minimax游戏
  • 如果达到了一个均衡,就是D不能往前进步,G也不能往前进步了,就认为达到了均衡,这个均衡叫做纳什均衡

在上面的公式中,等式右边的第二项存在一定的问题:在早期的时候G比较弱,生成的数据跟真实的数据差得比较远,这就很容易将D训练的特别好(D能够完美地区分开生成的数据和真实的数据),就导致log(1-D(G(z)))会变成0,它变成0的话,对他求梯度再更新G的时候,就会发现求不动了。所以在这种情况下建议在更新G的时候将目标函数改成最大化log(D(G(z)))就跟第一项差不多了,这样的话就算D能够把两个东西区分开来,但是因为是最大化的话,问题还是不大的,但是这也会带来另外一个问题,如果D(G(z))等于零的话,log(D(G(z)))是负无穷大,也会带来数值上的问题,在之后的工作中会对其进行改进

6.理论计算 Theoretical Results

在这里插入图片描述

  • 上图中一共有四张图,分别表示GAN在前面三步和最后一步所做的工作
  • z是一个一维的噪音标量
  • x也是一个一维的真实标量
  • 噪音是均匀分布采样来的
  • 所以真实拟合的x如图中黑色圆点所示,是一个高斯分布,z是绿色线所示。
  • (a)表示第一步的时候,生成器将均匀分布进行映射,图中绿色的线就是把z映射成了一个高斯分布,此时辨别器视图中蓝色的线,表现一般
  • (b)表示更新辨别器,尽量把这两个东西分开,两个高斯分布的最高点表示真实分布和噪声最有可能出现的地方,辨别器需要在真实分布的地方值为1,在噪音分布的地方值为0,这样就可以尽量将来自真实分布的x和来自于生成器的x尽量分别开来
  • (c)表示尽量更新生成器,使得能够尽量糊弄到辨别器(就是将生成器生成的高斯分布的峰值尽量左移,向真实数据的高斯分布进行靠拢),让辨别器犯错,这时候辨别器就需要尽量调整来把这两个细微的区别区别开来。
  • (d)表示通过不断地调整生成器和辨别器,直到最后生成器的模型能够将来自均匀分布的随即噪音z映射成几乎跟真实分布差不多融合的高斯分布,即从真实的黑点中采样还是从生成器的绿线采样,辨别模型都是分辨不出来的(不管来自于哪个分布,辨别器对这每个值的输出都是0.5,这就是GAN最后想要的结果:生成器生成的数据和真实数据在分布上是完全分别不出来的,辨别器最后对此无能为力)

具体算法公式

在这里插入图片描述

  • 第一行是一个for循环,每一次循环里面是做一次迭代,迭代的部分也是一个k步的for循环,每一步中先采样m个噪音样本,再采样m个来自真实数据的样本,组成一个两个m大小的小批量,将其放入价值函数中求梯度(就是将采样的真实样本放入辨别器,将采样的噪音放进生成器得到的生成样本放进辨别器,放进去之后对辨别器的参数求梯度来更新辨别器(公式一)),这样子做k步,做完之后再采样m个噪音样本放进第二项中,把它对于生成器的模型的梯度算出来,然后对生成器进行更新(公式二),这样就完成了一次迭代
  • 每次迭代中,先更新辨别器,再更新生成器
  • k是一个超参数,k不能取太小,也不能取太大,需要辨别器有足够的更新但也不要更新的太好。如果没有足够好的更新,对新的数据,生成器生成的东西已经改变了,如果辨别器没有做相应的变化,那么再更新生成器来糊弄D其实意义不大;反过来讲如果将D训练到足够完美,log(1-D(G(z)))就会变成0,对0进行求导,生成模型的更新就会有困难(如果辨别器是警察,生成器是造假者,假设造假者一生产假币,警察就将其一锅端了,造假者也就不会赚到钱,就没有能力去改进之后的工艺了;反过来讲,如果警察没有能力,造假者随便造点东西,警察也看不出来,也抓不到造假者,那么造假者也不会有动力去改进工艺,使得假钞和真钞真的长得差不多,所以最好是两方实力相当,最后大家能够一起进步)
  • k就是一个超参数,使得D的更新和G的更新在进度上差不多
  • 外层循环迭代N次直到完成,如何判断是否收敛,这里有两项,一个是往上走(max),一个是往下走(min),有两个模型,所以如何判断收敛并不容易。整体来说,GAN的收敛是非常不稳定的,所之后有很多工作对其进行改进

全局优化 Global Optimality of pg = pdata

当且仅当生成器学到的分布和真实数据的分布式相等的情况下,目标函数有全局的最优解

算法一确实能够求解目标函数

第一个结论:当G是固定,即生成器是固定的情况下,最优的辨别器的计算如下图公式中所示
在这里插入图片描述

  • 表示最优解
  • Pdata表示将x放进去之后,在真实产生数据的分布中的概率是多少
  • Pg表示将x放进去之后,生成器所拟合的分布的概率是多少
  • 分布是在0和1之间的数值,所以上式中的每一项都是大于等于0、小于等于1的,因此上式中分子、分母中所有的项都是非负的,所以整个式子右式的值是在0到1之间的
  • 当Pdata和Pg是完全相等的情况下(即对每一个x,两个p给出来的结果是一样的),右式的值是1/2,即不管对什么样的x,最优的辨别器的输出概率都是1/2,表示这两个分布是完全分不开的
  • 这里可以看到D是如何训练出来的,从两个分布中分别采样出数据,用之前的目标函数训练一个二分类的分类器,这个分类器如果说给的值都是1/2,即什么值都分辨不出来,就表示这两个分布是重合的,否则的话就能够分辨出来,这个东西在统计学中非常有用,这叫做two sample test:判断两个数据是不是来自同一个分布在统计上其实有很多工具,比如说用T分布检测(在数据科学中经常使用,可以完全不管分布是什么样子的,可以无视在高维上很多统计工序不好用,就训练一个二分类的分类器,如果这个分类器能够分开这两个数据,就表示这两个数据是来自于不同分布,如果不能分开,就表示这个数据是来自同一分布的,这个技术在很多实用的技术中经常会用到它,比如说在一个训练集上训练一个模型然后把它部署到另外一个环境,然后看新的测试数据跟训练数据是不是一样的时候,就可以训练一个分类器把它分一下就行了,这样就可以避免训练一个模型部署到一个新的环境,然后新的环境和模型不匹配的问题)

期望的计算如下图所示

在这里插入图片描述

  • 等式右边第一项是在Pdata上面对函数求均值

  • 等式右边第二项是在Pz上面对函数求均值

  • 已知x=g(z),x是由g(z)生成出来的,假设Pg就是生成器对应的数据映射,就将g(z)替代成x,替代之后,右边第二项对z的概率求期望就变成了对x求期望,x的分布来自于生成器所对应的Pg。

  • 一旦完成替代之后,第一项和第二项是可以合并了,合并之后,积分里面的东西抽象出来经过替换变量就可以得到一个关于y的函数,如果y是一个值的话,它其实是一个凸函数,取决于a、b不一样,它的形状不一样。因为它是一个凸函数,所以他会有一个最大值,因为要求最大值,所以会求导,结果是y=a / (a+b),意味着对于任何的x,最优解的D对他的输出等于y等于Pdata(x)/(Pdata(x) + Pg(x)),就证明了之前的结论
    在这里插入图片描述

  • 将所求到的最优解代入到上图所示的价值函数中,最大化D,就是将D*直接代进去然后展开,就能得到如上图所示的结果,就能得到之前的结论,再把得到的结果写成一个关于G的函数,因为D已经求得最优解并带入了,所以整个式子就只跟G相关,所以将他记成C(G),到此对整个价值函数求解就只需要对C(G)进行最小化就行了,因为D的最优解已经算出来了

  • 定理一是说当且仅当生成器的分布和真实数据的分布是相等的情况下,C(G)取得全局最小值的时候

  • KL散度:用来衡量两个分布。如下图左侧红色公式所示,它表示的在知道p的情况下至少要多少个比特才能够将q描述出来
    在这里插入图片描述

  • 上式中最终结果中的两项实际上就是两个KL散度如下图中的公式所示
    在这里插入图片描述

  • KL散度一定是大于等于零的,KL要等于0,那么p和q要相等

  • 如果C(G)要取得最小值,所以需要两个KL散度等于零,又因为p=q,所以Pdata=(Pdata+Pg)/2,所以C(G)的最优解就等价于Pdata=Pg,这就证明了D在已经取得了最优解的情况下,如果想要对G取最优解的话一定是Pg=Pdata,具体来说,对于写成这种形式的两个分布又叫做JS散度

  • JS散度和KL散度的区别:JS散度是对称的,而KL不是对称的,不能将p和q进行互换,但是对于JS散度,将p和q进行互换也是可以保持不变的,所以说它是一个对称的散度,而KL是一个不对称的散度

  • 也有评论说因为GAN是一个对称的散度,所以使得它在训练上更加容易。但是也可以取一个更好的目标函数使得训练更加艰难

  • 到此就证明了目标函数的选择还是很不错的

结论二:是说算法一是能够优化目标函数的

当G和D有足够的容量的时候而且算法一允许在中间的每一步D是可以达到它的最优解的时候,如果对G的优化是去迭代下图所示的步骤(式中G已经换成最优解了),那么最后的Pg会收敛到Pdata
在这里插入图片描述

  • 将目标(价值函数)看成是一个关于Pg(模型或者分布)的函数,Pg其实是一个函数,那么目标函数就是一个关于函数的函数
  • 一个函数的输入可以是标量或者是向量
  • 这里目标函数是一个函数的函数:输入不再是一个值,而是一个值加上了计算(等于是说在python中写一个函数,本来是接收一个x,x是一个vector,然后现在需要接收一个clousure,clousure就包括了计算和数),之前是在高维的值的空间里面做迭代,现在需要在一个函数空间里面做梯度下降
  • Ex~Pg其实是关于Pg的一个很简单的函数,这个东西展开之后就是把Pg写出来,是一个积分,积分里面有一个Pg(x),后面一项跟Pg无关,所以他其实就是一个线性函数,而且是一个凸函数
  • 在每一步中把D求到最优,就是说一个凸函数的上限函数还是一个凸函数,所以这个凸函数做梯度下降的时候会得到一个最优解
  • 虽然假设了每一次会对D优化到极致,但实际上在算法上只是迭代了k步,所以说这个证明并不能说算法一是工作的,但是实际上算法一跑的还是挺好的(其实算法一跑的并不好,还是挺难收敛的,经常会出现各种问题)

7.实验+总结

下图是生成的一些图片
在这里插入图片描述
总结

  • 坏处是整个训练是比较难的,G和D需要比较好的均衡,如果没有均衡好的话会导致生成的图片比较差
  • 优势是因为生成器并没有看真正样本上的数据,没有试图去拟合真实数据的特征,使得它能够生成一些比较锐利的边缘,但是这个说法在后面发现并不是这样的
    未来的工作
  • conditional GAN:现在生成的时候是不受控制的,随便给定一个z,然后看最终出来的是什么东西,但最好是说控制一下去偏向所想要生成的东西

8.评论

写作

  • 总的来说,写作还是比较明确的,主要关注GAN在干什么
  • 摘要中主要讲述了GAN在干什么事情
  • intro非常短,首先写了一点故事性(为什么要做这个事情),然后接下来就是写GAN在干什么
  • 在相关工作中,虽然第一个版本写的比较糟糕,基本上就是在说与别人不一样,但是后来的版本也基本承认了很多想法前面的人工作都已经做过了(真正伟大的工作不在乎你的那些想法在别的地方已经出现过还是没有,关键是说你能够给大家展示用这个东西在某个应用上能够取得非常好的效果,能够让别人信服跟着你继续往下做,然后把整个领域做大,这个是伟大工作的前提)
  • 第三章讲的是GAN的目标函数以及如何做优化
  • 第四章证明了为什么目标函数能得到最优解以及求解算法在一定程度上能够得到最优解
  • 最后一章简单介绍了一些实验和未来的工作,这样的写法比较i清楚,想读的东西可以一路读下来

但是如果工作的开创性并不是很高的时候就一定要写清楚跟别人的区别是什么和贡献是什么

对于GAN本身这个算法而言

  • 它开创了一个领域
  • 从一般化的角度来及那个,它影响了之后的很多工作(不仅仅是关于GAN):
    • 1、他是无监督学习的,不需要使用标号;
      第三章讲的是GAN的目标函数以及如何做优化
  • 第四章证明了为什么目标函数能得到最优解以及求解算法在一定程度上能够得到最优解
  • 最后一章简单介绍了一些实验和未来的工作,这样的写法比较i清楚,想读的东西可以一路读下来

但是如果工作的开创性并不是很高的时候就一定要写清楚跟别人的区别是什么和贡献是什么

对于GAN本身这个算法而言

  • 它开创了一个领域
  • 从一般化的角度来及那个,它影响了之后的很多工作(不仅仅是关于GAN):
    • 1、他是无监督学习的,不需要使用标号;
    • 2、他用一个有监督学习的损失函数来做无监督学习的,他的标号(来自于采样的还是生成的)来自于数据,用了监督学习的损失函数,所以在训练上确实会高效很多,这也是之后自监督学习(比如说BERT)的灵感的来源

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/58296.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【32】C++流

目录 C流 读写文件:文件流 对文本文件流读写 写文本文件 读文本文件 对二进制文件流读写 写二进制文件 读二进制文件 对文件流按格式读写取数据 按指定格式写文件 按指定格式读文件 C流 IO: 向设备输入数据和输出数据 C的IO流 设备: 文件控制台特定的数…

21世纪20年代了, 居然遭遇扩容U盘!

扩容u盘前些年很泛滥, 所以也有针对扩容u盘的测试软件 h2testw h2testw的工作原理很简单, 就是往u盘里写文件,写满后再读取文件进行验证 如果没有h2test, 也可以往里面考大文件, 再拷贝出来, 不出错就表示…

Navicat导入Excel数据时数据被截断问题分析与解决方案

目录 前言1. 问题分析1.1 默认字段类型的影响1.2 MySQL诊断机制的限制 2. 解决方案2.1 修改字段长度2.2 修改Excel数据以影响推断2.3 检查导入工具的设置 3. 其他注意事项3.1 注册表的修改3.2 增加自增ID 4. 结语 前言 在数据库的日常操作中,将Excel数据导入MySQL是…

SQL Server 当前日期及其未来三天的日期

当前日期及其未来三天的日期,并分别以 YYYY-MM-DD 和 yyyyMMdd 的格式展示 1、当前日期及其未来三天的日期,以 YYYY-MM-DD的格式展示 WITH CurrentDate AS (SELECT GETDATE() AS 当前日期 ) -- 使用 CONVERT 函数 SELECTCONVERT(VARCHAR(10), 当前日期,…

Ubuntu22.04版本左右,扩充用户可使用内存

1 取得root权限后,输入命令 lsblk 查看所有磁盘和分区,找到想要替换用户可使用文件夹内存的磁盘和分区。若没有进行分区,并转为所需要的分区数据类型,先进行分区与格式化,过程自行查阅。 扩充替换过程,例如…

Springboot项目搭建的问题

1.第一次出现这个问题是在使用postgresql进行搭建项目的时候,但是配置文件中的驱动一致导入不了 最后发现是meaven中依赖导入不进来(不知道为什么),于是手动的在meaven中央仓库下载了对应的jar进行配置 然后项目可以正常启动 2.…

大模型系列——AlphaZero/强化学习/MCTS

AlphaGo Zero无需任何人类历史棋谱,仅使用深度强化学习,从零开始训练三天的成就已远远超过了人类数千年积累的围棋知识。 1、围棋知识 (1)如何简单理解围棋知识 (2)数子法分胜负:https://zhu…

w外链如何跳转微信小程序

要创建外链跳转微信小程序,主要有以下几种方法: 使用第三方工具生成跳转链接: 注册并登录第三方外链平台:例如 “W外链” 等工具。前往该平台的官方网站,使用手机号、邮箱等方式进行注册并登录账号。选择创建小程序外…

Jellycat玩偶界的天花板,如何用情绪营销征服成年人的心?

Jellycat的用户肯定对这个品牌有一定的了解,不知道的用户或许也看过这个很火的茄子表情包,这是Jellycat很火的一款玩偶“活泼茄子”。Jellycat,这个源自英国伦敦的高端玩具品牌,近年来在全球范围内迅速走红,摇身一变玩…

基于SSM土家风景文化管理系统的设计

管理员账户功能包括:系统首页,个人中心,用户管理,景点分类管理,热门景点管理,门票订单管理,旅游线路管理,系统管理 前提账号功能包括:系统首页,个人中心&…

搭建海外云服务器需要什么费用?

搭建海外云服务器需要什么费用?搭建海外云服务器的费用涉及多个方面,包括服务器实例费用、公网带宽费用、磁盘存储费用、操作系统费用和其他费用。具体费用取决于所选的云服务提供商、服务器配置、计费模式等因素。以下是UU云小编整理的一些主要的费用构…

IDEA->EasyCode(mapper.xml) 字段无逗号分隔和修改全局变量问题

1.mapperxml字段无逗号分隔 在easycode的设置里找到: 1、Template下的 mapper.xml.vm脚本 2、Global Config下的 mybatisSupport.vm脚本 将脚本里的 $velocityHasNext 替换成 $foreach.hasNext,然后保存。Mybatis-Plus框架操作一样 github->issue连…

Elastic Stack - FileBeat 入门浅体验

Filebeat 是 Elastic Stack 中的一个轻量级日志转发器,主要用于收集和转发日志数据。Filebeat 作为代理安装在您的服务器上,可以监控您指定的日志文件或位置,收集日志事件,并将其转发到 Elasticsearch 或 Logstash 进行索引。 一…

STM32--基于STM32F103C8T6的OV7670摄像头显示

本文介绍基于STM32F103C8T6实现的OV7670摄像头显示设计(完整资源及代码见文末链接) 一、简介 本文实现的功能:基于STM32F103C8T6实现的OV7670摄像头模组实时在2.2寸TFT彩屏上显示出来 所需硬件: STM32F103C8T6最小系统板、OV76…

C#与C++交互开发系列(十一):委托和函数指针传递

前言 在C#与C的互操作中,委托(delegate)和函数指针的传递是一个复杂但非常强大的功能。这可以实现从C回调C#方法,或者在C#中调用C函数指针的能力。无论是跨语言调用回调函数,还是在多线程、异步任务中使用委托&#x…

CloudStack云平台搭建:XenServer服务器系统安装

1.打开VMware虚拟机,点击“创建新的虚拟机” 2. 点击“自定义(高级)” → “下一步” 3. 点击“下一步” 4. 点击“稍后安装操作系统” → “下一步” 5. 选择“其他” → “其他64位” → “下一步” 6. 修改“虚拟机名称” 、“位置”&…

[linux]和windows间传输命令scp 执行WARNING: REMOTE HOST IDENTIFICATION HAS CHANGED!错误解决

[linux]和windows间传输命令scp 执行WARNING: REMOTE HOST IDENTIFICATION HAS CHANGED!错误解决. 现象: 原因: 接收方服务器系统做了某些更改,导致登录时会报错。主要因为接收方服务器对登录过它的主机都会把该主机登录标识证书记录下来&a…

.NET代码打包加密工具

下载地址: dotNet代码打包加密工具资源-CSDN文库

使用Node.js与Express构建RESTful API

💖 博客主页:瑕疵的CSDN主页 💻 Gitee主页:瑕疵的gitee主页 🚀 文章专栏:《热点资讯》 使用Node.js与Express构建RESTful API 1 引言 2 Node.js与Express简介 3 安装Node.js与Express 4 创建Express项目 5…

Server - 配置 HuggingFace 工程数据 Transformers-CLI 格式与 Huggingface-CLI 格式的差别

欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/141140498 免责声明:本文来源于个人知识与公开资料,仅用于学术交流,欢迎讨论,不支持转载。 Huggin…