1. 简介
盲目的面部修复(Blind Face Restoration, BFR)是一个活跃的研究领域,它涉及到在没有任何先验信息的情况下改善低质量(Low Quality, LQ)图像的质量。这确实是一个具有挑战性的问题,因为模型需要能够处理多种未知的退化,例如模糊、噪声、压缩伪影等,这些退化可能在训练数据中并未全部出现。
在面部修复的上下文中,以下是一些常见的挑战和考虑因素:
(1). 未知退化:BFR的难点在于模型必须能够处理在训练期间未遇到的退化类型。这要求模型具有很好的泛化能力。
(2). 真实性与细节:在恢复面部图像时,保持图像的真实性和身份特征是非常重要的。一些模型可能倾向于产生过度平滑的结果,这会丢失重要的面部特征和细节。
(3). 对抗性训练:为了提高模型的泛化能力,研究人员可能会使用对抗性训练技术,通过让模型学习区分真实图像和修复图像之间的微妙差异来提高其性能。
(4). 多任务学习:模型可能需要同时学习执行多个任务,例如去噪、去模糊、颜色校正等,以更全面地理解和修复图像。
(5). 数据增强:为了使模型能够处理各种退化,可以使用数据增强技术来模拟不同的退化效果,并增加训练数据的多样性。
(6). 注意力机制:集成注意力机制可以帮助模型集中于图像中的关键特征,从而在保持面部特征的同时提高修复质量。
(7). 评估指标:评估BFR模型的性能可能很复杂,因为除了传统的图像质量指标外,还需要考虑面部特征的准确性和自然性。
(8). 用户交互:在某些情况下,可能需要用户交互来指导修复过程,例如,通过让用户确认某些特征是否被正确修复。
在本文中,我们提出了一种新的方法来恢复自然状态下的人脸图像(即经历了复杂的现实生活中的扭曲的图像)。具体来说,我们将深度神经网络(DNN)解码器与生成对抗网络(GAN)整合在一起,并对HQ人脸图像的生成进行了预训练。这个模型建立了一个新的BFR技术水平,能够恢复严重损坏的图像。
论文地址:https://arxiv.org/pdf/2105.06070.pdf
源码地址:https://github.com/yangxy/GPEN
2. GAN Prior Embedded Network (GPEN)
在盲目面部修复(BFR)领域,将低质量(LQ)图像恢复到高质量(HQ)图像面临诸多挑战。目前的方法尝试通过训练深度神经网络(DNNs)来实现从LQ图像集X到HQ图像集Y的映射。然而,这个过程存在一个关键问题:对于任何一个给定的LQ图像x,可能存在多种不同的HQ图像y。DNNs通常使用像素级损失函数进行训练,这导致生成的HQ图像y倾向于呈现目标面部的平均特征,造成面部细节的丢失和过度平滑。
为了解决这个问题,一种全新的超分辨率方法PULSE被提出。PULSE通过训练一个生成对抗网络(GAN)先验网络,并将其嵌入到DNN解码器中来生成HQ图像。在这个流程中,LQ图像首先通过CNN处理,映射到潜在空间Z中的潜在代码z。随后,这个潜在代码z被用于GAN来生成HQ图像。与传统方法不同,GAN在这里实现了一对一的映射,将特定的潜在代码z映射到一个确定的HQ图像。
值得注意的是,尽管PULSE方法提高了生成图像的质量和细节,但它并不支持从单个LQ图像生成多个可能的HQ图像。这种方法限制了生成图像的多样性,但有助于生成更加逼真和细节丰富的面部图像。接下来,PULSE的架构细节将进一步介绍,以展示其如何克服现有技术的局限性。
2.1 算法架构
GPEN模型的架构结构与UNET(c)相似,前半部分由DNN组成,后半部分由GAN组成。模型的前半部分由DNN组成,后半部分由GAN组成;与UNET一样,前半部分每个块的特征图作为后半部分相应GAN块的输入。 在结合两者之前,GANs被单独预训练以生成HQ人脸图像。之后,这两个块被组合起来,并为BFR进行微调:一个GAN(a)由几个GAN块(b)组成,可以从任何流行的GAN(BigGAN、StyleGAN、PGGAN)中选择。在这里,我们使用StyleGAN-v2 GAN块,它在生成HQ图像方面更胜一筹:与StyleGAN一样,从DNN获得的潜在向量 "z "首先被转换为一个纠缠较少的空间 “W”,这个转换的向量 "w "被广播给每个GAN块。转换后的向量 "w "被广播给每个GAN块。在单独训练GAN的过程中,噪声也被广播到每个GAN块,并与特征图相结合。然后,这个噪声被组合模型中的DNN各自的特征图所取代。关于GANs的更多信息,请参见本文。
2.2 学习
GANs首先在一个与StyleGANs类似的设置中独立训练。然后将其纳入DNN并用于对抗性损失。LA,内容损失LC内容损失,特征匹配损失LF使用三个损失函数进行训练。敌方的损失由以下公式得出:
其中,D是判别器模型,G是发生器模型GPEN,X’是LQ图像,X是地面真相 总部图像,LC是的L1准则。识别图像和生成图像之间的L-2准则之和,LF是生成图像和原始图像的识别器特征图之间的L-2准则之和。
其中T是判别器中的中间层数量。这意味着,综合损失如下:
在所有的实验中,我们设定α=1,β=0.02。特征匹配损失使我们能够平衡对抗性损失并恢复更真实/详细的图像。
3. 实验
我们使用FFHQ数据集来训练我们的模型,该数据集包含超过70000张分辨率为1024x1024的HQ图像。使用相同的数据集,我们训练了一个GAN先验网络并对组合网络进行了微调。为了进行微调,LQ图像由FFHQ数据集组合而成;HQ图像被随机模糊、下采样和用高斯噪声压缩。在数学上,退化由以下模型表示:
I, k, nσ, Id分别是输入的人脸图像、模糊核、标准差为σ的高斯噪声和退化的图像。同样,⊗,↓s,JPEGq表示JPEG压缩的2维卷积,标准的s倍下采样器和质量系数q。编码器、解码器和鉴别器模型是用亚当的三种不同学习率来建模的lr编码 = 0.002; lr编码lr颓废lr弃权= 100:10:1是由
3.1 GPEN的变体比较
为了研究GPEN组件的重要性,我们在BFR上评估了GPEN的不同变体:GPEN-w/o-ft,一个不对嵌入式GAN进行微调的版本;GPEN-w/o-noise,一个在GAN块训练期间不向其添加噪声的版本;GPEN-noise-add,一个向GAN块添加噪声输入而不是串联的变体;以及GPEN-w/o-noise,一个向GAN块添加噪声输入而非串联的变体。GPEN-noise-add是一个变体,它将噪声输入添加到GAN块中,而不是串联起来。
上表显示了所有这些变体在FFHQ数据集中的PSNR、FID和LPIPS得分;很明显,GPEN模型的表现优于其变体。
3.2 与其他GANs的比较
大多数人脸修复GANs是为FSR任务设计的,即从LR图像生成HR图像。因此,我们将GPEN与其他最先进的GANs在FSR、合成BFR和野外BFR方面进行比较。
上表显示了FSR的结果,比较了为BFR设计的模型和专门为FSR设计的模型;LR图像是使用CelebA-HQ数据集生成的。可以看出,没有增加任何东西的双线性模型在PSNR指标上得分最高,说明PSNR不是FSR的合适指标;值得注意的是,GPEN在FID和LPIPS指标上优于其他模型。
上表显示了从CelebA-HQ数据集合成的LQ图像的BFR结果:与FSR一样,GPEN在FID和LPIPS指数上比其他模型高出很多。
为了确定GPEN的实际意义,我们从互联网上收集了1000张LQ人脸图像,并请志愿者评估GPEN和其他SOTA模型的结果以及重建图像的质量。结果表明,由GPEN重建的图像的感知质量要比其他SOTA方法好得多。让我们来看看一些样本图片。
因此,我们可以看到,其他方法的特点是我们一直在谈论的 “过度平滑图像”,并没有增加任何视觉细节。
在未来,作者希望扩展GPEN,以允许单个LQ图像的多个HQ输出。例如,他们设想使用一个额外的HQ脸部图像作为参考,这样GPEN可以为不同的参考图像产生不同的HQ输出。
4. 总结
正如论文所提到,当前的最先进(State of the Art, SOTA)模型在处理现实世界中的退化图像时仍存在局限,但论文提出的方法成功地克服了这些挑战。论文的方法不仅在实际应用中显示出了直接的效用,而且还具备了扩展到其他领域的潜力。
论文的工作不仅限于面部修复,还可以扩展到面部着色、面部绘画以及非面部图像的修复等任务。此外,GPEN(Guided Perception and Exploration Network)的设计允许它为单个低质量图像生成多个高质量的输出,这为创造性的应用和进一步的探索提供了可能。