• • 下一篇
崔选1,2,刘波1,2
摘要: 基于生成对抗网(GANs)潜空间的无监督人脸属性编辑方法具有效率高、无需标注数据的优点,但这些方法在解耦性和可控性方面仍面临挑战,如在操控特定人脸属性时,可能会引起其他属性的意外变化,从而影响编辑效果;另外,还难以精确控制所编辑人脸属性的变化程度。针对基于GANs潜空间的无监督人脸属性编辑方法中在操控特定人脸属性时,可能会引起其他属性的意外变化等属性耦合问题,提出基于自编码器的无监督人脸属性编辑(AUFAE)方法。该方法通过在潜空间中学习有效的语义向量,实现对人脸属性的精准编辑。具体地,设计动态卷积自编码器网络(DCAE-Net)作为主干网络,该网络的编码器部分采用动态卷积(DyConv)的方式动态提取潜空间的局部特征,从而学习具有局部特性的语义向量;在解码器部分则融入通道注意力(CA)机制建立通道间的非线性依赖关系,使模型能够自主地聚焦不同语义相关的特征通道,有效促进语义向量的独立性学习。为了增强语义向量的解耦性和可控性,引入基于属性边界向量的损失函数训练DCAE-Net。此外,引入软正交损失确保语义向量之间相互独立,以进一步提升解耦性能。在3个预训练GAN生成模型上,AUFAE与3种主流的人脸属性编辑方法的对比实验结果表明,AUFAE与监督方法InterFaceGAN相比,学习感知图像块相似度(LPIPS)值平均减少了9%,结构相似性指数(SSIM)平均提升了7%;与无监督方法SDFlow相比,LPIPS值平均减少了5%,SSIM平均提升了5%;在直观视觉上,AUFAE在人脸属性编辑过程中也未出现属性耦合现象。以上结果说明AUFAE能够有效地缓解人脸编辑过程中的属性耦合问题,并实现更精确的人脸属性编辑。
中图分类号: