本文共 901 字,大约阅读时间需要 3 分钟。
近日,研究人员提出了一个全新的姿态稳健型可感知空间式生成对抗网络(PSGAN),能够有效地实现不同来源图像之间的妆容迁移。该模型不仅支持逐部分迁移,还能控制妆容的浓浅程度,并且能够稳健地处理不同姿态和表情的差异。
传统的妆容迁移方法主要基于CycleGAN,通过训练源图像和参照图像的分离任务来实现妆容迁移。然而,这些方法在处理不同姿态和表情时效果并不理想,同时难以实现部分化妆和插值迁移。此外,现有的方法通常缺乏针对感知空间特征提取的机制,限制了模型的实际应用价值。
PSGAN的核心创新在于其三个模块的设计:①妆容提炼网络(MDNet)用于从参照图像中提取具有空间维度的妆容矩阵;②注意式妆容变形(AMM)模块通过计算源图像的注意图,使提取的矩阵适应目标图像的姿态和表情差异;③卸妆-再化妆网络(DRNet)结合MDNet的输出,实现了精准的妆容迁移。这种设计使得模型能够在感知空间中灵活地控制妆容的迁移效果。
实验结果表明,PSGAN在MT数据集上的表现优于现有的方法,如BGAN、CycleGAN和DIA。在定量评估中,研究者发现PSGAN生成图像的视觉质量显著高于传统方法。在定性用户研究中,研究人员测试了不同模型生成的妆容迁移效果,结果显示PSGAN的迁移图像更符合人类审美需求。
值得注意的是,PSGAN在测试时配备了一个专门的MT-wild测试集,该集包含具有不同姿态和表情的图像。实验结果证明了模型在处理这些复杂场景的优势。
此外,PSGAN支持部分化妆和插值迁移。通过人脸解析,研究者能够根据需求选择不同部分的妆容迁移,并通过权重系数实现对浓浅程度的控制。这一功能使得模型能够在实际应用中提供高度定制化的妆容迁移选项,而无需依赖单一的参照图像。
衍生地,研究者还实现了两张参照图像之间的妆容风格插值。通过平滑过渡的方法,模型能够将不同参照图像的妆容风格结合,生成自然且连贯的迁移结果。这一功能在个性化妆容设计中具有重要意义。
综上所述,PSGAN不仅在技术上实现了重要突破,更为各种实际场景中的妆容迁移应用提供了可靠解决方案。其创新性设计和灵活性使其成为妆容迁移领域的重要研究方向。
转载地址:http://wefsz.baihongyu.com/