脸部图像操纵方法,尽管计算机图形中具有许多有益的应用,但也可以通过影响个人的隐私或传播令人讨厌来提高担忧。在这项工作中,我们提出了一个主动的防御,以防止脸部操纵在第一处发生。为此,我们介绍了一种新的数据驱动方法,它产生嵌入在原始图像中的图像特定的扰动。关键的想法是,这些受保护的图像通过使操纵模型产生预定义的操纵目标(在我们的情况下均匀彩色的输出图像)而不是实际操作来防止面部操纵。与传统的逆势攻击相比,为单独优化每个图像的噪声模式,我们的广义模型只需要一个前向通过,从而运行幅度的序列更快并允许在图像处理堆栈中轻松集成,即使在智能手机等资源受限的设备上也可以轻松集成。此外,我们建议利用可分解的压缩近似,因此使产生的扰动鲁棒到常见的图像压缩。我们进一步表明,产生的扰动可以同时防止多种操纵方法。
translated by 谷歌翻译