漫画是一种人类面孔的艺术风格,吸引了娱乐业的相当大的关注。到目前为止,存在少数3D漫画生成方法,所有这些都需要一些漫画信息(例如,漫画素描或2D漫画)作为输入。然而,这种输入难以由非专业用户提供。在本文中,我们提出了一个端到端的深度神经网络模型,可直接从正常的2D脸照片产生高质量的3D漫画。我们系统最具挑战性的问题是面部照片的源域(以正常的2D面为特征)与3D漫画的目标域有很大差异(以3D夸大的面形状和纹理为特征)。为了解决这一挑战,我们:(1)建立一个大型数据集5,343个3D漫画网格,并使用它来建立3D漫画形状空间中的PCA模型; (2)从输入面照片重建正常的全3D头,并在3D漫画形状空间中使用其PCA表示来建立输入照片和3D漫画形状之间的对应关系; (3)提出了一种基于以前对讽刺的心理研究的新颖性状损失和新颖的漫画损失。实验包括新型两级用户学习,表明我们的系统可以直接从正常面部照片产生高质量的3D漫画。
translated by 谷歌翻译