与人类相互作用的机器人和人造代理应该能够在没有偏见和不平等的情况下这样做,但是众所周知,面部感知系统对某些人来说比其他人的工作更差。在我们的工作中,我们旨在建立一个可以以更透明和包容的方式感知人类的系统。具体而言,我们专注于对人脸的动态表达,由于隐私问题以及面部本质上可识别的事实,这很难为广泛的人收集。此外,从互联网收集的数据集不一定代表一般人群。我们通过提供SIM2REAL方法来解决这个问题,在该方法中,我们使用一套3D模拟的人类模型,使我们能够创建一个可审核的合成数据集覆盖1)在六种基本情绪之外,代表性不足的面部表情(例如混乱); 2)种族或性别少数群体; 3)机器人可能在现实世界中遇到人类的广泛视角。通过增强包含包含4536个样本的合成数据集的123个样本的小型动态情感表达数据集,我们在自己的数据集上的准确性提高了15%,与外部基准数据集的11%相比,我们的精度为11%,与同一模型体系结构的性能相比没有合成训练数据。我们还表明,当体系结构的特征提取权重从头开始训练时,这一额外的步骤专门针对种族少数群体的准确性。
translated by 谷歌翻译