我们展示了基本的头部动作单位被称为行为分析的Kinemes,以预测人格和面试特征。将头部运动模式转换为一系列型术语有助于发现表征目标性状的潜在时间签名,从而实现有效和可说明的特征预测。利用Kinemes和面部动作编码系统(FACS)特征来预测(a)在第一次印象上的海洋人格性状候选筛选视频中,(b)在MIT数据集上的面试特征,我们注意到:(1)长期用Kineme序列训练的内存(LSTM)网络表现优于或类似于用面部图像培训的卷积神经网络(CNN);(2)与Kinemes组合的FACS动作单位(AUS)组合实现了精确的预测和解释,并且(3)预测性能受到朝向头部和面部运动的时间长度的影响。
translated by 谷歌翻译
这项工作对最近的努力进行了系统的综述(自2010年以来),旨在自动分析面对面共同关联的人类社交互动中显示的非语言提示。专注于非语言提示的主要原因是,这些是社会和心理现象的物理,可检测到的痕迹。因此,检测和理解非语言提示至少在一定程度上意味着检测和理解社会和心理现象。所涵盖的主题分为三个:a)建模社会特征,例如领导力,主导,人格特质,b)社会角色认可和社会关系检测以及c)群体凝聚力,同情,rapport和so的互动动态分析向前。我们针对共同的相互作用,其中相互作用的人永远是人类。该调查涵盖了各种各样的环境和场景,包括独立的互动,会议,室内和室外社交交流,二元对话以及人群动态。对于他们每个人,调查都考虑了非语言提示分析的三个主要要素,即数据,传感方法和计算方法。目的是突出显示过去十年的主要进步,指出现有的限制并概述未来的方向。
translated by 谷歌翻译
In education and intervention programs, user engagement has been identified as a major factor in successful program completion. Automatic measurement of user engagement provides helpful information for instructors to meet program objectives and individualize program delivery. In this paper, we present a novel approach for video-based engagement measurement in virtual learning programs. We propose to use affect states, continuous values of valence and arousal extracted from consecutive video frames, along with a new latent affective feature vector and behavioral features for engagement measurement. Deep-learning sequential models are trained and validated on the extracted frame-level features. In addition, due to the fact that engagement is an ordinal variable, we develop the ordinal versions of the above models in order to address the problem of engagement measurement as an ordinal classification problem. We evaluated the performance of the proposed method on the only two publicly available video engagement measurement datasets, DAiSEE and EmotiW-EW, containing videos of students in online learning programs. Our experiments show a state-of-the-art engagement level classification accuracy of 67.4% on the DAiSEE dataset, and a regression mean squared error of 0.0508 on the EmotiW-EW dataset. Our ablation study shows the effectiveness of incorporating affect states and ordinality of engagement in engagement measurement.
translated by 谷歌翻译
识别面部视频的连续情绪和动作单元(AU)强度需要对表达动态的空间和时间理解。现有作品主要依赖2D面的外观来提取这种动态。这项工作着重于基于参数3D面向形状模型的有希望的替代方案,该模型解散了不同的变异因素,包括表达诱导的形状变化。我们旨在了解与最先进的2D外观模型相比,在估计价值和AU强度方面表现性3D面部形状如何。我们基准了四个最近的3D面对准模型:Expnet,3DDFA-V2,DECA和EMOCA。在价值估计中,3D面模型的表达特征始终超过以前的作品,并在SEWA和AVEC 2019 CES CORPORA上的平均一致性相关性分别为.739和.574。我们还研究了BP4D和DISFA数据集的AU强度估计的3D面形状如何执行,并报告说3D脸部功能在AUS 4、6、10、12和25中与2D外观特征相当,但没有整个集合。 aus。为了理解这种差异,我们在价值和AUS之间进行了对应分析,该分析指出,准确的价值预测可能仅需要少数AU的知识。
translated by 谷歌翻译
人格决定其日常生活和工作行为的各个方面。由于人格特征随着时间的流逝而相对稳定,并且对于每个主题而言是独一无二的,因此以前的方法经常从单一框架或短期行为推断性格。此外,他们中的大多数人未能专门提取特定于人格的人格认可。在本文中,我们提出了一种基于视频的新型自动人格特质识别方法,该方法包括:(1)A \ TextBf {域特异性面部行为模型}模块,该模块提取了与人格相关的多规模短期人类面部行为特征; (2)a \ textbf {长期行为建模}模块,该模块总结了视频的所有短期特征作为长期/视频级别的个性表示,并且(3)a \ textbf {多任务个性人格特征预测模块}该模型在所有特征之间的基本关系中,并根据视频级别的个性表示共同预测它们。我们在Chalearn First Ampression数据集上进行了实验,我们的方法与最先进的结果相当。重要的是,我们表明所有三个提议的模块都为人格认可带来了重要的好处。
translated by 谷歌翻译
动物运动跟踪和姿势识别的进步一直是动物行为研究的游戏规则改变者。最近,越来越多的作品比跟踪“更深”,并解决了对动物内部状态(例如情绪和痛苦)的自动认识,目的是改善动物福利,这使得这是对该领域进行系统化的及时时刻。本文对基于计算机的识别情感状态和动物的疼痛的研究进行了全面调查,并涉及面部行为和身体行为分析。我们总结了迄今为止在这个主题中所付出的努力 - 对它们进行分类,从不同的维度进行分类,突出挑战和研究差距,并提供最佳实践建议,以推进该领域以及一些未来的研究方向。
translated by 谷歌翻译
骨科疾病在马匹中常见,通常导致安乐死,这通常可以通过早期的检测来避免。这些条件通常会产生不同程度的微妙长期疼痛。培训视觉疼痛识别方法具有描绘这种疼痛的视频数据是挑战性的,因为所产生的疼痛行为也是微妙的,稀疏出现,变得不同,使得甚至是专家兰德尔的挑战,为数据提供准确的地面真实性。我们表明,一款专业培训的模型,仅涉及急性实验疼痛的马匹(标签不那么暧昧)可以帮助识别更微妙的骨科疼痛显示。此外,我们提出了一个问题的人类专家基线,以及对各种领域转移方法的广泛实证研究以及由疼痛识别方法检测到矫形数据集的清洁实验疼痛中的疼痛识别方法检测到的内容。最后,这伴随着围绕现实世界动物行为数据集所带来的挑战以及如何为类似的细粒度行动识别任务建立最佳实践的讨论。我们的代码可在https://github.com/sofiabroome/painface-recognition获得。
translated by 谷歌翻译
Studying facial expressions is a notoriously difficult endeavor. Recent advances in the field of affective computing have yielded impressive progress in automatically detecting facial expressions from pictures and videos. However, much of this work has yet to be widely disseminated in social science domains such as psychology. Current state of the art models require considerable domain expertise that is not traditionally incorporated into social science training programs. Furthermore, there is a notable absence of user-friendly and open-source software that provides a comprehensive set of tools and functions that support facial expression research. In this paper, we introduce Py-Feat, an open-source Python toolbox that provides support for detecting, preprocessing, analyzing, and visualizing facial expression data. Py-Feat makes it easy for domain experts to disseminate and benchmark computer vision models and also for end users to quickly process, analyze, and visualize face expression data. We hope this platform will facilitate increased use of facial expression data in human behavior research.
translated by 谷歌翻译
肢体语言是一种引人注目的社交信号,其自动分析可以大大提高人工智能系统,以理解和积极参与社交互动。尽管计算机视觉在诸如头部和身体姿势估计之类的低级任务中取得了令人印象深刻的进步,但探索诸如示意,修饰或摸索之类的更微妙行为的发现尚未得到很好的探索。在本文中,我们介绍了BBSI,这是复杂的身体行为的第一组注释,嵌入了小组环境中的连续社交互动中。根据心理学的先前工作,我们在MpiigroupContraction数据集中手动注释了26个小时的自发人类行为,并具有15种不同的肢体语言类别。我们介绍了所得数据集的全面描述性统计数据以及注释质量评估的结果。为了自动检测这些行为,我们适应了金字塔扩张的注意网络(PDAN),这是一种最新的人类动作检测方法。我们使用四个空间特征的四种变体作为PDAN的输入进行实验:两流膨胀的3D CNN,颞段网络,时间移位模块和SWIN变压器。结果是有希望的,这表明了这项艰巨的任务改进的好空间。 BBSI代表了自动理解社会行为的难题中的关键作品,研究界完全可以使用。
translated by 谷歌翻译
愤怒等负面情绪的写照可以在文化和背景之间广泛变化,这取决于表达全面情绪的可接受性而不是抑制保持和谐。大多数情绪数据集收集了广泛的标签`“愤怒”下的数据,但社会信号可以从生气,轻蔑,愤怒,愤怒,仇恨等的范围内。在这项工作中,我们策划了第一个野外的多元文化视频情绪数据集,并通过询问文化流利的注释器来标记具有6个标签和13个Emojis的视频,深入了解愤怒相关的情感表达式。我们在我们的数据集中提供基准多标签分类器,并显示如何EMOJIS可以有效地用作注释的语言无话可测工具。
translated by 谷歌翻译
意识检测技术一直在各种企业中获得牵引力;最常用于驾驶员疲劳检测,最近的研究已经转向使用计算机视觉技术来分析在线教室等环境中的用户注意。本文旨在通过分析预测意识和疲劳的最大贡献,扩展了以前的分支检测研究。我们利用开源面部分析工具包OpenFace,以分析不同程度的注意力水平的受试者的视觉数据。然后,使用支持向量机(SVM),我们创建了几种用于用户注意的预测模型,并识别导向渐变(HOG)和动作单位的直方图,是我们测试的功能的最大预测因子。我们还将这种SVM的性能与利用卷积和/或经常性神经网络(CNN和CRNN)的性能进行了比较了这种SVM的性能。有趣的是,CRNN似乎没有比他们的CNN同行更好地表现出来。虽然深入学习方法实现了更大的预测精度,但使用较少的资源,使用某些参数来利用SVMS,能够逼近深度学习方法的性能。
translated by 谷歌翻译
早期发现焦虑症对于减少精神障碍患者的苦难并改善治疗结果至关重要。基于MHealth平台的焦虑筛查在提高筛选效率和降低筛查成本方面具有特殊实用价值。实际上,受试者的身体和心理评估中移动设备的差异以及数据质量不均匀的问题和现实世界中数据的少量数据量使现有方法无效。因此,我们提出了一个基于时空特征融合的框架,用于非触发焦虑。为了降低数据质量不平衡的影响,我们构建了一个基于“ 3DCNN+LSTM”的特征提取网络,并融合了面部行为和非接触式生理学的时空特征。此外,我们设计了一种相似性评估策略,以解决较小的数据样本量导致模型准确性下降的问题。我们的框架已通过现实世界中的机组数据集进行了验证,并且两个公共数据集UBFC-Phys和Swell-KW。实验结果表明,我们框架的总体性能要比最新的比较方法更好。
translated by 谷歌翻译
基于视频的自动抑郁分析提供了一种快速,客观和可重复的自我评估解决方案,近年来已被广泛发展。虽然抑郁线索可能被各个时间尺度的人类面部行为反映,但大多数现有方法都集中在短期或视频级面部行为中的模拟抑郁症。从这个意义上讲,我们提出了一个两级框架,模拟了从多尺度短期和视频级面部行为模拟了抑郁严重程度。短期抑郁行为建模阶段首先学习来自多个短时间尺度的抑郁相关的面部行为特征,其中提出了一种凹陷特征增强(DFE)模块来增强所有时间尺度的抑郁相关线索并去除非抑郁症噪音。然后,视频级抑郁行为建模阶段提出了两个新颖的曲线图编码策略,即顺序图形表示(SEG)和频谱图表示(SPG),以将目标视频的所有短期特征重新编码为视频 - 级别图形表示,总结抑郁相关的多尺度视频级时间信息。结果,所产生的图表表示使用短期和长期面部Beahviour模式预测抑郁严重程度。 AVEC 2013和AVEC 2014数据集上的实验结果表明,所提出的DFE模块不断增强各种CNN模型的抑郁严重性估计性能,而SPG优于其他视频级建模方法。更重要的是,与拟议的两级框架实现的结果表明,与广泛使用的单阶段建模方法相比,其有前景和坚实的性能。
translated by 谷歌翻译
检测欺骗社会行为的自动化系统可以增强人类跨越医疗,社会工作和法律域名。标记为培训的数据集可以为现实世界,高赌注的背景感染培训监督欺骗检测模型。为了解决这一挑战,我们提出了第一种无监督的方法来检测现实世界,高赌注欺骗的视频,而无需标签。本文提出了我们对感知无监督无监督的深度信仰网络(DBN)的新方法,以学习欺骗性和真实行为的歧视。绘制心理学理论,链接影响和欺骗,我们试验在面部价,面部震荡,音频和视觉特征上培训的单峰和基于多峰的DBN方法。除了使用面部影响作为培训DBN模型的功能之外,我们还介绍了使用面部影响作为视听表示的对齐器的DBN培训过程。我们对无监督高斯混合模型聚类进行了分类实验,以评估我们的方法。我们最好的无人监督方法(对面部价和视觉特征培训)实现了80%,表现优于80%,表现相当于完全监督的模型。我们的成绩激发了未来的无监督,影响野外欺骗和其他社会行为的计算方法。
translated by 谷歌翻译
微表达(MES)是非自愿的面部运动,揭示了人们在高利害情况下隐藏的感受,并对医疗,国家安全,审讯和许多人机交互系统具有实际重要性。早期的MER方法主要基于传统的外观和几何特征。最近,随着各种领域的深度学习(DL)的成功,神经网络已得到MER的兴趣。不同于宏观表达,MES是自发的,微妙的,快速的面部运动,导致数据收集困难,因此具有小规模的数据集。由于上述我的角色,基于DL的MER变得挑战。迄今为止,已提出各种DL方法来解决我的问题并提高MER表现。在本调查中,我们对深度微表达识别(MER)进行了全面的审查,包括数据集,深度MER管道和最具影响力方法的基准标记。本调查定义了该领域的新分类法,包括基于DL的MER的所有方面。对于每个方面,总结和讨论了基本方法和高级发展。此外,我们得出了坚固的深层MER系统设计的剩余挑战和潜在方向。据我们所知,这是对深度MEL方法的第一次调查,该调查可以作为未来MER研究的参考点。
translated by 谷歌翻译
在今天的数字错误信息的时代,我们越来越受到视频伪造技术构成的新威胁。这种伪造的范围从Deepfakes(例如,复杂的AI媒体合成方法)的经济饼(例如,精致的AI媒体合成方法)从真实视频中无法区分。为了解决这一挑战,我们提出了一种多模态语义法医法,可以发现超出视觉质量差异的线索,从而处理更简单的便宜赌注和视觉上有说服力的德国。在这项工作中,我们的目标是验证视频中看到的据称人士确实是通过检测他们的面部运动与他们所说的词语之间的异常对应。我们利用归因的想法,以了解特定于人的生物识别模式,将给定发言者与他人区分开来。我们使用可解释的行动单位(AUS)来捕捉一个人的面部和头部运动,而不是深入的CNN视觉功能,我们是第一个使用字样的面部运动分析。与现有的人特定的方法不同,我们的方法也有效地对抗专注于唇部操纵的攻击。我们进一步展示了我们的方法在培训中没有看到的一系列假装的效率,包括未经视频操纵的培训,这在事先工作中没有解决。
translated by 谷歌翻译
在我们的多元文化世界中,支持人类的情感意识AI系统需要能够感知各种文化情绪表达模式变化的影响的能力。这些模型必须在未经培训的文化背景下表现良好。情感计算中的一个标准假设是,在同一文化中受过训练和使用的识别模型(文化内部)的表现将比在一种文化中训练并用于不同文化(跨文化)的模型更好。我们测试了这一假设,并使用来自六种文化的现实世界二元相互作用的视频进行了对跨文化影响识别模型的首次系统研究。我们在时间因果发现下开发了一种基于注意力的特征选择方法,以识别可以在跨文化情感识别模型中利用的行为线索。在所有六种文化中,我们的发现表明,跨文化影响识别模型比内文化模型更有效或更有效。我们确定并为跨文化情感识别而做出有用的行为特征;在本研究的背景下,视觉方式的面部特征比音频方式更有用。我们的论文介绍了跨文化影响识别系统未来发展的概念和动机。
translated by 谷歌翻译
无意识和自发的,微小表达在一个人的真实情绪的推动中是有用的,即使尝试隐藏它们。由于它们短的持续时间和低强度,对微表达的识别是情感计算中的艰巨任务。基于手工制作的时空特征的早期工作最近被不同的深度学习方法取代了现在竞争最先进的性能。然而,捕获本地和全球时空模式的问题仍然挑战。为此,本文我们提出了一种新颖的时空变压器架构 - 据我们所知,是微表达识别的第一种纯粹变压器的方法(即任何卷积网络使用的方法)。该架构包括用于学习空间模式的空间编码器,用于时间维度分析的时间聚合器和分类头。三种广泛使用的自发性微表达数据集,即Smic-HS,Casme II和SAMM的综合评估表明,该方法始终如一地优于现有技术,是发表在微表达上发表文献中的第一个框架在任何上述数据集上识别以实现未加权的F1分数大于0.9。
translated by 谷歌翻译
Recent studies have found that pain in infancy has a significant impact on infant development, including psychological problems, possible brain injury, and pain sensitivity in adulthood. However, due to the lack of specialists and the fact that infants are unable to express verbally their experience of pain, it is difficult to assess infant pain. Most existing infant pain assessment systems directly apply adult methods to infants ignoring the differences between infant expressions and adult expressions. Meanwhile, as the study of facial action coding system continues to advance, the use of action units (AUs) opens up new possibilities for expression recognition and pain assessment. In this paper, a novel AuE-IPA method is proposed for assessing infant pain by leveraging different engagement levels of AUs. First, different engagement levels of AUs in infant pain are revealed, by analyzing the class activation map of an end-to-end pain assessment model. The intensities of top-engaged AUs are then used in a regression model for achieving automatic infant pain assessment. The model proposed is trained and experimented on YouTube Immunization dataset, YouTube Blood Test dataset, and iCOPEVid dataset. The experimental results show that our AuE-IPA method is more applicable to infants and possesses stronger generalization ability than end-to-end assessment model and the classic PSPI metric.
translated by 谷歌翻译
传统上,将情感建模视为映射可测量的影响表现的过程,这些过程来自用户输入的多种方式,以影响标签。该映射通常是通过机器学习过程来推断的。如果相反,一个人训练一般的主题不变表示,考虑影响信息,然后使用此类表示形式来建模?在本文中,我们假设影响标签构成了情感表示形式的组成部分,而不仅仅是训练信号,我们探讨了如何采用对比度学习的最新范式来发现目的的一般高级感动式的表示形式建模影响。我们介绍了三种不同的监督对比学习方法,用于考虑影响信息的培训表示。在这项最初的研究中,我们根据来自多种模式的用户信息来测试Recola数据集中唤醒预测的建议方法。结果证明了对比度学习的表示能力及其在提高情感模型准确性方面的效率。除了与端到端的唤醒分类相比,其证据更高的性能之外,最终的表示是通用和主题不合时式的,因为训练受到了任何多模式语料库可用的一般影响信息的指导。
translated by 谷歌翻译