来自美国的科学家最近开发了一套深度学习模型,可以根据人类行走的步态判断情绪状态:开心、难过、生气或者正常。 来自美国的科学家最近开发了一套深度学习模型,可以根据人类行走的步态判断情绪状态:开心、难过、生气或者正常。人类情绪可以影响人类表情,声音,这也是当下情绪识别工具主要针对的特征。 但是发布在预印本上的研究却选取了人类步态作为分析特征。该方法结合了机器算法和心理学研究方法,需要将人类行走影像转化成3D模型,这些3D姿态会被传输到能够学习长期相关性的长短期记忆模型(LSTM)网络中。 研究人员将利用这一网络从姿态序列中获取特征,并使用多个步态数据集来训练这个LSTM网络。 同时,研究人员还将经过计算的情感特征与深层特征连接起来,并与随机森林分类器(Random Forest Classifier)相结合,输出多个独立决策树的平均预测,将提取的步态例子分到上述四种情绪类别中。 多种步态识别特征 研究人员获取的步态特征包括了人们的肩膀姿势、连续步伐之间的距离,以及手和脖子之间的区域。 在身体语言方面,人们的步行方式常常会受到情绪的影响,例如,当人感到压抑或沮丧时,会比满足时更耸拉着肩膀。 而机器算法在识别步态的过程中,头部倾斜的角度被用来区分人们快乐和悲伤的情绪,而更紧凑的姿势和“身体扩张”则分别能识别人们的积极和消极情绪。 而科学家们发现,唤醒往往与人们增加的运动相对应。因此,研发人员在利用长短期记忆模型时,还考虑了人们步行速度、加速度,以及手、脚和头部关节“运动抖动”的大小。 让机器算法学习和记忆不同步态下对应的表情。该算法预测准确率达到80%,比现有基于行走的情绪预测算法准确率提升了14%。 |