AI练就火眼金睛:看步态就能识别情绪,准确率高达80.07%!

Published by
谈谈INVEST - 创业新媒体

其实,每个人的走路方式都各有不同,却在不经意间泄露有关你的秘密,比如你每时每刻的情绪。举例来说,当你感到压抑或沮丧时,你更有可能耷拉着肩膀,而不是昂首阔步地走路。

近日,查珀尔希尔大学(University of Chapel Hill)和马里兰大学(University of Maryland)的研究人员们研发了一种机器学习方法,利用人们步行时的身体语言,解读他们的情绪。

该算法是目前第一个利用最先进的3D人体姿态估计技术,来识别步行视频中目标情绪的方法,它能够从人的步态中识别他们的感知情绪(perceived emotion)、效价(valence)和唤醒(arousal),准确率达80.07%。

这一研究成果已于美国时间2019年6月14日发表在arXiv平台上,论文名为《利用情感和深层特征识别行走中的情绪(Identifying Emotions from Walking using Affective and Deep Features)》。

研究人员写道:“情绪在我们的生活中扮演着重要的角色,定义着我们的经历,塑造着我们看待世界和与他人互动的方式。由于感知情感在日常生活中的重要性,自动情感识别在许多领域都是一个关键问题,比如游戏和娱乐、安全和执法、购物以及人机交互等。”

研究人员选择了四种情绪——快乐、悲伤、愤怒和中性,以此作为测试步态分析算法的例证。然后,他们从多个步行视频语料库中提取步态来识别情感特征,并使用三维姿态估计技术提取姿态。

这些3D姿态会被传输到能够学习长期相关性的长短期记忆模型(LSTM)网络中,研究人员将利用这一网络从姿态序列中获取特征,并使用多个步态数据集来训练这个LSTM网络。

研究人员还将经过计算的情感特征与深层特征连接起来,并与随机分类器相结合,将提取的步态例子分到上述四种情绪类别中。

机器算法在识别步态的过程中,头部倾斜的角度被用来区分人们快乐和悲伤的情绪,而更紧凑的姿势和“身体扩张”则分别能识别人们的积极和消极情绪。

科学家们研究中发现,唤醒往往与人们增加的运动相对应。因此,研发人员在利用长短期记忆模型时,还考虑了人们步行速度、加速度,以及手、脚和头部关节“运动抖动”的大小。

在人工智能系统处理方面,研究人员提供了一个叫“情绪行走”(Emotion Walk,简称EWalk)的样本。同时,大约700名来自亚马逊土耳其机器人公司的参与测试,在测试中,该研究团队情绪检测方法的准确率高达80.07%!

尽管该方法的准确率还存在一定的限制,但研究团队依然相信,他们的机器学习方法能为涉及其他活动,以及其他情绪识别算法的研究提供了可靠的技术基础。研究人员也将继续收集更多的数据集,进一步解决目前该机器学习方法所受到的限制。

0
0
0
0
0

Copy Link: