研究人员指出大脑识别面部表情的一部分
新机器学习算法可以识别面部表情一个人看——基于神经活动
俄亥俄州立大学的研究人员发现大脑的区域负责识别人类的面部表情。
右边的耳朵,背后的大脑区域被称为后颞上沟(pst)。
在发表的一篇论文神经科学杂志》上,研究人员报告说,他们利用功能性磁共振成像(fMRI)来确定一个地区的pst的大脑激活当测试对象看图片的人做出不同的面部表情。
此外,研究人员发现,神经模式在pst是专门用于识别运动的特定部分的脸。一个模式是用来探测紧锁眉头,另一个是用来探测的好转的嘴唇微笑,等等。
”这表明,我们的大脑解码面部表情通过添加组关键肌肉运动的人我们看,“Aleix马丁内斯说,认知科学家和俄亥俄州立大学电气和计算机工程教授。
马丁内斯说,他和他的团队可以创建一个使用这个大脑活动的机器学习算法来识别面部表情一个人看什么完全基于功能磁共振成像信号。
fMRI显示活动后颞上沟(pst)地区的大脑测试主题识别面部表情。礼貌:俄亥俄州立大学
“人类使用大量的面部表情来传达情感,其他非语言交流信号和语言,”马丁内兹说。
“但是,当我们看到有人做鬼脸,我们立即意识到这,似乎没有意识。在计算方面,面部表情可以编码信息,我们一直想知道大脑是如何能够有效地解码这个信息。
“现在我们知道大脑的一小部分致力于这项任务。”
了解更多:罕见的面瘫给研究人员社会互动的新见解
使用这个功能磁共振成像数据,研究人员开发了一种新的机器学习算法,约有60%的成功率解码人类面部表情,不管人的面部表情和无论观看它。
“这是一个非常强大的开发,因为它表明,面部表情非常相似的编码你的大脑和我的大脑最别人的大脑,”马丁内兹说。
这项研究并没有说任何关于人表现出典型的神经功能,但它能给研究人员的新见解,研究合作者朱莉Golomb说,心理学助理教授和主任愿景和俄亥俄州立大学的认知神经科学实验室。
“这项工作可能有各种各样的应用程序,不仅帮助我们理解大脑如何处理面部表情,但最终这个过程如何在自闭症患者可能不同,例如,”她说。
博士生Ramprakash的Srinivasan做过,Golomb和马丁内斯放置10大学生为fMRI机器,向他们展示超过1000人的面部表情的照片。表达式与七种不同的情感类别:恶心,又惊又喜,高兴地厌恶,愤怒地惊讶,非常地惊讶,可悲的是恐惧和非常地恶心。
虽然一些表达式是积极和其他消极,他们都有一些共同点。例如,“又惊又喜”,“愤怒惊讶”和“非常地惊讶”都包括了眉毛,虽然其他地区的脸当我们表达这三个不同的情绪。
fMRI检测大脑的血流量增加,所以研究小组能够获得的图像的一部分大脑被激活时,学生认识不同的表情。不管表达他们看,所有的学生在同一区域,pst的活动就会增加。
的研究小组用计算机交叉引用的功能磁共振成像图像不同的面部肌肉运动测试照片所示。他们可以创建一个激活的区域地图在pst不同面部肌肉群,比如眉毛和嘴唇的肌肉。
不要错过:面部运动的线索在自闭症成年人社会交往困难
首先,他们构建地图使用fmri的9的参与者。然后,他们喂算法功能磁共振成像图像从第十届学生,并要求它识别学生的表情。然后他们重复这个实验,从头创建地图与数据从九个学生,但是使用不同的学生第十。
大约60%的时间,该算法能够准确地确定第十人的面部表情看,仅仅根据这个人的功能磁共振成像图像。
马丁内斯称结果“非常积极的”,并说他们表明算法是大踏步走向的理解发生在大脑的这个区域。