面部疼痛

首页 » 常识 » 问答 » TPAMI基于视频的面部微表情分
TUhjnbcbe - 2021/7/11 2:51:00

点击上方“计算机视觉life”,选择“星标”

快速获得最新干货

作者丨孙国荃转载自极市平台,文章仅作为学术交流,已获得授权。

微表情不同于传统的面部表情,它是一种自发的、短暂的面部表情,能够揭示人们试图隐藏的真实情感。因此,微表情可以对诸多应用提供重要的信息,例如:测谎,刑事侦查等。微表情的短暂的和低强度等特点导致微表情的检测和识别非常困难,并且严重依赖于专家经验。由于微表情内在的特殊性和复杂性,基于视频的微表情分析是极具挑战性的研究领域。现有的微表情数据库大多数在诱发范式、标记方法或数据量小等方面存在不足;微表情研究领域尚没有一个全面的综述为研究者提供系统的概述和统一的评价。针对这些问题,山东大学贲晛烨教授团队联合清华大学刘永进教授团队、复旦大学张*平教授团队、中科院心理所王甦菁教授团队、哈尔滨工业大学孟维晓教授团队等,在IEEETransactionsonPatternAnalysisandMachineIntelligence上发表的论文《Video-basedFacialMicro-ExpressionAnalysis:ASurveyofDatasets,FeaturesandAlgorithms》,同时发布了一个新的数据集——微-宏表情仓库(MMEW),并从神经心理学、现有的数据集、用于微表情分析的各种特征、相关算法等各个方面进行了全面的分析和讨论。

1.贡献:

(1)我们提供了一个全面的综述,重点聚焦在微表情检测和识别相关的计算算法,以及用于构建自动检测与识别系统的图像和视频特征。本文还对最新的微表情数据集进行了详细的总结,在此基础上,对具有代表性的微表情识别方法进行了统一的公平比较。

(2)基于对现有数据集研究的局限性,我们提出并发布了一个新的数据集,称为微表情-宏表情仓库(Micro-and-macroexpressionwarehouse,MMEW),它包含从同一个体采集的宏表情和微表情。这个数据库可以启发未来的研究,探索同一个体的宏表情和微表情之间的关系。

2.MMEW数据集

MMEW遵循SMIC、CASME、CASMEII、SAMM和CAS(ME)2诱发范式,即一边观看情感视频,一边试图保持中立的表情。相对于目前最先进的CASMEII数据集,MMEW的主要优势如下:MMEW中的样本具有较大的图像分辨率(x像素),而CASMEII的分辨率是x像素。此外,MMEW具有较大的面部分辨率(x像素),而CASMEII的面部尺寸只有x像素。

MMEW和CASMEII的微表情样本数分别为和。MMEW的情感分类更精细,即高兴(36),愤怒(8),惊讶(89),厌恶(72),恐惧(16),悲伤(13)和其他(66);相比之下,CASMEII不包括愤怒、恐惧和悲伤等类别,并且CASMEII中的其他类别占66/=41.3%。

MMEW包含个宏表情样本,与MMEW里的微表情样本集具有相同的类别(高兴,愤怒,惊讶,厌恶,恐惧,悲伤),由同一组参与者表演产生。与最先进的SAMM相比,MMEW包含更多样本(vs.)。此外,MMEW包含同一受试者的宏表情和微表情,这一个特点还开辟了新的研究方向,即使用来自自己数据集的宏表情数据做有益于微表情识别的迁移学习,而不是寻找其他数据集。

图1在MMEW数据集中从同一个体采集的六个宏表情和六个微表情。宏表情(如图3a)可以是单张图像的,而微表情由于它的低强度特点,分析微表情需要利用整个序列,如图3b所示每个微表情给出了起始帧、高潮帧和结束帧,红色方框中勾勒出的肌肉微变化的位置。3.手工特征在MMEW和SAMM数据集上被试独立的性能比较

我们在数据集MMEW和SAMM上评估了代表性的手工特征的性能,包括LBP-TOP、DCP-TOP、LHWPTOP、RHWP-TOP、LBP-SIP、LBP-MOP、STLBP-IP、DiSTLBPRIP、FDM、MDMO和稀疏MDMO。同时,分类器选择了KNN、SVM(RBF核)和ELM,五折被试独立的实验结果如下表所示。

表1手工特征在MMEW和SAMM数据集上被试独立的性能比较

从实验结果可以看出,一般来说,MDMO和稀疏MDMO使用SVM或者ELM分类器具有较好的识别率,但ELM的性能相对不稳定。分析原因如下:MDMO和稀疏MDMO都是基于光流特征提取的,都利用局部统计运动和空间运动定位信息,获得的光流场对光照不敏感条件和头部移动,因此,MDMO和稀疏MDMO相对于其他手工特征获得了更好的识别效果。

4.SOTA方法在MMEW和SAMM数据集上被试独立的性能比较

我们在数据集MMEW和SAMM上评估了SOTA方法的性能,包括深度学习方法、多任务中级特征学习(multitaskmid-levelfeaturelearning)和KGSL。表2总结了五折被试独立的比较结果。从表2中可以看出,TLCNN获得了最好的识别性能(在MMEW上为69.4%,在SAMM上为73.5%)。这是由于(1)使用宏表情样本进行预训练,(2)使用微表情样本进行微调,解决了微表情样本数量不足的问题,此外,还利用LSTM从微表情样本序列中提取出了具有鉴别能力的动态特征。

我们还在图2中给出了混淆矩阵,可以看出:在MMEW中,所有的“厌恶”和“惊讶”样本都可以完全被识别;而“恐惧”和“悲伤”样本很难训练,这是因为大约五分之四的恐惧(16)和悲伤(13)的MMEW样本用于微调(括号中的数字表示每类的样本数),用于微调的样本太少。类似的情况也发生在SAMM中,恐惧和悲伤的样本总数分别为7和3,因此,“恐惧”和“悲伤”的分类结果更容易不一致(图4b)。

表2SOTA方法在MMEW和SAMM数据集上被试独立的性能比较图2TLCNN在MMEW和SAMM上的混淆矩阵结果。5.研究团队或实验室介绍

贲晛烨教授团队在IEEET-PAMI、IEEET-IP、IEEET-CSVT、IEEET-MM、PR、CVPR等国内外核心期刊会议上发表学术论文96篇,1篇入选ESI高被引论文,被评为年《中国图象图形学报》新媒体高

1
查看完整版本: TPAMI基于视频的面部微表情分