登录会员系统  |  联系我们  |  加入学会  
学会动态
第64期CSIG云上微表情将于06月09日举行
发布时间:2025-06-04      来源:中国图象图形学学会      分享:

微表情是一种短暂的、微弱的、无意识的面部微表情,持续时间往往在0.5s内,能够揭示人类试图隐藏的真实情绪。微表情识别的研究旨在让机器有足够的智能,能够从人脸视频序列中识别人类的真实情绪。然而由于微表情持续时间短、面部肌肉运动强度低,对其进行准确的表征与识别是一项极具挑战性的任务。为了促进心理学领域和计算机视觉领域针对微表情的进一步研究,由中国图象图形学学会(CSIG)和中国科学院心理研究所举办、CSIG机器视觉专业委员会、CSIG情感计算与理解专业委员会和中科院青促会心理所小组联合承办,中国科学院心理研究所的王甦菁博士和李婧婷博士组织一系列云上微表情的学术活动。

第六十四期云上微表情将于2025年6月9日晚7点进行,由中国科学院心理研究所王甦菁老师团队的李婧婷博士主持。此次讲座主题为“微表情智能分析@ICASSP2025”,分别邀请来自莫纳什大学(马来西亚校区)的博士研究生陈佩诗、北京科技大学的硕士研究生郭子正、江西科技师范大学的硕士研究生常皓林、北京邮电大学的硕士研究生陈元、军事科学院的博士研究生马闯介绍ICASSP2025接受的微表情智能分析相关工作,欢迎大家关注!


1.png


直播平台

会议时间:2025年06月09日19:00-21:00

学会官方视频号:

欢迎关注CSIG官方视频号,观看直播

CSIG视频号二维码.jpg

学会B站直播间:

b站直播间二维码.png

腾讯会议:367-151-307

复制该信息,打开手机腾讯会议即可参与扫码入会

image.png


讲者简介

image.png

陈佩诗,莫纳什大学(马来西亚校区)在读博士生,师从Raphael Phan教授。主要研究方向为:微反应情感分析、视觉因果关系、可信任AI。

报告题目:抑制微表情泄露的物理对抗干预技术

报告摘要:在保障隐私方面,防止微表情泄露至关重要,因为这些细微的面部动作传达着真实的情绪,具有高度的个人敏感性。本研究旨在保护微表情数据免受潜在的对抗性攻击,确保个人隐私不被侵犯,并防止情绪信息被未经授权地访问或滥用。与传统方法相比,本研究提出了一种新颖的事后处理方法,无需额外的训练过程。我们专注于微表情识别中的物理对抗攻击,通过有意操控视觉线索来欺骗识别系统,以实现对个人情绪隐私的保护。该方法引入了因果发现算法,用于识别面部区域之间的因果关系,从而能够快速定位在微表情被触发时最适合放置对抗性贴纸的位置。与随机放置贴纸的方法相比,本方法在攻击成功率上表现更加稳定,并在不同情绪、贴纸样式和模型之间具有良好的泛化能力。尤其在无法访问模型内部信息的受限场景下,我们的技术仅需一次攻击交互即可完成,有效凸显了其高效性与低查询成本。

参考文献: Tan, P. S., Rajanala, S., Tan, Y. F., Pal, A., Tan, C. L., Phan, R. C. W., & Ong, H. F. (2025, April). Post-Hoc Adversarial Stickers Against Micro-Expression Leakage. In ICASSP 2025-2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (pp. 1-5). IEEE.

 image.png

郭子正,北京科技大学计算机与通信工程学院在读硕士生,师从邹博超副教授。主要研究方向为视频理解、微视觉计算、情感计算。

报告题目:基于时序状态转换的微表情协同检测与识别

报告摘要:微表情是一种难以主观控制的面部动作,被认为可以传递真实的情感线索,在多个领域具有实用价值。微表情分析通常包括两个主要任务:在长视频中定位微表情发生的时间区间和识别这些区间所对应的情感。以往的深度学习方法主要依赖于使用滑动窗口的分类网络,然而固定的窗口大小和窗口级别的硬分类引入了许多限制。此外,这些方法没有充分利用定位和识别任务之间的互补关系。因此,我们提出了一种基于状态空间模型时间状态转换架构的微表情分析方法,用视频级回归替代了传统的窗口级分类。并提出了一种结合定位与识别任务间内在联系的协同策略,进一步提升了整体分析性能。实验结果表明所提出的方法达到了当前的最先进水平。

参考文献:Zou B, Guo Z, Qin W, et al. Synergistic spotting and recognition of micro-expression via temporal state transition. ICASSP 2025-2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2025.


image.png

常皓林,就读于江西科技师范大学先进电子材料与器件江西省重点实验室,电子科学与技术硕士研究生,导师为谢志华教授。研究方向为计算机视觉,表情分析,致力于构建具备多模多任务表征的微表情分析方法。

报告题目:基于多模态分层语义引导深度融合的微表情定位方法*  *

报告摘要:现有的微表情识别 (MES) 方法大多主要从光流特征中学习高层次特征或结构(如形状、运动、布局等),而忽略了 RGB 图像中包含的涉及低层次特征,如纹理、颜色、对比度或光照条件等信息。针对这些问题,本方法提出了一种基于卷积神经网络 (CNN)-Transformer 的多尺度分层语义引导端到端跨模态融合框架 MESFusion。为了获得跨分支互补信息,该方案依次构建了多尺度特征提取模块 (MFEM) 和分层跨模态语义引导融合模块 (H-CSGFM)。在MFEM提取的多尺度融合特征的指导下,本方法设计了空间交叉注意力融合单元(SCAFU),以实现光流与RGB图像之间互补信息的全面融合和全局交互,同时在融合不同模态图像时保持各模态的固有特性。同时引入了通道自注意力融合单元(CSAFU),用于在通道维度上对非尺度融合特征与源图像特征之间的相关性进行建模,并滤除源图像中的干扰特征。此外,通过分层集成SCAFU和CSAFU,捕捉多尺度AU运动线索。

参考文献:Xie, Z., & Chang, H. (2025, April). Micro-expression Spotting based on Multi-modal Hierarchical Semantic-guided Deep Fusion Model. In ICASSP 2025-2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (pp. 1-5). IEEE.

 image.png

陈元,本科毕业于中南大学,与王磊教授合作致力于微表情方向的研究。现就读于北京邮电大学,研究方向为计算机视觉。

报告题目:利用多序列驱动的人脸生成技术提高微表情识别能力

报告摘要:微表情识别因其揭示真实情感的能力而备受关注。然而,由于其微妙且非自主的特性,微表情极难捕捉,导致标注样本稀缺。为此,本文提出了一种新颖的数据增广方法。与基于单一驱动视频的表情迁移方法不同,该方法通过融合多个驱动视频中的微表情,实现更真实多样的序列生成。此外,我们还改进了薄板样条运动模型以及人脸对齐方法,以进一步支持多序列驱动的生成过程。在实验中,我们使用基于增广后微表情序列训练的模型,开展了微表情识别任务,并在 SAMM、SMIC 和 CASME II 数据集上进行了评估。结果表明,本文方法在 F1 分数和识别准确率方面均优于当前最先进的数据增广和生成方法。

参考文献:Chen, Y., Zhong, C., Huang, P., Cai, W., & Wang, L. (2025, April). Improving Micro-Expression Recognition using Multi-sequence Driven Face Generation. In ICASSP 2025-2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (pp. 1-5). IEEE.

image.png

马闯,军事科学院计算机博士,曾在天津(滨海)人工智能创新中心担任算法工程师,拥有 5 年 AI 领域工作经验,技术栈覆盖深度学习、计算机视觉、多模态融合等前沿方向 ,发表SCI论文 7 篇, 发明专利 3 项。负责或参与科研项目 10 余项,获得世界机器人大赛总决赛特殊贡献个人奖。

报告题目:基于多先验融合网络的视频微表情识别方法

报告摘要:本文介绍了利用渐进式训练策略来优化微表情识别任务的多先验融合网络(MPFNet)。我们提出了两种互补编码器:通用特征编码器和高级特征编码器,两者都基于融合CA模块(Coordinate Attention)的I3D网络(Inflated 3D ConvNets),以提高模型捕获时空和通道特定特征的能力。受发展心理学的启发,我们提出了 MPFNet 的两种变体——MPFNet-P 和 MPFNet-C——对应于婴儿认知发展的两种基本模式:并行和分层处理。这些变体能够评估整合先验知识的不同策略。大量实验表明,MPFNet 显著提高了 MER 准确性,同时保持了各类别之间的平衡性能。

参考文献:Ma, C., Zhao, S., Pei, Y., Xie, L., Yin, E., & Yan, Y. (2025, April). A Multi-Prior Fusion Network for Video-based Micro-Expression Recognition. In ICASSP 2025-2025 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (pp. 1-5). IEEE.


Copyright © 2025 中国图象图形学学会 京公网安备 11010802035643号   京ICP备12009057号-1

地址:北京市海淀区中关村东路95号 邮编:100190

技术支持:中科服