EmT
Abstract 问题:现有 EEG 情绪识别方法对长期上下文信息关注不足,导致跨被试泛化能力减弱 方案:提出 Emotion Transformer (EmT) ,为 Graph-Transformer 混和架构 核心模块: TGC:将 EEG 信号转换为时序图序列 RMPG:使用残差多视图金字塔 GCN,学习动态、多尺度的空间连接模式,生成 token(核心) TCT:使用任务自适应的 Transformer,学习 token 序列上下文(核心) TSO:输出分类/回归结果 成果:在多个公开数据集的广义跨被试任务上面超过了 baseline Introduction & Related Work 为什么 EEG 难以使用跨被试 (cross-subject) 的场景? 个体差异:不同被试生理结构和认知策略差异,导致 EEG 模式不同 低信噪比:EEG 信号容易受到外源噪声干扰(肌电、眼电……) 目标是学习一种跨被试共享、具有泛化能力的情绪表征 Gpaph Neural Networks 核心思想:EEG 数据具有非欧图结构,适合使用 GNN 来处理 代表工作: ChebyNet:使用切比雪夫多项式近似光谱滤波,EmT 模型中采用其作为 GCN 层 GCN:通过局部一阶聚合近似光谱滤波 DGCNN / RGNN:使用 GNNs 提取 EEG 空间信息;依赖单一的邻接矩阵,忽略时序上下文,具有局限性;而 EmT 通过多视图可学习邻接矩阵和时序图来弥补 Temporal Context Learning 核心理念:情绪是连续认知过程,EEG 信号中嵌入时序上下文信息 代表工作: LSTM / TCN / TESANet / Conformer / AMDET 局限性:这些方法通常从扁平化的 EEG 特征向量学习,可能未能有效学习空间关系;EmT 则通过并行 GCN 和 STA 层更有效地捕捉时空信息 EEG Emotion Recognition 核心理念:EEG 情绪识别面临个体差异大、信噪比低等挑战,需提取光谱、空间、时序特征 代表工作: GCB-Net / TSception 局限性:没有关注长时序上下文信息 Method EmT 是一个端到端的框架,包含四大模块: ...