EmT

Abstract 问题:现有 EEG 情绪识别方法对长期上下文信息关注不足,导致跨被试泛化能力减弱 方案:提出 Emotion Transformer (EmT) ,为 Graph-Transformer 混和架构 核心模块: TGC:将 EEG 信号转换为时序图序列 RMPG:使用残差多视图金字塔 GCN,学习动态、多尺度的空间连接模式,生成 token(核心) TCT:使用任务自适应的 Transformer,学习 token 序列上下文(核心) TSO:输出分类/回归结果 成果:在多个公开数据集的广义跨被试任务上面超过了 baseline Introduction & Related Work 为什么 EEG 难以使用跨被试 (cross-subject) 的场景? 个体差异:不同被试生理结构和认知策略差异,导致 EEG 模式不同 低信噪比:EEG 信号容易受到外源噪声干扰(肌电、眼电……) 目标是学习一种跨被试共享、具有泛化能力的情绪表征 Gpaph Neural Networks 核心思想:EEG 数据具有非欧图结构,适合使用 GNN 来处理 代表工作: ChebyNet:使用切比雪夫多项式近似光谱滤波,EmT 模型中采用其作为 GCN 层 GCN:通过局部一阶聚合近似光谱滤波 DGCNN / RGNN:使用 GNNs 提取 EEG 空间信息;依赖单一的邻接矩阵,忽略时序上下文,具有局限性;而 EmT 通过多视图可学习邻接矩阵和时序图来弥补 Temporal Context Learning 核心理念:情绪是连续认知过程,EEG 信号中嵌入时序上下文信息 代表工作: LSTM / TCN / TESANet / Conformer / AMDET 局限性:这些方法通常从扁平化的 EEG 特征向量学习,可能未能有效学习空间关系;EmT 则通过并行 GCN 和 STA 层更有效地捕捉时空信息 EEG Emotion Recognition 核心理念:EEG 情绪识别面临个体差异大、信噪比低等挑战,需提取光谱、空间、时序特征 代表工作: GCB-Net / TSception 局限性:没有关注长时序上下文信息 Method EmT 是一个端到端的框架,包含四大模块: ...

July 30, 2025 · 6 min · diefish

T-TIME

Method Problem Set EEG 数据 $ \{ X_{s,l}^{i},y_{s,l}^{i} \}_{i=1}^{n_{s,l}} $ ,进行无监督在线 K 分类 Source Model Training 对源数据做 Euclidean alignment (EA) 数据对齐,减少不同个体 EEG 信号差异 EA 计算每个个体所有 EEG 试次协方差矩阵的算术平均值 $$ R_{s,l} = \dfrac{1}{n}\sum_{i=1}^{n} X_{i}(X_{i})^{T} \implies \bar{X}_{i} = R_{s,l}^{-1/2}X_{i} $$ 之后再整合经过对齐的受试者数据,形成“源域” 在整合后的数据上独立训练 $ M $ 个模型 Incremental EA on Target Data 对新数据增量式更新协方差矩阵,再用新的矩阵更新所有测试数据 Target Label Prediction 用训练好的 $ M $ 模型初始化用于适应目标域的 $ M $ 个 TTA 模型 $ f_{m} $ 新的 $ X_{a} $ 经过 IEA 被变换为 $ X_{a}' $ 后被输入到每个模型 $ f_{m} $ 中进行分类,输出概率向量 $ f_{m}(X_{a}') $ ...

July 30, 2025 · 1 min · diefish