探索音乐与大脑:AT-DGNN在EEG情感识别中的突破

MEEG and AT-DGNN: Advancing EEG Emotion Recognition with Music and Graph Learning

摘要

本文介绍了一种名为MEEG的新型多模态音乐诱发电位(EEG)数据集,以及一种名为AT-DGNN的新框架,用于基于EEG的情感识别。MEEG数据集通过捕捉广泛的音乐诱发的情感反应,为深入分析音乐情境下的脑波模式提供了可能。AT-DGNN框架结合了基于注意力的时序学习器和动态图神经网络(DGNN),能够准确地模拟EEG数据在不同脑网络拓扑结构中的局部和全局图动态。评估结果显示,AT-DGNN在唤醒度和效价方面的准确率(ACC)分别达到了83.06%和85.31%,超过了现有最先进(SOTA)方法。此外,与传统的DEAP数据集相比,本文的方法突出了音乐作为情感诱导媒介的潜力,并强调了图学习在情感识别技术中的应用前景。

原理

AT-DGNN框架的核心在于其结合了多头部注意力机制和动态图神经网络(DGNN)。多头部注意力机制能够捕捉EEG数据中的复杂时序依赖性和离散特征,通过多个注意力头来识别关键的时序特征。动态图神经网络则通过聚合和传播图结构数据中的信息,有效地捕捉节点间的复杂关系和依赖性。这种结合使得AT-DGNN能够更精确地模拟和分析EEG数据中的情感相关动态。

流程

AT-DGNN的工作流程包括数据预处理、特征提取和图学习三个主要阶段。在数据预处理阶段,原始EEG数据被降采样并应用带通滤波以消除干扰。特征提取阶段则通过时序学习器、多头部注意力机制和时序卷积模块来提取EEG信号的动态时序特征。最后,在图学习阶段,模型使用局部过滤层和堆叠的动态图卷积来学习不同脑区域间的复杂交互,从而增强模型整合时空特征的能力。整个流程通过算法1进行了详细描述。

应用

AT-DGNN框架和MEEG数据集的应用前景广泛,特别是在脑-机接口(BCI)技术中,可以显著提高情感识别的准确性。此外,该研究也为探索音乐、情感和大脑活动之间的关系开辟了新的途径,有望在心理健康监测、娱乐产业和个性化用户体验等领域发挥重要作用。