基于模态注意力图卷积特征融合的EEG 和fNIRS情感识别

2023-10-24 10:08赵卿张雪英陈桂军张静
浙江大学学报(工学版) 2023年10期
关键词:识别率注意力卷积

赵卿,张雪英,陈桂军,张静

(太原理工大学 信息与计算机学院,山西 太原 030024)

情感识别在人机交互领域具有广阔的应用前景,当前基于大脑信号进行情感识别及交互的研究得到广泛关注[1].情感的产生变化和大脑皮层的神经活动[2]以及血氧浓度变化具有一定关联[3].脑电(electroencephalogram, EEG)和功能近红外(functional near infrared spectroscopy, fNIRS)具有相对便携、灵活和廉价的特性,可以同时采集互不干扰,应用前景广泛[4].EEG 信号可以反映大脑皮层神经元的电活动,fNIRS 信号反映出大脑皮层的血氧浓度变化,这2 种信号反映了大脑神经活动的不同方面,两者皆可客观地表征大脑的情感认知过程.

脑电情感识别领域的研究主要基于公开的DEAP[5]与SEED[6]情感数据库.Shen 等[7]提出四维卷积递归神经网络方法;Cui 等[8]将CNN 与BiLSTM 相结合,在SEED 数据集上的准确率达到94.82%;fNIRS 情感识别研究主要基于自建非公开数据库;Bandara 等[9]使用与DEAP 相同的刺激材料建立fNIRS 情感数据库;Hu 等[10]使用视频片段刺激建立了fNIRS 数据库,对离散情感进行两两分类聚类,证明fNIRS 可以区分细分的积极情绪.单模态情感识别仍存在特征提取不足及识别准确率不高的问题.因此将EEG 与fNIRS 进行融合,挖掘二者之间的相关性和互补性[11]是后期研究的重点.

Sun 等[12]提出P 阶多项式方法融合EEG 和fNIRS 信号,对运动想象和心算的二分类识别率相比单模态有明显提升;Deligani 等[13]提出基于互信息的特征选择方法,将EEG 和fNIRS 特征进行筛选得到融合特征集,并对ALS 患者与健康者进行分类;王恩慧[14]使用fNIRS 特征对EEG 信号进行筛选,得到新特征集后进行情感分类;Sun 等[15]将EEG 和fNIRS 特征直接拼接之后使用SVM 进行分类;吴文一[16]使用主成分分析法对拼接的EEG 和fNIRS 特征矩阵进行降维.以上研究中双模态融合后分类识别率均显著提高.

EEG 和fNIRS 是多通道信号,若将各通道作为节点,各通道特征作为节点特征,相关通道之间的关系看作边,则EEG 与fNIRS 实质上是图结构数据.图卷积神经网络(graph convolutional neural networks, GCN)是一类专门处理图结构数据的神经网络.Li 等[17]提出自组织图卷积模型,根据不同卷积层自动提取出脑电特征生成脑电连接图,实现情感分类.Song 等[18]提出动态图卷积情感识别模型,图的结构可以进行动态变化,使得图卷积层可以更好地提取EEG 电极之间的连接信息.以上研究表明,图卷积神经网络能够有效地提取EEG 信号各通道间连接信息.图卷积神经网络可以分为频谱域图卷积(如GCN[19]、Cheb-Net[20]) 以及空间域图卷积(如GraphSAGE[21]、GAT[22]).频域图卷积是从频域出发,参考传统的信号处理方法,引入滤波器来定义图卷积.空间域图卷积对每个节点的邻居节点进行某种方式的加权求和,得到新的节点特征.注意力机制通过对信号特征中与情感显著相关的信息分配较大的权重,来提高情感识别性能.张静等[23]提出频-空注意力机制,综合脑电信号在时间、空间和频率3个维度的信息,提高情感识别的准确率.Song 等[24]提出注意力LSTM,将注意力系数分别加在LSTM的不同结构上,对3 种生理信号分别进行特征提取,最终拼接实现多模态融合.本研究将模态注意力机制加入图卷积融合方法中,来学习不同模态不同通道信号的权重.

当前EEG-fNIRS 特征级融合方法大多使用拼接、张量融合的方法,这些方法仅仅考虑不同模态特征向量整体间的融合,而忽略了EEG 和fNIRS 各通道信号之间的差异与联系.针对当前没有公开的EEG-fNIRS 情感数据库的现状,本研究设计实验并采集了30 名被试在情感视频诱发下的EEG 和fNIRS 数据,在提出模态注意力多路图卷积模态融合方法.在GraphSAGE 图卷积层中,引入所提的模态注意力机制,并利用Graph-SAGE 图卷积层融合EEG 和fNIRS 信号各通道特征.在融合时,赋予EEG 和fNIRS 的不同通道以不同的权重,更加有针对性地进行模态融合,从而提升情感识别率.

1 方法介绍

1.1 数据采集

如图1 所示为数据采集与特征提取的流程图,主要包括情感电影片段选取、数据采集、信号预处理以及特征提取.

图1 EEG-fNIRS 数据采集与处理的流程图Fig.1 Flowchart of EEG-fNIRS data acquisition and processing

Schaefer 等[25]研究了电影片段在诱发情绪方面的可靠性和效率,表明带有情感的电影片段可以使受试者产生代入感,并引发情感共鸣,是良好的情感激发材料.本研究初步选取包含悲伤、高兴、中性和恐惧这4 种情感的80 个电影片段,每种情感有20 个电影片段.通过观看者填写SAM问卷的方式[26],在愉悦度(pleasure, P)、激活度(arousal, A)和支配度(dominance, D)3 个维度对每个视频片段进行打分,选择每种情感下与目标情感得分距离最小的前15 个视频,经过筛选最终得到60 个视频.共有30 名被试(15 男,15 女,平均年龄24.1±1.5 岁,视听力均正常,均为右利手)参与实验数据录制.参与录制前每位受试者均填写了个人基本信息以及知情同意书.受试者被要求头上佩戴脑电-功能近红外测量帽,坐姿调整到舒适的位置,认真观看即将开始的电影片段,并尽可能避免明显的动作.

实验在屏蔽室中进行.根据国际10-20 系统,使用ESI NeuroScan 系统从62 通道电极帽以1 000 Hz的采样率记录脑电信号;根据设计的光极位置,使用慧创医疗设备公司研发的NirSmart 便携式近红外脑功能成像系统以11 Hz 的采样率记录受试者额叶和颞叶的功能近红外信号.2 种信号记录同时进行.如图2 所示,一个受试者的实验总共有60 次.每次试验中播放一段视频,视频时长1~2 min,视频结束之后的30 s 填写自我评估表,以确认视频片段是否成功激发对应情感.

图2 EEG-fNIRS 情感数据的采集流程Fig.2 Collection process of EEG-fNIRS emotional data

1.2 特征提取

对于采集的脑电信号和功能近红外信号,需要预处理后才能进行下一步的特征提取.对于脑电信号要进行信号重参考、去基线以及0.1~50.0 Hz滤波处理,再使用独立成分分析(independent component analysis, ICA)去除脑电信号中的伪迹,并将信号降采样至200 Hz.将脑电信号划分为5 个频段:δ(1~4 Hz),θ(4~8 Hz),α(8~14 Hz),β(14~30 Hz),γ(30~50 Hz),随后对每个频段的脑电信号提取特征.对于采集的fNIRS原始光密度信号进行基线校正以及0.01~0.20 Hz带通滤波,通过修正的Beer-Lambert 定律[27]计算得到氧合血红蛋白(HbO)以及脱氧血红蛋白(HbR)浓度变化.

分别计算每个频段的特征.功率谱密度(power spectral density, PSD)[28]表示脑电信号在不同频段的平均能量:

式中:z为脑电信号, τ 为时间,f为频率.

使用快速傅里叶变换(fast fourier transform,FFT)计算信号的离散傅里叶变换(discrete fourier transform, DFT),使用200 个采样点的窗估计得到每个频段的功率谱密度.微分熵(differential entropy, DE)[29]是脑电信号的一种非线性特征,是香农信息熵在连续变量上的推广形式,即

式中:P(z) 为概率密度函数.

假设脑电信号服从正态分布:z∼N(µ,σ2) ,微分熵特征计算式为

式中: σ 为标准差,µ为均值,e为常数.

与脑电信号不同,fNIRS 信号的变化是相对缓慢的.为了适应这一特点,采用均值、最大值、最小值、线性回归斜率以及方差这5 个统计特征点作为fNIRS 信号的特征集.均值反映HbO/HbR浓度水平;最大值、最小值反映HbO/HbR 浓度曲线本身的特点;方差反映HbO/HbR 浓度的波动情况;线性回归斜率则反映HbO/HbR 浓度整体变化趋势.EEG 与fNIRS 信号均按1 s 分段,最后得到EEG 的特征矩阵大小为4 845×62×5,得到fNIRS的HbO/HbR 特征矩阵大小为4 845×18×5.

1.3 EEG-fNIRS 图数据构建

为了能够将数据输入图卷积神经网络,必须将EEG 和fNIRS 信号转为图结构数据.图结构数据是节点和边的集合,记为G=(V,E),其中V为节点的集合,E为边的集合.将EEG 和fNIRS 信号的每个通道看作节点,每个通道求得的特征作为节点特征,得到特征矩阵X;将通道与通道之间的连接关系作为边,求得邻接矩阵A,这样就将EEG和fNIRS 信号抽象为图结构数据.

图结构数据的特征矩阵X由提取的脑电DE、PSD 特征以及fNIRS 统计特征所构成.邻接矩阵A通过计算两两通道信号之间的皮尔逊相关系数得到.Bao 等[30]将皮尔逊相关系数作为图卷积网络的邻接矩阵,在EEG 情感识别中取得较好效果.

皮尔逊相关系数可以度量2 个时间序列之间的相关性,计算式为

式中: ρ 为相关系数,a、b分别为2 个通道的特征向量,Cov (a、b)为向量a和b的协方差,g为向量中元素的个数.

由于EEG 和fNIRS 是2 种不同采样率的信号,对EEG 原始信号进行平均降采样至11 Hz,使之与fNIRS 信号的采样率一致;利用皮尔逊相关系数计算每1 s 信号两两通道之间的相关性,并构建EEG-fNIRS 通道邻接矩阵.Achard等[31]指出在稀疏的fMRI 脑网络中,当实际连接数等于全部可能连接数的20%时,通常会最大限度地提高网络拓扑的效率;当选择保留EEG-fNIRS 邻接矩阵全部连接的20%时,由于直接选取全局最相关的20%连接,连接可能会聚集于某个区域,同样重要但相关系数稍微较弱的区域可能被忽略.整个邻接矩阵分为EEG-EEG、fNIRS-fNIRS 以及EEG-fNIRS 子矩阵,分别在每个子矩阵中选取相关系数最大的前20%连接进行保留,最终得到图数据特征矩阵X(4 845×98×5),邻接矩阵A(4 845×98×98),两者之间一一对应.

1.4 图卷积融合模型

如图3 所示为MA-MP-GF(modality attentionmulti path-graph convolution fusion)双模态融合情感识别框架.将EEG 和fNIRS 构建为图结构数据,计算各通道特征和各通道的相关性关系,分别以节点特征矩阵和邻接矩阵的形式输入MA-MPGF 模型中实现2 种模态的融合情感识别.本研究提出基于多路模态注意力图卷积融合的情感识别模型MA-MP-GF,如图4 所示,依次由图特征提取、图特征融合以及分类器模块构成.

图3 双模态融合情感识别框架Fig.3 Framework of bimodal fusion emotion recognition

图4 MA-MP-GF-2D-CNN 双模态融合情感识别模型Fig.4 MA-MP-GF-2D-CNN bimodal fusion emotion recognition model

1.4.1 图特征提取模块 GraphSAGE[21]图卷积是一种空间域图卷积,其算法的核心在于对邻居节点的采样与聚合.

GraphSAGE 图卷积可以有效地聚合邻居节点特征,实现对图结构数据的数据特征提取.对于采用均值聚合的GraphSAGE 图卷积,其节点更新的计算式为

式中:xi为第i通道的节点特征;xj为对xi的邻居节点采样得到的节点特征;k为神经网络层序号;ReLU 为激活函数;W为权重矩阵,训练时通过梯度下降法进行更新;Mean 为向量求均值操作.式(5)是对图上每个节点的邻居节点进行采样,将本节点与每个采样得到的邻居节点进行拼接后求取平均值,再对得到的向量进行非线性变换,得到新的节点特征.

由于GraphSAGE 图卷积层能够根据邻接矩阵聚合不同邻居节点的特征,并生成新的节点特征,可以通过它对不同通道EEG 和fNIRS 节点进行聚合,实现特征融合.将EEG、HbO 以及HbR 图结构数据分别输入GraphSAGE 图卷积层中,通过图卷积层分别提取特征,得到EEG、HbO 和HbR 各自的图卷积特征矩阵.GraphSAGE 图卷积层通过聚合邻居节点特征实现新节点特征的生成,新节点特征与原来特征相比,包含了更多相关节点的信息,有利于下一模块不同模态节点之间的特征融合.

1.4.2 图特征融合模块 针对不同模态节点的特征融合,提出模态注意力机制(modality attention,MA) 来对GraphSAGE 图卷积进行改进,如图5所示,图中Mmod为模态权重,M为模态注意力系数.当赋予不同模态节点以不同的权重时,改进后的图卷积层能够更加有效地进行特征融合.

图5 模态注意力图卷积层Fig.5 Modality attention graph convolutional layer

本研究提出的模态注意力机制由2 条支路构成,分别为模态权重支路与节点权重支路.前者计算得到EEG、HbO 和HbR 这3 种信号各自的权重;后者计算得到所有信号总计98 个节点各自的权重.将模态权重与节点权重对应相加,得到最终的权重.将权重赋给原始信号,并输入到Graph-SAGE 图卷积层当中,这样图卷积层在计算当中能够考虑到每个节点不同的权重,同时在每一次的训练中通过反向传播更新注意力系数与图卷积参数.注意力系数的计算式为

式中:M为最终的注意力系数向量,X为输入特征矩阵,Mout为输出特征矩阵,FC1、FC2分别为第1、2 层全连接层,pool 为全局平均池化层,Sigmoid 为非线性激活函数.

在加入注意力机制之后,输入图卷积层的每个节点均具有不同的权重系数,每个节点与其采样得到的邻居节点进行聚合,而邻居节点包含EEG节点与fNIRS 节点,因此对每个节点进行聚合的过程相当于2 种模态进行特征融合的过程.每个节点的聚合式(式(5))可以重新表示为

式中:x(EEG)p、x(fNIRS)q分别为EEG 和fNIRS 节点特征,是对邻居节点xi采样得到的节点特征;p为EEG 节点特征的序号;q为fNIRS 节点特征的序号;n为采样节点的个数;mp、mq为对应节点的注意力系数.

1.4.3 2D-CNN 分类模块 经过图卷积融合之后每个节点生成的新节点特征融合了原节点以及与原节点相关的其他通道的信息.由于包含原节点信息,生成新的节点之间仍然具有一定的空间位置关系.EEG-fNIRS 空间排布矩阵如图6 所示.将新的节点特征映射到空间排布矩阵中,通过2DCNN 进行情感分类.2D-CNN 的参数如表1 所示,包括单模态与双模态分类时模型的参数.

表1 2D-CNN 网络的参数Tab.1 Parameters of 2D-CNN network

图6 EEG-fNIRS 空间位置映射矩阵Fig.6 EEG-fNIRS spatial position mapping matrix

将转换得到的空间位置特征矩阵输入2DCNN 进行卷积池化操作,以双模态分类器为例,连续2 次4*4 卷积相当于1 次7*7 卷积,在扩大感受野的同时,能够更好地提取通道间特征,同时减少参数量;卷积之后的特征矩阵经过平均池化进行降维.具体计算式如下:

式中:s为经过处理后的输入特征,Conv1、Conv2分别为第1、2 层卷积层, Avepool 为平均池化层,y为整个网络的输出向量.

接下来将池化得到的特征向量输入全连接层中进一步降维,最后经过Softmax 层进行分类.

2 实验与结果分析

2.1 实验参数设置

实验运行所使用的软件环境为Windows10 操作系统,深度学习框架为Pytorch,图卷积神经网络包为PyTorch Geometric;所使用的硬件环境CPU 为Intel Xeon Silver 4214R 2.40 GHz,GPU 为Nivida Telsa T4.深度学习优化器使用SGD 优化器,采用交叉熵损失函数,学习率设置为0.01.数据按1 s 分段,每名被试的实验均进行5 折交叉验证,以30 名被试的平均识别率以及标准差作为评价标准.

为了比较单模态与多模态融合的识别结果,使用2D-CNN 作为情绪识别的基线分类器.为了比较不同情感识别模型的识别结果,同时验证所提图卷积融合方法的有效性,使用10 种融合方法进行对比实验.

2.2 实验模型介绍

图卷积融合(graphconv fusion, GF)为基础的图卷积融合模型,只包含1 层图卷积;模态注意力图卷积融合(modality attention graphconv-fusion,MA-GF)在GF 模型的图卷积层中添加了注意力机制;多路图卷积融合 (multi-path graphconv-fusion,MP-GF)将不同模态的特征分别经过图卷积之后再进行整体图卷积;MA-MP-GF 为同时添加多路图卷积与模态注意力的图卷积融合模型.最后将经过融合的特征向量输入2D-CNN.

拼接融合(concat-fusion, CF)在文献[12]中被称为线性融合(linear fusion,LF).将不同模态经过2D-CNN 从池化层输出的特征向量进行直接拼接,从而实现不同模态的融合识别.空间融合(space fusion, SF)为空间融合方法,相当于去掉图卷积层之后的模型.它将不同模态的特征映射到同一个EEG-fNIRS 空间位置排布矩阵之中,输入2D-CNN实现分类.

SVM[15]是将不同模态的特征矩阵进行拼接后输入SVM 进行分类的特征融合方法.张量融合(tensor fusion, TF)[12]是将不同模态的特征向量进行外积得到多维矩阵后,使用可训练权重矩阵加权求和得到新融合特征向量的方法.P 阶多项式融合(Pth order polynomial fusion, PF)[12]将不同模态的特征向量拼接为长向量,将长向量进行复制,同时将这些长向量进行外积得到多维矩阵,最后使用可训练的权重矩阵进行加权求和得到新的融合特征向量.低阶多模融合(low rank multimodal fusion, LMF)[32]通过对每个模态设定低阶权重向量,利用各自模态的特征向量进行加权求和生成新的融合特征.将以上3 种特征向量融合方法应用于2D-CNN 池化层输出的特征向量中,随后将融合后的向量输入全连接层以及softmax层进行分类.

2.3 实验结果分析

使用EEG 信号的特征以及fNIRS 中HbO 和HbR 的统计特征进行单模态识别实验,研究不同模态情感识别的效果;同时使用所提的图卷积融合模型进行实验,用以研究模态融合情感识别的有效性.实验在30 名被试下进行.如表2 所示为30 名被试使用2D-CNN 和MA-MP-GF-2D-CNN 在不同模态下的平均识别率Acc 以及标准差Std,加粗部分表示的是最高Acc 值以及最低Std 值.可以看出,多模态相对于单模态,在识别率上有明显提升.

表2 不同模态平均情感识别结果Tab.2 Average emotion recognition results of different modalities

如图7 所示为30 名被试使用2D-CNN 和MAMP-GF-2D-CNN 进行单模态与多模态情感识别的识别率.图中,No 为被试序号,Ave 为总体平均,Acc 为识别率.可以看出,不同被试的情感识别率存在差异,但是EEG 的DE 特征的识别率均显著高于fNIRS 的HbO 和HbR 信号的统计特征的识别率,fNIRS 的HbO 与HbR 识别率无显著差距,使用图卷积融合以上3 种信号的识别率均显著高于单模态的识别率.由此可以证明所提的图卷积融合的情感识别方法对于单模态情感识别有显著提升.

图7 不同被试单模态以及模态融合的情感识别结果Fig.7 Emotional recognition results of different subjects in single mode and mode fusion

如图8 所示为单模态与图卷积融合情感识别的混淆矩阵.可以看出,在单模态情感识别中各类情感的识别率存在微小差异,EEG(DE)的混淆矩阵显示,中性情感的识别率略低于其他情感,另外3 种情感识别率相近;fNIRS 信号的HbO 和HbR的混淆矩阵也显示,中性情感的识别率略低于其他情感,高兴情感的识别率略高于其他情感;图卷积融合的混淆矩阵相比单模态,各类情感的识别率都有明显提升,各类情感的识别率之间的差距也缩小.

图8 情感分类的混淆矩阵Fig.8 Confusion matrix of emotion classification

使用EEG 信号的DE 特征和PSD特征以及fNIRS 的HbO 和HbR 信号统计特征,研究不同特征组合下的融合情感识别效果,结果如图9 所示.在不同的特征组合下,模态融合的识别率有所不同;不同融合方法中不同特征组合的识别结果呈现相似的趋势.总体上看,包含EEG(DE)特征的融合识别率要优于EEG(PSD)的,DE+HbO+HbR的识别效果最好,DE+HbR 效果次之,PSD+HbO的效果最差.为了验证模型各部分的作用,使用拼接融合CF、空间融合SF、基础图卷积融合GF、仅加入模态注意力的MA-GF、仅加入多路图卷积的MP-GF 模型以及同时加入模态注意力和多路图卷积的MA-MP-GF 模型,分别对不同的特征组合进行模态融合对比消融实验,用以验证图卷积融合、模态注意力机制以及多路图卷积结构对于情感识别的有效性.同时,对所提的模态注意力机制也进行消融实验,分别分析只保留节点权重、只保留模态权重、去除dropout 层之后的注意力机制的效果,验证所提的注意力机制结构的必要性与有效性.

消融实验结果如表3 所示.可以看出,所提图卷积融合模型在不同特征组合下的平均识别率均高于拼接融合以及空间融合模型的,标准差也小于另外2 种模型的.表明图卷积融合模型的识别效果与稳定性更好,证明了图卷积融合的有效性.同时添加模态注意力(MA) 与多路图卷积结构(MP)的融合方法的识别率要明显高于不添加或者只添加MA 和MP 中的一种的图卷积融合方法的,且单独添加MA 或MP 识别率均有提升,证明MA 与MP 对于提升情感识别率的有效性.另外相比使用EEG、HbO 与HbR 这3 种信号进行融合,只使用其中2 种信号进行融合的识别率要略低,但仍可以实现比单模态更高的识别率,因此在情感识别中可以选用HbO 与HbR 中的一种信号与EEG 结合,在减少模态数量的同时依然可以保持较好的效果.

表3 模态注意力多路图卷积融合模型消融实验结果Tab.3 Experimental results of ablation of modality attention multi-path graph convolution fusion model

如表3 所示,SF 为未添加图卷积的2D-CNN分类模块,识别率较低.MA-GF 为添加图特征融合模块的模型,MP-GF 为添加图特征提取模块的模型,MA-MP-GF 为完整的模型.以EEG(DE)+HbO+HbR 特征组合为例,后3 种模型相比于SF,在识别率上分别提升3.42%、3.72%、4.44%,表明各模块的添加能够有效提升情感识别率.

图特征融合模块中使用了模态注意力机制,在训练过程中可赋予不同模态不同通道以不同的权重,使之能够更好地体现各通道对情感识别的贡献.如图10 所示,以全部30 名被试为例,绘制了各通道的平均注意力权重图.通道位置与图6中的EEG-fNIRS 空间位置映射矩阵的相对应.可以看出,不同通道被赋予不同的权重.在情感识别中,额叶和颞叶的EEG 与fNIRS 通道发挥了较大的作用,而顶叶和枕叶的通道作用较小.其中右额叶的权重高于左额叶的,右颞叶的要略高于左颞叶的.Li 等[33]的结论中也反映出额叶和颞叶区域在EEG 情绪识别中很重要.模态注意力机制的消融实验使用效果最好的EEG(DE)+HbO+HbR特征组合,结果如表4 中,MA1为只保留节点权重的注意力机制,MA2为只保留模态权重的注意力机制,MA3为去掉了dropout 保留模态和节点权重支路的注意力机制.在2 种图卷积融合模型上,所提出的模态注意力机制的结果均为最优.

表4 模态注意力机制消融实验结果Tab.4 Experimental results of ablation of modality attention mechanism

图10 注意力权重分布图Fig.10 Distribution map of attention weight

不同的融合模型在三模态融合时效果更好,因此对比其他论文的融合方法时均采用三模态进行实验,结果如表5 所示.可以看出,在2 种不同特征组合下所提出的图卷积融合方法效果均要优于所引论文中的融合方法.

表5 不同融合方法在EEG-fNIRS 数据集上的结果Tab.5 Results of different fusion methods on EEG-fNIRS dataset

为了全面验证模型的效果,本研究进行跨受试者的实验,采用留一折验证,即29 名被试的数据作为训练集,1 名被试的数据作为测试集,特征组合采用效果更好的EEG(DE)+HbO+HbR,结果如表6 所示.可以看出,在跨受试者的实验中,本研究所提的4 种图卷积融合方法的识别准确率均要强于其他论文方法的,且添加模态注意力机制能够提升图卷积融合的跨被试识别率.由于跨受试者实验中训练与测试数据分布差异较大,结果要低于被试依赖的实验.目前主流的跨受试者情感识别方法均涉及迁移学习,将在以后的研究中加以应用.

表6 不同融合方法在EEG-fNIRS 数据集的跨被试结果Tab.6 Cross-subject results of different fusion methods on EEG-fNIRS data set

3 结 语

本研究提出基于模态注意力多路图卷积(MAMP-GF)的EEG 和fNIRS 融合情感识别方法.与单模态相比,图卷积融合MP-MA-GF 对情感识别准确率的提升明显;所提模态注意力机制对于情感识别率也有一定提升效果;与其他对比方法以及其他论文的多模态融合方法相比,本研究的图卷积融合方法具有更高的准确率和更好的稳定性.

在未来的工作中,计划使用不同类型的图卷积层以及新的EEG 和fNIRS 特征进行融合实验,以获得更高的情感识别准确率;对于邻接矩阵的选取进行更深入的研究,会考虑PLV、互信息方法计算邻接矩阵;在跨受试者的实验中,会使用迁移学习与所提模型结合,提升模型的跨受试者识别效果.

猜你喜欢
识别率注意力卷积
让注意力“飞”回来
基于3D-Winograd的快速卷积算法设计及FPGA实现
基于类图像处理与向量化的大数据脚本攻击智能检测
从滤波器理解卷积
基于真耳分析的助听器配戴者言语可懂度指数与言语识别率的关系
提升高速公路MTC二次抓拍车牌识别率方案研究
基于傅里叶域卷积表示的目标跟踪算法
“扬眼”APP:让注意力“变现”
A Beautiful Way Of Looking At Things
高速公路机电日常维护中车牌识别率分析系统的应用