一种基于语音、文本和表情的多模态情感识别算法

2024-05-03 09:43吴晓牟璇刘银华刘晓瑞
关键词:多模态

吴晓 牟璇 刘银华 刘晓瑞

摘要 针对当前多模态情感识别算法在模态特征提取、模态间信息融合等方面存在识别准确率偏低、泛化能力较差的问题,提出了一种基于语音、文本和表情的多模态情感识别算法。首先,设计了一种浅层特征提取网络(Sfen)和并行卷积模块(Pconv)提取语音和文本中的情感特征,通过改进的Inception-ResnetV2模型提取视频序列中的表情情感特征;其次,为强化模态间的关联性,设计了一种用于优化语音和文本特征融合的交叉注意力模块;最后,利用基于注意力的双向长短期记忆(BiLSTM based on attention mechanism,BiLSTM-Attention)模块关注重点信息,保持模态信息之间的时序相关性。实验通过对比3种模态不同的组合方式,发现预先对语音和文本进行特征融合可以显著提高识别精度。在公开情感数据集CH-SIMS和CMU-MOSI上的实验结果表明,所提出的模型取得了比基线模型更高的识别准确率,三分类和二分类准确率分别达到97.82%和98.18%,证明了该模型的有效性。

关键词 多模态;情感识别;并行卷积;交叉注意力

A multimodal emotion recognition algorithm basedon speech, text and facial expression

Abstract Aiming at the problems of low recognition accuracy and poor generalization ability of current multimodal emotion recognition algorithms in modal feature extraction and information fusion between modalities, a multimodal emotion recognition algorithm based on speech, text and expression is proposed. Firstly, a shallow feature extraction network (Sfen) combined with parallel convolution module (Pconv) is designed to extract the emotional features in speech and text. A modified Inception-ResnetV2 model is adopted to capture the emotional features of expression in video stream. Secondly, in order to strengthen the correlation among modalities, a cross attention module is designed to optimize the fusion between speech and text modalities. Finally, a bidirectional long and short-term memory module based on attention mechanism (BiLSTM-Attention) is used to focus on key information and maintain the temporal correlation between modalities. By comparing the different combinations of the three modalities, it is found that the hierarchical fusion strategy that processes speech and text in advance can obviously improve the accuracy of the model. Experimental results on the public emotion datasets CH-SIMS and CMU-MOSI show that the proposed model achieves higher recognition accuracy than the baseline model, with three-class and two-class accuracy reaching 97.82% and 98.18% respectively, which proves the effectiveness of the model.

Keywords multimodal; emotion recognition; parallel convolution; cross attention

近年來,随着人工智能技术的快速发展,人机交互逐渐成为了当前科研人员研究的热点。情感分析作为人机交互的重要组成部分,也呈现出了模态多元化的趋势[1],比如使用语音、文本、表情,甚至脑电等生理信号来进行情感分析。因此,如何处理和融合这些异构信息,实现对其准确的分析与判断,成为了当前需要解决的重点问题。

在情感识别领域中,传统的机器学习方法如朴素贝叶斯(naive Bayes,NB)、支持向量机(support vector machine,SVM)等[2-3]被广泛应用。但随着深度学习技术的发展,以卷积神经网络(convolutional neural network,CNN)、循环神经网络(recurrent neural network,RNN)、深度卷积神经网络(deep convolutional neural network, DCNN)[4-6]为代表的数据驱动方法逐渐成为情感分析的主流。目前,研究人员已经在单模态情感识别领域取得了一定进展。在文本情感识别方面,Xu等人提出一种基于CNN的微博情绪分类模型CNN-Text-Word2vec,使模型的整体准确率比主流方法提高了7.0%[7];在图像情感识别方面,郑剑等人提出了一种基于DCNN的FLF-TAWL网络,该网络能够自适应捕捉人脸重要区域,提高人脸识别的有效性[8];在语音情感识别方面,部分研究将声学特征和RNN进行结合,如Dutta等人提出一种语音识别模型,利用RNN提取线性预测编码(linear predictive coding,LPC)和Mel频率倒谱系数(Mel-frequency cepstral coefficients,MFCC)特征,并在识别阿萨姆语上取得了一定效果[9]。

近期的研究表明,多模态情感模型能够将来自不同感知模态的信息有效融合。由于充分利用了数据的多样性,多模态模型表现出比单模态模型更大的优势。针对多模态情感识别,国内外学者已经开展了深入的研究工作。如HOU等人提出一种早期融合模型EF-LSTM,通过拼接语音、文本和表情3种模态的特征并利用LSTM进行编码,有效提取了模态间的交互信息[10]。Zadeh等人设计一种张量融合网络(TFN),通过采用多维张量的外积操作,较好地捕获了不同模态间的交互信息[11]。Liu等人设计一种低秩多模态融合算法(LMF),在TFN的基础上进行低秩多模态张量融合,使网络效果得到一定的提升[12]。Zadeh等人提出一种记忆融合网络(MFN),通过利用注意力机制和多视图门控网络,同步捕捉了时序序列和模态间的交互信息[13]。Tsai等人提出一种跨模态网络Transformer(MulT),通过扩展多式Transformer结构,成功解决了不同模态数据的长期依赖性问题,进一步提高了模型性能[14]。Yu等人提出一种自监督多任务学习网络Self-MM,通过设计基于自监督学习策略的标签生成模块,并引入权重自调整策略,较好地实现了对情感的预测分类[15]。虽然研究者不断探索新的情感识别模型以提升多模态情感识别的准确率,但仍存在一些不足。在情感特征提取方面,上述多模态情感模型主要通过预训练模型实现对情感特征提取。但预训练模型往往需要进行微调或迁移学习来达到适应特定任务的目的,可能会导致在小样本数据集或特定应用中出现泛化性能力不足的问题。在特征融合方面,上述多模态模型虽然采用了一些改进型的融合方法,但在融合过程中没有很好地考虑模态特征间的相关性及模态的选择性问题,导致最终的识别准确率偏低。

针对上述问题,本文在现有研究的基础上提出了一种基于语音、文本和表情的多模态情感识别算法。该算法利用Sfen网络和Pconv模块充分提取语音和文本情感特征;采用改进的Inception-ResnetV2网络[16]提取表情情感特征;通过交叉注意力融合(cross attention fusion,CAF)模块强化语音和文本特征的相关性;最后,利用BiLSTM-Attention模块获取关键信息,保持信息在时间上的连续性。

1 多模态情感识别模型

构建多模态情感识别模型通常包括以下几个方面:多模态信息预处理、情感特征提取、情感识别模型的设计与选择、特征融合方案[17]。如何确定有效的模态组合方案,并实现有效的特征融合是本文需要研究的重点问题。本文利用语音(A)、文本(T)与表情(V)3种模态构建多模态情感识别模型,该模型主要是由Sfen网络、Pconv模塊、BiLSTM-Attention模块和交叉注意力融合(CAF)模块组成,整体框架如图1所示。

在图1所示的模型框架中,首先利用Sfen网络和Pconv模块提取语音和文本的情感特征,并通过CAF模块实现2个模态间的信息互补,优化模态间的信息融合。对于基于视频的表情信息,该情感识别方法以图片识别分类常用的Inception-ResnetV2模型为基础进行改进,以提高在多种环境背景下的鲁棒性。在融合策略上,本文将语音-文本特征与表情特征进行特征级[18]融合,并通过BiLSTM-Attention模块后,利用Softmax实现对情感的识别分类。

1.1 数据预处理

目前语音信号预处理的方法主要有傅里叶变换、 神经网络、 动态时间规划和梅尔频率倒谱系数(MFCC)[19]等, 其中, 梅尔频率倒谱系数提取到的特征参数更接近人耳感知的特点。 本文利用MFCC对视频中的原始语音信号进行预处理,通过对提取到的语音数据进行预加重、分帧和加窗等操作,将原始语音信号转换为语音特征参数。针对原始文本数据,首先,采用文本分类中常用的jieba分词工具[20]对文本中的分词进行分类;然后,利用停止词数据库去除文本信息中的停止词,避免无用信息的干扰;最后,通过word2vec[7]模型将文本转换成词向量形式,构建词向量字典。针对研究中使用的文本数据量,使用了word2vec中的CBOW[21]作为本文的神经网络语言模型。

数据集中原始视频片段的背景、 光线和环境等因素[22]可能会导致从视频中提取到的连续帧无法被准确地识别为人脸。 因此, 本文首先将每个视频片段逐帧处理成连续的图片, 利用MTCNN[23]模型和OpenCV库中的CascadeClassifier[24]人脸级联检测器实现对人脸的检测,提高对人脸的检测精度;然后,将检测到的人脸图像裁剪成149×149的统一尺寸大小;最后,经过归一化、灰度化后,输出处理后的图片序列。

1.2 语音文本特征提取

在情感识别的过程中,浅层特征提取主要从输入的文本、语音或图像中提取有关情感的表层信息,是数据预处理后的一项关键步骤。针对语音和文本模态,本文设计了一种Sfen网络实现对2种模态浅层特征的提取,Sfen网络结构如图2所示。

对于音频输入,语音特征参数经过Sfen1网络中一维卷积层和池化层的处理后得到语音浅层特征(卷积核大小为3×3)。类似地,对于文本输入,词向量字典通过Sfen2网络中的Embedding和BiLSTM层后得到文本浅层特征。其中,Embedding层增强了文本特征之间的相关性,在Embedding层之后引入BiLSTM能够捕获更丰富的上下文信息,同时保持文本间的序列关系。语音特征参数和词向量字典经过各自的Sfen网络处理后,其输出特征维度保持相同,确保了后续语音和文本特征融合的可行性。

为获取深层次的情感特征,本文利用残差网络[25](residual network,ResNet)的思想将最大池化层与卷积层进行拼接,针对语音和文本2个模态设计了一种Pconv模块,其结构如图3所示。

在图3中,Pconv模块由最大池化层、Bconv单元和Sconv单元3部分组成。其中,Bconv单元由3层组成:传统卷积层、LeakyReLU激活函数、批标准化(Batch Normalization)。Sconv单元与Bconv单元类似,但在输入环节使用了卷积核大小为3×3的深度可分离卷积层[26](Depth Separable Convolution),进一步减少运算参数的数量,提高运算效率。在次级输出环节,本文将最大池化层的输出和Bconv单元的输出进行拼接,其输出再与Sconv单元的输出特征进行叠加。上述设计中的拼接环节可以增加最终输出特征的多样性,而叠加环节又可以在输出前对每个维度的特征进行增强和补充。该Pconv模块采用的残差连接的方法,避免了神经网络中的信息冗余和梯度爆炸[27]问题,使得网络能够更有效地学习到数据的特征表示,保证了特征提取的充分性。

1.3 表情特征提取

目前处理视频序列中面部表情信息的方法主要是3D卷积和2D卷积,其中,3D卷积能够在时间维度上捕捉连续视频帧之间的动态信息,2D卷积能够在每个视频帧中提取空间特征。本文将3D卷积与2D卷积相结合,先利用2D卷积提取图像帧的空间特征,再使用3D卷积捕捉时间维度的特征,不仅可以形成更深层次的特征表示,还能够有效地提高面部表情的识别效率。

Inception-ResnetV2神经网络模型具有良好的特征提取能力和泛化性能,常用于图像分类、目标检测等任务。本研究采用的表情情感识别模型是在Inception-ResnetV2模型的基础上进行的改进,利用3D卷积与2D卷积相结合的多尺度卷积核[28]处理表情数据信息。改进后的模型结构如图4所示。在传统的Inception-ResnetV2模型的基础上,将其前半部分的特征提取层由2D转换为3D,利用三维卷积核滑动提取相应特征。由于时间维度较小,当时间维度卷积为1时,再次通过压缩方式(squeeze)将3D卷积转换为2D卷积,减少训练参数的产生,降低运算难度。

1.4 交叉注意力融合模块

模态特征的融合需要考虑不同模态间的耦合关系。目前的研究表明T(文本)和A(语言)2种模态之间存在紧密的时序与特征耦合关系[29]。本文改变了传统的特征融合方式,设计了一种基于交叉注意力的融合模块,在保留模态内特征的同时,有效地编码T和A模态间的信息。该融合模块结构如图5所示。

在图5所示的交叉注意力融合模块中, Xt和Xa分别代表数据集中的视频序列X经过Pconv模块后提取出的T和A的深层特征。 为使模态间的异质性最小化, 设置了一个可学习的权重矩阵W∈Rk×k,相互计算的关系如式(1)所示,

Y=XTa WXt(1)

式中:Y∈Rl×l;W代表文本和语音的相互关系权重;k代表文本和语音的特征维度。相关矩阵Y给出了T和A特征之间的相关性度量,较高的相关系数说明子序列对应的T和A特征之间具有较强的相关性。基于以上思路,分别利用YT和Y的softmax函数进一步计算T和A特征的交叉注意力权重Zt和Za。计算如式(2)和(3)所示。

式中:i和j表示矩阵Y的第i行和第j列元素;Ts表示softmax系数。

式中:Zt和Za分别代表T和A特征的交叉注意力权重。通过将重加权的注意力图添加到相应的特征上,可获得2种模态的深层特征表征Xatt,t与Xatt,a,如式(6)和(7)所示。

Xatt,t=tanh(Xt+t)(6)

Xatt,a=tanh(Xa+a)(7)

将Xatt,t和Xatt,a拼接起来,得到T和A的特征表示,即[AKX]=[Xatt,t,Xatt,a]。经过交叉注意力模块融合后的特征将再次输入到下一级Pconv模块中,通过其并行结构充分提取融合后的信息。

1.5 BiLSTM-Attention模块

长短时记忆网络[30](long short term memory,LSTM)利用3个不同门结构,有效解决了序列数据的依赖性和语序问题,其结构如图6所示。

在t时刻,将当前隐层状态记为ht,各门状态更新如下:

ft=σ(Wf·[ht-1,xt]+bf)(8)

Ct=ft*Ct-1+it*tanh(Wc·[ht-1,xt]+bc)(9)

it=σ(Wi·[ht-1,xt]+bi)(10)

ot=σ(Wo·[ht-1,xt]+bo)(11)

ht=ot*tanh(Ct)(12)

式中:xt表示當前输入单元状态;ft、Ct、it、ot分别表示当前遗忘门、存储单元、输入门、输出门;b*表示偏置项;W*表示权重矩阵;σ是激活函数。

LSTM只能获取输出时刻前的信息, 不能利用反向信息, 本文利用了2个单向LSTM构成双向长短时记忆网络(BiLSTM), 同时处理前向与后向信息。 此外, 注意力机制[31](attention)能够在训练过程中根据特征序列信息的重要程度赋予权重值, 选择性忽略非重要信息,最大化相关向量的贡献。 为使模型更好获取输入序列中不同位置的重要性, 在BiLSTM层的基础上添加注意力层提高网络对关键信息的感知和利用能力。BiLSTM-Attention模块结构如图7所示。

2 多模态情感识别实验

2.1 数据集

实验数据集选用公开的多模态情感数据集CH-SIMS[32]和CMU-MOSI[33]。CH-SIMS数据集取材自60部电影、电视剧与综艺节目,包括2 281个视频片段。每个视频片段中的情感状态由5个人给予标注,以平均标注结果作为该片段的情绪状态。CMU-MOSI数据集包含YouTube上收集的90个视频,并将其人工划分为2 199个视频片段。其中,CH-SIMS数据集的情绪状态分为消极、中性和积极3种(对应标签0、1、2),CMU-MOSI数据集的情绪状态分为消极和积极2种(对应标签0、1)。同时,将数据集划分训练集、验证集和测试集。数据集信息如表1所示。

2.2 参数设置与评估指标

实验基于TensorFlow深度学习框架进行模型搭建,在NF5468型24*GPU服务器上进行模型训练。训练中采用SGD作为网络优化函数,LeakRelu作为激活函数。训练时的Batch size设置为32,Epoch=1 000,学习率为1e-4,LSTM层的隐藏层单元数量为128。为防止网络在训练中出现过拟合现象,在BiLSTM-Attention层后使用P=0.5的Dropout作为补偿。

本文采用了准确率(Accuracy,式中简记RAcc)和F1值(F1-score,式中简记F1)作为模型整体性能的评估指标。具体计算如式(13)和(14)所示。

式中:NTP表示实际与预测均为正的样本数;NFP表示实际为负但预测为正的样本数;NTN表示实际与预测均为负的样本数;NFN表示实际为正但预测为负的样本数。

2.3 组合方案讨论

为验证提出的多模态情感框架中采用的模态组合方式的有效性,本文共讨论了4种(AT-V、AV-T、TV-A、A-T-V)模态组合方案,如图8所示。

为保证实验的可靠度,4组实验均在CH-SIMS和CMU-MOSI数据集上进行验证且训练超参数保持一致,实验结果如表2所示。其中,Acc-2和Acc-3分别表示二分类和三分类的准确率。通过表2可以看出,方案1中的模态组合AT-V在2类数据集上都取得比另外3种方案更好的识别效果。其中,方案1在CH-SIMS上的Acc-3、F1分别达到了96.94%、96.67%;在CMU-MOSI上分别达到97.73%和97.52%。表明本文采用的语音和文本先进行特征融合是最优的三模态组合方式。

2.4 消融实验

2.4.1 融合方式消融实验

在确定2.3节中方案1为最优的三模态组合(AT-V)后,为验证本文提出的交叉注意力融合模块(CAF)的优势,进一步将方案1中的语音和文本特征融合的方式由Concat分别替换为Self-Attention[34]和CAF并进行消融实验。其中,Concat表示不添加注意力的简单特征拼接,Self-Attention表示自注意力融合方式,其强调相关特征的组成部分。实验结果如表3所示。

通过表3可以看出,在引入了交叉注意力后,该模型在2类数据集上的评估指标均得到了显著的提升。在CH-SIMS数据集上,Acc-3和F1值分别达到97.82%和97.33%;在CMU-MOSI数据集上,Acc-2和F1值分别达到98.18%和97.87%。相对于简单的特征拼接(Concat)的融合方式,自注意力(Self-Attention)融合方法虽在一定程度提高了系统的性能,凸显了相关的特征组成部分,但是其计算方式较为复杂,增加了模型的复杂性。相对于自注意力融合,由于交叉注意力融合(CAF)机制通过利用A-T特征之间的相互关联性,且计算方式更为简便,有效地捕获了2种模态的互补性,进一步提高了模型性能。以上结果符合本文的预期设想,证明了提出的交叉注意力能够更好地利用语音和文本间的特征互补关系,进一步提高特征融合的效果。

2.4.2 BiLSTM-Attention模块消融实验

为验证本文利用的BiLSTM-Attention模块的作用,做了3组对比实验。①FC:语音、文本与表情3种模态进行特征融合后输入到全连接层输出;②LSTM:在特征融合后通过LSTM网络输出;③BiLSTM:特征融合后通过双向LSTM输出。实验结果如表4所示。

从表4可以看出,在以上4种模型对比实验结果中,本文的BiLSTM-Attention模块在Acc和F1值上均取得了最优。在CH-SIMS数据集上较其他3种模型至少高出了0.004 5和0.001 5;在CMU-MOSI数据集上至少高出了0.004 5和0.002 2。通过以上不同模型的对比实验结果可知,本文采用的BiLSTM与Attention相结合的方法有助于更好地实现对多模态情感的分析和预测,进一步表明了该网络模块对多模态情感模型的重要性。

2.4.3 模态消融实验

為验证本文提出的网络模型的适用性,在CH-SIMS数据集分别进行了单模态、双模态及三模态7种组合的消融实验。具体的消融实验结果如表5所示。

通过表5可以观察到三模态的Acc-3和F1指标均优于单模态和双模态,效果最好。在单模态情感识别实验中,表情模态信息预测真实情感能力最强,Acc-3达到87.81%,F1达到87.26%。在双模态情感识别实验中,A+V组合效果最好,Acc-3、F1分别达到95.20%、94.64%,T+V和T+A次之。心理学家Mehrabian的研究发现,人们在日常生活中的情感信息主要是通过表情与语言传达的[35],这也与消融实验中A+V模态组合的实验结果相符。以上的消融实验不仅验证了利用语音、文本和表情进行多模态情感识别的必要性,也证明了本文提出的引入CAF思想的多模态情感融合方法的可行性和有效性。

2.5 对比实验

本节将提出的多模态模型与目前多种经典的情感模型进行对比,基线模型介绍如下。

EF-LSTM[10]:早期融合的LSTM模型。首先拼接3种模态的特征向量,然后利用LSTM对拼接后的特征进行编码。

LF-LSTM[10]:晚期融合的LSTM模型。首先LSTM编码3个模态特征向量,然后结合LSTM最后一层的隐层向量构成多模态的特征表示。

MAG-BERT[36]:多模态自适应门模型。通过提出一种多模态自适应门机制(MAG),使BERT和XLNet能够在微调过程中接受多模态数据的输入。

MuIT[14]:多模态Transformer模型。通过考虑不同模态之间的时序依赖关系,实现在非对齐数据集上的跨模态交互。

MMIM[37]:多模態分层互信息最大化框架。在多模态分析任务中引入互信息理论,最大化输入级和融合级特征表征的互信息。

MISA[38]:模态不变和模态特定表征框架。针对不同模态学习模态不变和模态特定的特征表示,对不同种类的表示向量提出分布相似性损失、重建损失、正交损失及任务预测损失。

Self-MM[15]:自监督多任务学习网络。通过一种基于自监督策略的标签生成模块获取单模态表征,并在训练阶段设计一种平衡不同任务损失的权重调整策略。

CMFIB[39]:跨模态融合与信息瓶颈模型。利用互信息估计模块优化多模态表示向量与真实标签之间的互信息下限,最小化输入数据与多模态表示向量间的互信息。

经过多次对比实验,在2类数据集上和其他基线模型的评估指标对比结果如表6所示。

由表6可知,本文提出的模型在Acc和F1值2类评估指标上要优于对比的基线模型,尤其在CMU-MOSI数据集上表现更好,Acc-2和F1指标比最优基线模型分别提升了0.116 2和0.113 7;在CH-SIMS数据集上,Acc-3和F1值比最优基线模型分别提升了0.175 4和0.170 6。该结果表明,本文设计的特征提取网络以及交叉注意力机制等组件能够有效地挖掘模态间的特征关系,增强模态间的相互依赖性。这对于多模态数据的融合和各项评估指标的提升产生了显著效果。

在上述基线模型中,EF-LSTM和LF-LSTM效果表现最差。这是因为2种模型直接拼接3种特征,保留了大量噪声,无法筛选出重要信息。本文的注意力机制能够对关键信息进行加权处理,增强其显著性,进而提升模型的性能。与MuIT和MAG-BERT相比,本文的模型的Acc指标在CH-SIMS上至少提升了约21个百分点,在CMU-MOSI上至少提升了约14个百分点。MuIT在计算模态间的依赖关系时,未考虑上下文信息,且网络结构较为复杂。MAG-BERT虽较MuIT有一定的提升,但在预训练或微调过程中需要大量的多模态数据,可能会导致模型计算困难。本文模型在情感计算时通过利用多尺度卷积核和BiLSTM网络,降低了计算量并保持了上下文时序相关性,提高了计算效率。

与MMIM和MISA相比,本文模型采用的交叉注意力融合机制更加适用于多模态识别任务,在有效利用不同模态互补特性的同时增强了模态间的相关性。与Self-MM和CMFIB相比,所提出的方法在2类数据集的评估指标上表现出色,取得了较好的效果。Self-MM在任务间特征共享方面容易过拟合某些任务,可能导致其性能的下降。CMFIB在情感分析时只能捕捉到变量之间的关联性,难以充分捕捉模态的深层情感特征。本文设计的Pconv模块利用并行架构和特定网络层降低了过拟合的风险,并有效提取了深层次的特征。

3 结语

针对当前多模态情感模型存在识别精度低等问题,本文提出了一种基于语音、文本和表情的多模态情感识别算法。该模型由Sfen网络、Pconv模块和改进的Inception-ResnetV2网络提取多模态特征,利用交叉注意力融合机制强化语音-文本双模态的关联性,并通过BiLSTM-Attention模块实现对情感的预测和分类。在CH-SIMS和CMU-MOSI数据集上的实验表明,该模型可以更好地提取模态特征并进行特征融合,显著提高情感识别的精度。接下来本研究将进一步细化情感类别,并探讨在细粒度识别任务下的多模态融合算法的架构设计。

参考文献

[1] 李霞, 卢官明, 闫静杰, 等. 多模态维度情感预测综述[J]. 自动化学报, 2018, 44(12): 2142-2159.

LI X, LU G M, YAN J J, et al. A review of multimodal dime-nsional sentiment prediction[J]. Journal of Auctomatica Sinica, 2018, 44(12): 2142-2159.

[2] RISH I. An empirical study of the naive Bayes classifier [J].Journal of Universal Computer Science, 2001, 1(2):127.

[3] 赵健, 周莉芸, 武孟青, 等. 基于人工智能的抑郁症辅助诊断方法[J].西北大学学报(自然科学版), 2023, 53(3): 325-335.

ZHAO J, ZHOU L Y, WU M Q, et al. Assistant diagnosis method of depression based on artificial intelligence [J]. Journal of Northwest University (Natural Science Edition), 2023, 53(3): 325-335.

[4] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

[5] ELMAN J L. Finding structure in time[J]. Cognitive Science, 1990, 14(2): 179-211.

[6] MAJUMDER N, HAZARIKA D, GELBUKH A, et al. Multimodal sentiment analysis using hierarchical fusion with context modeling[J]. Knowledge-Based Systems, 2018, 161: 124-133.

[7] XU D L, TIAN Z H, LAI R F, et al. Deep learning based emotion analysis of microblog texts[J]. Information Fusion, 2020, 64: 1-11.

[8] 郑剑, 郑炽, 刘豪, 等. 融合局部特征与两阶段注意力权重学习的面部表情识别[J]. 计算机应用研究, 2022, 39(3): 889-894.

ZHENG J, ZHENG C, LIU H, et al. Deep convolutional neural network fusing local feature and two-stage attention weight learning for facial expression recognition[J]. Application Research of Computers, 2022, 39(3): 889-894.

[9] DUTTA K, SARMA K K. Multiple feature extraction for RNN-based Assamese speech recognition for speech to text conversion application[C]∥2012 International Conference on Communications, Devices and Intelligent Systems. Kolkata: IEEE, 2012: 600-603.

[10]HOU M, TANG J J, ZHANG J H, et al. Deep multimodal multilinear fusion with high-order polynomial pooling[C]∥Proceedings of the 33rd International Conference on Neural Information Processing Systems. Vancouver: Curran Associates Inc.,2019:12156-12166.

[11]ZADEH A, CHEN M, PORIA S, et al. Tensor fusion network for multimodal sentiment analysis[C]∥Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Copenhagen: Association for Computational Linguistics, 2017: 1103-1114.

[12]LIU Z, SHEN Y, LAKSHMINARASIMHAN V B, et al. Efficient low-rank multimodal fusion with modality-specific factors[C]∥Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. Melbourne: Association for Computational Linguistics, 2018: 2247-2256.

[13]ZADEH A, LIANG P P, MAZUMDER N, et al. Memory fusion network for multi-view sequential learning[J].Proceedings of the AAAI Conference on Artificial Intelligence, 2018, 32(1): 5634-5641.

[14]TSAI Y H H, BAI S J, LIANG P P, et al. Multimodal transformer for unaligned multimodal language sequences[J].Proceedings of the  Conference  Association for Computational Linguistics Meeting, 2019, 2019: 6558-6569.

[15]YU W M, XU H, YUAN Z Q, et al. Learning modality-specific representations with self-supervised multi-task learning for multimodal sentiment analysis[J].Proceedings of the AAAI Conference on Artificial Intelligence, 2021, 35(12): 10790-10797.

[16]ZHAO J, ZHANG M, HE C, et al. A novel facial attractiveness evaluation system based on face shape, facial structure features and skin[J]. Cognitive Neurodynamics, 2020, 14(5): 643-656.

[17]賈宁, 郑纯军. 融合音频、文本、表情动作的多模态情感识别[J]. 应用科学学报, 2023, 41(1): 55-70.

JIA N, ZHENG C J. Multimodal emotion recognition by fusing audio, text, and expression-action[J]. Journal of Applied Sciences, 2023, 41(1): 55-70.

[18]WANG Y Y, GU Y, YIN Y F, et al. Multimodal transformer augmented fusion for speech emotion recognition[J]. Frontiers in Neurorobotics, 2023, 17: 1181598.

[19]焦亚萌, 周成智, 李文萍, 等. 融合多头注意力的VGGNet语音情感识别研究[J]. 国外电子测量技术, 2022, 41(1): 63-69.

JIAO Y M, ZHOU C Z, LI W P, et al. Research on speech emotion recognition with VGGNet incorporating multi-headed attention [J]. Foreign Electronic Measurement Technology, 2022, 41(1): 63-69.

[20]ZHANG Y M, SUN M H, REN Y, et al. Sentiment analysis of sina weibo users under the impact of super typhoon lekima using natural language processing tools: A multi-tags case study[J]. Procedia Computer Science, 2020, 174: 478-490.

[21]劉亚姝, 侯跃然, 严寒冰. 基于异质信息网络的恶意代码检测[J]. 北京航空航天大学学报, 2022, 48(2): 258-265.

LIU Y S, HOU Y R, YAN H B. Malicious code detection based on heterogeneous information networks[J]. Journal of Beijing University of Aeronautics and Astronautics, 2022, 48(2): 258-265.

[22]邱世振, 白靖文, 张晋行, 等. 基于六轴机械臂驱动的微波球面扫描成像系统[J]. 电子测量与仪器学报, 2023, 37(4): 98-106.

QIU S Z, BAI J W, ZHANG J X, et al. Microwave spherical scanning imaging system driven by six-axis manipulator [J]. Journal of Electronic Measurement and Instrumentation, 2023, 37(4): 98-106.

[23]KU H C, DONG W. Face recognition based on MTCNN and convolutional neural network[J]. Frontiers in Signal Processing, 2020, 4(1): 37-42.

[24]付而康, 周佳玟, 姚智, 等. 基于机器视觉识别的户外环境情绪感受测度研究[J]. 景观设计学(中英文), 2021, 9(5): 46-59.

FU E K, ZHOU J C, YAO Z, et al. A study on the measurement of emotional feelings in outdoor environments based on machine vision recognition[J]. Landscape Architecture Frontiers, 2021, 9(5): 46-59.

[25]ZHANG K, SUN M, HAN T X, et al. Residual networks of residual networks: Multilevel residual networks[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2018, 28(6): 1303-1314.

[26]DING W, HUANG Z Y, HUANG Z K, et al. Designing efficient accelerator of depthwise separable convolutional neural network on FPGA[J]. Journal of Systems Architecture, 2019, 97(C): 278-286.

[27]梁宏涛, 刘硕, 杜军威, 等. 深度学习应用于时序预测研究综述[J]. 计算机科学与探索, 2023, 17(6): 1285-1300.

LIANG H T, LIU S, DU J W, et al. Research review on application of deep learning to time series prediction [J].Journal of Frontiers of Computer Science and Technology, 2023, 17(6): 1285-1300.

[28]焦义, 徐华兴, 毛晓波, 等. 融合多尺度特征的脑电情感识别研究[J]. 计算机工程, 2023, 49(5): 81-89.

JIAO Y, XU H X, MAO X B, et al. Research on EEG emotion recognition by fusing multi-scale features[J]. Computer Engineering, 2023, 49(5): 81-89.

[29]XU Y R, SU H, MA G J, et al. A novel dual-modal emotion recognition algorithm with fusing hybrid features of audio signal and speech context[J]. Complex & Intelligent Systems, 2023, 9(1): 951-963.

[30]王蘭馨, 王卫亚, 程鑫. 结合Bi-LSTM-CNN的语音文本双模态情感识别模型[J]. 计算机工程与应用, 2022, 58(4): 192-197.

WANG L X, WANG W Y, CHENG X. Combined Bi-LSTM-CNN for speech-text bimodal emotion recognition model[J]. Computer Engineering and Applications, 2022, 58(4): 192-197.

[31]祁宣豪, 智敏. 图像处理中注意力机制综述[J].计算机科学与探索,2024,18(2):345-362.

QI X H, ZHI M. A review of attention mechanisms in image processing [J].Journal of Frontiers of Computer Science and Technology, 2024,18(2):345-362.

[32]YU W M, XU H, MENG F P, et al. CH-SIMS: A Chinese multimodal sentiment analysis dataset with fine-grained annotation of modality[C]∥Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Online: Association for Computational Linguistics, 2020: 3718-3727.

[33]ZADEH A, ZELLERS R, PINCUS E, et al. MOSI: Multimodal corpus of sentiment intensity and subjectivity analysis in online opinion videos[EB/OL].(2016-08-12)[2023-09-25].http:∥arxiv.org/abs/1606.06259.

[34]ZHANG X C, QIU X P, PANG J M, et al. Dual-axial self-attention network for text classification[J]. Science China Information Sciences, 2021, 64(12): 80-90.

[35]WANG Y, SONG W, TAO W, et al. A systematic review on affective computing: Emotion models, databases, and recent advances[J]. Information Fusion, 2022, 83/84: 19-52.

[36]RAHMAN W, HASAN M K, LEE S W, et al. Integrating multimodal information in large pretrained transformers[J].Proceedings of the Conference Association for Computational Linguistics  Meeting,  2020, 2020: 2359-2369.

[37]HAN W, CHEN H, PORIA S. Improving multimodal fusion with hierarchical mutual information maximization for multimodal sentiment analysis[EB/OL].(2021-09-16)[2023-09-25].http:∥arxiv.org/abs/2109.00412.

[38]HAZARIKA D, ZIMMERMANN R, PORIA S. MISA: Modality-invariant and-specific representations for multimodal sentiment analysis[C]∥Proceedings of the 28th ACM International Conference on Multimedia. Seattle: ACM, 2020: 1122-1131.

[39]程子晨, 李彦, 葛江炜, 等. 利用信息瓶颈的多模态情感分析[J]. 计算机工程与应用, 2024, 60(2):137-146.

CHENG Z C, LI Y, GE J W, et al. Multi-modal sentiment analysis using information bottleneck [J].Computer Engineering and Applications, 2024, 60(2):137-146.

猜你喜欢
多模态
多模态视角下《星际穿越》的存在哲学隐喻解读
基于多模态视角的多元化大学英语课程体系设计
多模态语境下大学英语词汇教学模式探讨
多模态话语中的詹姆斯·卡梅隆电影
网络环境下大学英语多模态交互式阅读教学模式研究
多模态理论视角下大学英语课堂的构建
新媒体环境下多模态商务英语课堂教师角色定位
多模态大学英语写作教学模式研究
探析多模态环境对提高大学生阅读能力的影响
英语文化PPT课件的多模态整合研究