基于方面-词性感知的方面级情感分析

2024-03-21 08:15夏卫欢廖列法张守信张燕琴
计算机工程 2024年3期
关键词:语义语法卷积

夏卫欢,廖列法,2,张守信,张燕琴

(1.江西理工大学信息工程学院,江西 赣州 341000;2.江西理工大学软件工程学院,江西 南昌 333000)

0 引言

方面级情感分析(ABSA)已成为当下自然语言处理(NLP)的研究热点。随着互联网的发展,电商等线上平台发展迅猛,越来越多的用户在网上分享对产品的意见,决策者需要根据用户的评论信息对产品进行优化。然而,由于用户评论文本的不规范及其复杂结构,因此传统的情感分析难以准确且快速地判断其中包含的情感信息。针对产品特定方面的评论信息进行分析,符合方面级情感分析任务能够判断句子中特定方面的情感极性特点,因此受到广泛关注,具有重要的研究意义。

早期的方面级情感分析研究大多是基于统计和规则的方法,如情感词典等。此类方法需要大量人工参与词典的构建以及特征规则的设计,模型效果很大程度上依赖于手工标注数据的质量,达不到预期的目的,方法的适用性也较差。随着深度学习广泛应用在自然语言处理中,经典的序列循环神经网络(RNN)模型因其能建模序列数据的特性常被用于方面级情感分析任务中提取句子的语义信息。此外,卷积神经网络因其能够提取局部信息特征也被用于建模上下文语义信息[1-2]。文献[3]使用长短期记忆(LSTM)网络捕获上下文语义信息并进行方面级的情感极性分类。然而单一的序列模型无法自动关注上下文中重要的语义信息,文献[4]将注意力机制与长短期记忆网络相结合,并使用方面嵌入进行情感极性预测。文献[5]分别建模上下文和方面词,设计一种交互注意力机制检索方面词和上下文两者之间的相互注意力分数贡献,取得不错的效果。此外,文献[6-8]探索并设计多种注意力机制并应用于方面级情感分析任务。但是,序列模型和注意力机制及其组合模型无法建模句子本身的长距离依赖关系。文献[9]使用图卷积网络(GCN)学习句子依存句法树上的词间长距离依赖关系。文献[10]通过多头注意力编码层学习语义信息,并结合图卷积网络进行方面级情感分析。文献[11]使用语法距离信息加权对图卷积网络的邻接矩阵进行加权,并使用多交互注意力机制将句子语义和语法信息进行融合。图卷积网络在方面级情感分析中的应用表现出较优的性能。然而,由于方面级情感分析语料的不规范性,因此仅考虑特定方面词与上下文之间的依赖关系可能会造成情感极性的误判。同时,因方面级情感分析任务的特性,如何学习有效的上下文语义和语法信息成为其关键所在。

本文提出一种基于方面-词性感知的图卷积网络ASP_POSGCN。利用方面词嵌入和上下文词性信息对上下文语义信息进行感知,使模型能够充分挖掘与方面词和特定词性相关的情感意见词的语义信息;根据特定词性单词对方面的情感贡献及其位置信息重构依存句法树,设计1 个双通道图卷积网络和多图感知机制,同时建模原始和重构后的依存句法树中的依赖关系;本文在4 个公开数据集上对ASP_POSGCN 模型性能进行评估。实验结果表明,相较于经典的基线模型和主流的利用图卷积网络的方法,所提模型在4 个数据集上的准确率和宏F1 值均有提升。消融实验结果说明了方面-词性感知以及重构句法依存树对情感极性分类的重要性。

1 相关工作

1.1 方面级情感分析

方面级情感分析属于细粒度情感分析范畴,与篇章级和句子级等粗粒度情感分析不同,方面级情感分析旨在分析判断句子中特定方面的情感极性。例如,给定1 条语句“great food but the service was dreadful.”,其中“food”和“service”分别为给定的积极和消极方面词,粗粒度情感分析无法准确识别其中包含的情感信息。在电子商务、服务业、健康医疗和金融等领域,文献[12]研究表明方面级情感分析在一定程度上能够为企业和组织提供强大的决策支持,相较于粗粒度情感分析,具有重要的研究价值和实际意义。

1.2 词性信息

词性(POS)信息是句子中单词本身具有的特征,对于理解句子起到了决定性的作用。在方面级情感分析中,一些特定词性的单词决定了给定方面的情感极性。在句子“great food but the service was dreadful.”中,形容词“great”决定了方面词“food”的积极情感,形容词“dreadful”决定了“service”消极情感。文献[13]通过对方面级情感分析数据集进行词性统计发现,大多数影响方面词情感倾向的是形容词、副词和动词等意见词。如何利用词性信息成为研究的关键,文献[14]将词性标签直接输入到模型中用于情感分类。文献[15-16]设计门控机制,利用词性嵌入过滤上下文信息。然而以上大多数研究仅考虑词性对语义信息的影响,忽略了其在理解语法信息中的作用。

1.3 图卷积网络

近年来,图神经网络特别是图卷积网络在方面级情感分析中取得了优异的成果。文献[9]将图卷积网络引入到方面级情感分析任务中,通过建模句子的依存句法树捕获语法信息,关注方面词及其长距离上下文依赖关系。文献[17]设计类型感知图卷积网络学习词间依赖关系。文献[18]将SenticNet 情感词典知识融合到句法依赖图中增强情感意见词的作用。文献[19]构造1 个双重图卷积神经网络来关注词间共现关系。尽管图卷积神经网络在方面级情感分析任务中已经成为主流研究方法,但是大多数研究忽略词性信息及其在句子中与方面词的相对距离对于方面情感的贡献。

2 模型架构

本文所提的方面-词性感知图卷积网络ASP_POSGCN架构如图1 所示。模型由词嵌入、语义提取、方面-词性感知、语法提取和情感分类器组成。首先在词嵌入层中使用GloVe 词向量来表示句子;然后在语义提取部分使用双向长短期记忆网络建模上下文信息,并利用方面嵌入和词性信息对上下文语义信息进行过滤,在语法提取部分使用双通道图卷积神经网络分别建模原始句法依赖矩阵和重构句法依赖矩阵,将多图感知机制应用于2 个单通道的输出;最后将语义和语法特征的最终表示计算注意力得到方面级的情感预测概率值。

图1 ASP_POSGCN 模型结构Fig.1 Structure of ASP_POSGCN model

2.1 词嵌入与语义提取

给定1 个长度为n的句子s,s={w1,w2,…,wn},包括长度为m的方面词a={wt+1,wt+2,…,wt+m},其中a是s的子序列。在词嵌入部分中,使用GloVe 词向量将s中的每个单词映射成低维向量wi∈R|V|,其中|V|是词汇表的大小。利用双向长短期记忆网络提取句子的语义信息Hi=[hl;hr]。hl和hr分别为 方向相反的单层长短期记忆网络,其结构如图2 所示。

图2 长短期记忆网络结构Fig.2 Structure of long short-term network

ft、it和ot分别为 遗忘门、输入门 和输出 门,信 息更新方式如式(1)~式(6)所示:

其中:xt和Ct-1分别表示模型当前时刻的输入和上一时刻的记忆细胞状态;σ 为Sigmoid 激活函数;W和b分别表示可学习的权重和偏置矩阵;tanh 为双曲正切函数。

上一时刻的记忆细胞状态Ct-1和当前时刻信息被共同输入到长短期记忆网络中,经过it,ft和ot门控机制后得到当前时刻的输出ht和当前时刻的记忆细胞状态Ct。

图3 所示为双向长短期记忆网络结构,通过拼接2 个单向长短期记忆网络的输出hl和hr可以得到句子s的语义信息Hi={h1,h2,…,hn},其中hi∈R2d,d为单向长短期记忆网络的隐藏层维度。

图3 双向长短期记忆网络结构Fig.3 Structure of bi-directional long short-term network

考虑到单词与方面词的相对距离对其情感的影响,本文采用位置编码建模单词与方面词的距离信息。为每个上下文单词赋予不同权重,权重大小与上下文和方面词的相对距离成正比,权重计算式如式(7)和式(8)所示:

其中:n为句子s的长度;[t+1,t+m]为方面词序列索引值区间;pi表示句子s中单词i的权重值。利用位置编码将上下文相对于方面词位置信息融入其自身语义信息中,Hi将作为最终的语义信息输入到图卷积网络中。

2.2 方面-词性感知

文献[20]研究发现,在方面级情感分析中40%的误差是由于未考虑到方面词本身造成的。因此,为了同时关注方面词本身以及上下文词性信息,本文设计方面-词性感知机制,使用方面词嵌入和词性信息的隐藏层状态并借助门控机制来实现。

首先利用方面感知门控机制计算语义信息Hi和方面嵌入ei的相关性,计算式如式(9)~式(11)所示:

其中:Wa∈R2d,Wt∈R2d,ba∈R2d和bt∈R2d分别表 示可学习的参数权重和偏置矩阵;σ 表示Sigmoid 激活函数;ei∈Rd为方面词嵌入;Zi={z1,z2,…,zn}为句子s经由方面感知门控机制后的语法信息,过滤上下文中与当前方面词不相关的信息,避免引入不必要的噪声,其中zi∈R2d。

句子中特定词性的单词与方面词情感极性有直接联系,词性感知部分通过门控机制可以进一步筛选出方面感知输出中特定词性的上下文信息。具体地,将单词的词性嵌入输入到双向长短期记忆网络中,得到词性信息隐层状态Hp∈R2d用于词性感知门控计算,如式(12)所示:

其中:tanh为双曲正切函数;Wp∈R2d表示可学习的权重;Z∈R2d表示方面感知的输出。最终得到方面-词性感知的输出Hp将与之后的图卷积网络的输出计算注意力送入情感分类器中。

2.3 语法提取

2.3.1 依存句法树重构

近年来,依存句法分析被用于方面级情感分析中,不仅能够捕获长距离上下文与方面词的关系,还能提供句子的语法信息有利于指导模型进行情感极性预测。然而,因公开语料库中句子的不规范导致在进行依存句法分析时产生误差,从而引入噪声信息。为缓解这种现象,本文结合方面词和词性信息对依存句法树进行重构。

词性信息是句子本身带有的特征,文献[13,15]研究表明形容词、副词和动词等词性的单词对给定方面的情感倾向影响较大。基于此,本文对原始依存句法树中的词间依赖关系进行重构。首先,利用spaCy 自然语言处理工具包生成原始依存句法树。原始依存句法树如图4 所示。

图4 原始依存句法树Fig.4 Primitive dependency syntax tree

原始依存句法树包含单词之间的长距离依赖关系,为此构建原始句法依赖矩阵Ai,j∈Rn×n,如式(13)所示:

之后,根据上下文词性对依赖关系进行重构,将方面词作为根节点指向其情感相关上下文单词,并替换原始依存句法树中的依赖关系为上下文单词词性。依存句法树重构如图5 所示。

图5 依存句法树重构Fig.5 Reconstruction of dependency syntax tree

最后在生成句法依赖矩阵时根据上下文单词的词性及其与方面词的距离赋予其不同权重。权重计算式如式(14)和式(15)所示:

具体的重构流程如算法1 所示。

算法1方面-词性感知矩阵算法

在算法1 中词性列表选择形容词、副词和动词。经过重构后的方面-词性矩阵Mi,j不仅融合上下文中特定词性单词的位置和词性信息,在一定程度上缓解了因句法解析错误带来的情感极性误判,同时融合词性信息的句法依赖矩阵能更好地指导模型在提取语法时专注于和方面词直接相关的情感意见词。

2.3.2 多图感知机制

在语法提取初期,本文分别构建原始句法图和方面-词性感知图,以获取句子内部语法关联。为改善以上2 种图之间的语法和句法依赖关系,利用多图感知机制捕获不同图之间无法捕获的依赖关系信息,以减少信息的重叠。具体的感知机制如式(16)和式(17)所示:

其中:Gsyn和Gap分别表示原始依赖图和方面-词性感知图;R表示多图感知;Regular(Gsy‖nGap)表示Gsyn和Gap之间的异构信息;KL 表示Kullback-Leibler 散度。多图感知机制能够考虑两者之间的相似度。如果两者相似度较高,则倾向于0;否则,则倾向于1。

2.3.3 双通道图卷积网络

图卷积网络常被用于建模长距离语法依赖关系。文献[9]使用2 层图卷积网络建模句子句法依赖矩阵。为了同时建模原始依存句法树和重构依存句法树,本文设计1 个双通道图卷积网络,分别为Syn-GCN 和AP-GCN。Syn-GCN 和AP-GCN 计算均使用KIPF等[21]改进的通过归一化来更新节点图卷积网络。

在Syn-GCN 中使用原始句法依赖矩阵Ai,j进行计算,对于第i个节点,将其标记为,其输出为具体计算式如式(18)和式(19)所示:

其中:Wl∈R2d和bl∈R2d分别为可学习的权重和偏置矩阵∈R2d为节点i的l-1 层输出∈R2d为节点i的第l层输出;di∈Rn×n为矩阵Ai,j的度矩阵。

在AP-GCN 中使用重构后的句法依赖矩阵Mi,j进行计算,与Syn-GCN 类似,使用位置编码后的语义信息hi作为初始节点信息,具体计算式如式(20)和式(21)所示:

其中:Wl∈R2d和bl∈R2d表示可学习的参数权重和偏置矩阵;∈R2d为节点i的l-1 层输出;∈R2d为节点i的第l层输出;di∈Rn×n为矩阵Mi,j的度矩阵。

经过双通道图卷积网络后得到原始依赖图和方面-词性感知图的隐藏表示为结合两者来提取语义和句法依赖,并采用多图感知机制以减轻重叠信息,计算如式(22)所示:

其中:α为特征相关系数。为获取特定方面的语法信息,利用Mask 掩码层对非特定方面的语法特征进行屏蔽。具体地,保持特定方面的语义信息不变,将非特定方面的语义信息设为0,如式(23)所示:

经过Mask 掩码层得到句子s特定方面的最终语法表示

2.4 情感分类器

为了检索句子s语义信息与语法信息的相关性,使用多图感知机制后的掩码输出hli和zi计算注意力,具体计算式如式(24)~式(26)所示:

得到最终分类表示γ∈R2d后使用1 个全连接层映射得到输出x,通过Softmax 获取方面a情感极性c的概率值p,如式(27)所示:

其中:Wp和bp表示可学习的参数权重和偏置。使用结合L2 正则化的交叉熵损失函数进行训练,如式(28)所示:

其中:C表示输出的情感极性分类空间;λ表示L2 正则化系数;Θ表示模型训练的参数。

3 实验与结果分析

3.1 数据集与词性标注

为验证本文所提ASP_POSGCN 模型的性能,在Twitter-SemEval2014 task4 中 的Laptop14,Restaurant14和SemEval2016 task5 中 的Restaurant16 这4 个方面级情感分析公共数据集上进行实验。每个数据集都包含若干条中立、积极和消极3 种类型的语句。数据集规模如表1 所示。

表1 数据集规模Table 1 Dataset size 单位:条

此外,本文提出的ASP_POSGCN 模型使用NLTK 自然语言处理工具包对数据集进行词性标注预处理,用于模型的词性感知部分。

3.2 评估指标

本文采用准确率(Acc,计算中用A)和宏F1 值对模型实验效果进行评估,准确率和宏F1 值(计算中用F1)的定义如式(29)~式(32)所示:

其中:TTP为正样本预测正确数量;TTN为正样本预测错误数量;FFP为负样本预测正确数量;FFN为负样本预测错误数量;P为精准率,表示正确预测的正样本占实际预测正样本的比例;R为召回率,表示正确预测的正样本占总正样本的比例。

3.3 实验设置

本文实验使用预训练的300 维度GloVe 词向量生成词嵌入以及不同维度的词性嵌入进行实验,模型的所有参数初始化均采用均匀分布。双向长短期记忆网络的隐藏层维度为300,使用Adam 优化器进行参数优化,采用L2 正则化和Dropout 防止模型过拟合,针对不同数据集达到最优实验效果的参数不同,模型的学习率和相关参数取值不同。具体实验参数以及实验平台配置如表2 和表3 所示。

表2 模型参数设置Table 2 Model parameters setting

表3 实验平台配置Table 3 Experimental platform configuration

3.4 结果分析

为验证本文提出的ASP_POSGCN模型的可行性,本文在Twitter、Laptop14、Restaurant14和Restaurant16数据集上进行对比实验和消融实验。

3.4.1 对比实验

将本文所提ASP_POSGCN 与如下方面级情感分析基线模型和主流研究方法进行对比。

LSTM[3]:使用长短期记忆网络建模语义信息并使用其输出的隐藏层状态进行情感极性预测。

ATAE-LSTM[4]:采用方面词嵌入,将长短期记忆网络与注意力机制相结合用于方面级情感分析。

MemNet[22]:结合具有位置特征注意力机制和深度记忆网络进行方面级情感分析。

IAN[7]:通过长短期记忆网络分别建模上下文和方面词,设计一种交互注意力机制生成上下文和方面词表示并拼接作为最终分类表示。

AOA[23]:借鉴机器翻译中的注意-过度注意思想,联合建模方面词和上下文,通过计算逐行和逐列式注意力得到上下文相对于方面词的加权表示。

ASGCN[9]:使用图卷积网络建模句子语法信息用于方面级情感分析。

BiGCN[19]:将句子中单词共现信息整合到句法依赖图中以增强其表征能力。

AEGCN[10]:结合注意力编码器与图卷积网络分别建模句子语义和语法信息后拼接作为句子最终情感分类表示。

ATGCN[24]:通过多头注意力计算上下文嵌入和方面嵌入的相关性,结合图卷积网络进行方面级情感极性分类。

MIGCN[11]:使用语法距离信息加权对图卷积网络的邻接矩阵进行加权,并使用交互注意力机制使模型同时关注词间语义和语法信息。

PGGCN[16]:分别建模词嵌入和词性嵌入,并使用门控机制将两者的LSTM 输出进行融合与图卷积网络的输出计算注意力分数。

ASP_POSGCN:本文提出的方面-词性感知图卷积网络,同时关注方面嵌入和词性信息在语义和语法中对方面情感极性的贡献。

不同模型的实验结果如表4 所示,加粗表示最优数据。

表4 不同模型的评价指标对比Table 4 Evaluation indicators comparison among different models %

从表4 可以看出,基于序列建模的LSTM 模型以及结合注意力机制的ATAE-LSTM 和MemNet 模型的效果普遍较差,因其模型架构仅考虑了上下文语义部分,无法有效预测情感极性。IAN 和AOA 模型在建模上下文时同时考虑方面词信息,通过设计注意力机制有效地提取与方面词相关的上下文语义信息,在4 个数据集上的准确率和F1 值相较于单一语义建模的模型有明显提升,说明方面信息有助于检索上下文语义信息。基于图卷积网络的模型充分考虑了语法信息在理解句子时的作用,实验效果相较于单一语义建模的模型也大幅提升。相较于ASGCN 模 型,BiGCN 在Twitter 数据集 上的准确率和F1 值分别提升2.01 和2.95 个百分点,在Restaurant14 数据集上提升1.20 和1.46 个百分点,说明词间共现信息在一定程度上能够强化词间的依赖关系。AEGCN 模型的性能相较于ASGCN 在Twitter、Laptop14 和Restaurant14 数据集 上均得到提升,说明结合注意力编码序列模型的上下文语义信息的表征能力要优于单一的序列模型。ATGCN 模型通过多头注意力机制计算方面嵌入与上下文嵌入的相关性,在Restaurant14 数据集上的准确率和F1值比AEGCN 分别提升0.81 和1.99 个百分点,说明考虑方面信息有助于模型性能的提升。MIGCN 相比于ASGCN 模型,在4 个数据集上准确率平均提升1.07 个百分点,F1 值平均提升2.47 个百分点,说明加权图卷积网络有利于增强依赖关系,多交互注意力机制有利于文本语义和语法的特征融合。与ASGCN相 比,PGGCN 在Twitter、Laptop14、Restaurant14 和Restaurant16 数据集上的准确率和F1 值均有明显提升,证明词性门控机制的有效性。ASP_POSGCN 相较于利用依存句法树构建邻接矩阵的ASGCN 模型,在4 个数据集上的准确率分别为74.57%、79.15%、83.84% 和91.23%,F1 值分别 为72.59%、75.76%、77.00%和77.11%,其中准确率平均提升2.83 个百分点,F1 值平均提升了5.38 个百分点。方面-词性感知邻接矩阵充分考虑了方面词和特定POS 的单词及其相对距离对情感的影响,使得ASP_POSGCN 在4 个数据集上均取得或接近最优的效果。

3.4.2 消融实验

为验证ASP_POSGCN 模型中各个模块对方面情感极性的影响,本文设计1 组消融实验。其中w/o ap表示仅去掉方面感知部分;w/o pp 表示仅去掉词性感知部分;w/o ap-gcn 表示仅去掉重构依存句法树分支部分;w/o mgp 表示去掉多图感知机制,即使用方面-词性感知的输出分别与双通道GCN 输出计算注意力并拼接作为最终表示。消融实验结果及统计图如表5、图6 和图7 所示,加粗表示最优数据。实验结果表明,方面-词性双感知机制的效果优于单一感知机制,重构后的句法依赖图充分挖掘和利用原始依存句法图中忽略的方面词和特定词性间的依赖关系,多图感知机制能够捕获原始依存句法图和方面-感知依存图的异构信息,从而有助于模型性能的提升。此外,本节分别对特征相关系数α、词性嵌入维度pos_dim 和GCN 层数进行消融实验。

表5 消融实验结果Table 5 Ablation experimental results %

图6 消融模型与准确率的关系Fig.6 The relationship between ablation models and accuracy

图7 消融模型与F1 值的关系Fig.7 The relationship between ablation models and F1 value

3.4.3 特征相关系数α消融实验

在多图感知机制中,特征相关系数α的值反映不同数据集对原始依存句法图和方面-词性感知依存图的敏感程度。因此,对特征相关系数α进行消融实验,其中α的取值为(0,1]。特征相关系数α与准确率和F1 值的关系如图8 和图9 所示。

图8 特征相关系数α 与准确率的关系Fig.8 The relationship between characteristic correlation coefficient α and accuracy

图9 特征相关系数α 与F1 值的关系Fig.9 The relationship between characteristic correlation coefficient α and F1 value

当α从0.1 增加到1.0 的过程 中,ASP_POSGCN在4 个数据集上的准确率变化较F1 值相对平缓。当α取值 为0.5 时,Twitter 和Restaurant14 数据集的准确率和F1 值均达到最大值,而Laptop14 和Restaurant16 数据集均在α取值为1 时达到最大值,说明不同的数据集对于方面-词性感知图中的信息关注程度不同。

3.4.4 词性嵌入维度消融实验

在方面-词性感知机制中,词性嵌入维度会影响学习到的上下文语义特征质量。为此,本文对词性嵌入维度进行消融实验,词性维度设置为pos_dim∈{20,25,30,35,40}。词性嵌 入维度 与准确率和F1 值的关系如图10 和图11 所示。

图10 词性嵌入维度与准确率的关系Fig.10 The relationship between the embedding dimension of part-of-speech and accuracy

图11 词性嵌入维度与F1 值的关系Fig.11 The relationship between the embedding dimension of part-of-speech and F1 value

从图10 可以看出,当词性嵌入维度发生变化时,ASP_POSGCN 的准确率出现了小范围的浮动,说明数据集准确率对词性嵌入维度敏感程度较小。从图11 可以看出,当词性嵌入维度设置为30 时,ASP_POSGCN 在4 个数据集上的F1 值均达到最大值。其中,Laptop14、Restaurant14 和Restaurant16 数据集的F1 值随着词性嵌入维度改变发生较大程度的波动,说明Laptop14、Restaurant14 和Restaurant16 数据集的F1 值对词性嵌入维度较为敏感。

3.4.5 GCN 层数消融实验

为验证图卷积网络层数对实验结果的影响,本文设置图卷积网络层数L∈{1,2,3,4,5,6,7,8}进行消融实验。GCN 层数与准确率和F1 值的关系如图12 和图13 所示。

图12 GCN 层数与准确率的关系Fig.12 The relationship between GCN layers and accuracy

图13 GCN 层数与F1 值的关系Fig.13 The relationship between GCN layers and F1 value

当GCN 层数为2 层 时,ASP_POSGCN 模型在Twitter、Laptop14、Restaurant14 和Restaurant16 数 据集上的准确率和F1 值均达到最优。随着GCN 层数的增加,ASP_POSGCN 在4 个数据集上的性能都呈现下降趋势,其原因可能为随着GCN 层数的增加,模型参数量随之增加,导致过拟合现象的发生。

4 结束语

本文提出一种方面-词性感知图卷积网络。利用方面嵌入和词性信息感知上下文语义特征,同时重构句子依存句法树构建方面-感知邻接矩阵以增强词间依赖关系,并使用多图感知机制捕获两者异构信息,通过双通道图卷积网络进行建模,最后将方面-词性感知上下文语义信息和语法信息计算注意力作为分类特征表示。实验结果表明,方面-词性感知机制有助于提取情感相关的上下文语义信息,同时本文提出的重构依存句法图邻接矩阵和多图感知机制是有效的。实验结果表明,ASP_POSGCN 模型在公开数据集上的准确率和F1 值优于基线模型和一些主流的研究方法。下一步将考虑利用词间依赖标签以达到增强模型语法表征能力的效果。

猜你喜欢
语义语法卷积
基于3D-Winograd的快速卷积算法设计及FPGA实现
语言与语义
从滤波器理解卷积
跟踪导练(二)4
基于傅里叶域卷积表示的目标跟踪算法
Book 5 Unit 1~Unit 3语法巩固练习
“上”与“下”语义的不对称性及其认知阐释
认知范畴模糊与语义模糊
一种基于卷积神经网络的性别识别方法
语义分析与汉俄副名组合