解纠缠邻域信息聚合的知识图谱补全方法

2024-05-24 04:45马浩凯祁云嵩吴宇斌
计算机应用研究 2024年3期
关键词:注意力机制

马浩凯 祁云嵩 吴宇斌

摘 要:针对现有基于图神经网络的知识补全模型在处理知识图谱异构性上的不足,及大部分模型采用单一静态实体表示方式导致的模型表达能力受限问题,提出一种基于图注意力网络的解纠缠邻域信息聚合模型。首先,该模型通过学习每个实体的解纠缠表示,对实体的潜在影响因子进行多组件表示。其次,利用注意力机制,为两个相连的实体选择最具影响力的潜在影响因子作为连接要素。接着,通过关系感知注意力机制自适应地聚合实体因子级的邻域消息,有效地减少了在信息聚合过程中不相关信息的相互干扰,进而显著增强了模型的语义表达能力。此外,为了使模型在评分过程中关注与给定关系最相关的实体组件,进一步引入了一个自适应评分系数,使模型能够自适应地感知给定的关系与实体不同组件的关联度。实验结果显示,提出的模型在WN18RR和FB15K-237数据集的知识图谱补全任务上相较其他先进基线模型表现更优,并显著地增强了模型的表达能力。

关键词:知识图谱补全; 图神经网络; 解纠缠邻域信息; 注意力机制

中图分类号:TP391   文献标志码:A

文章编号:1001-3695(2024)03-018-0772-07

doi:10.19734/j.issn.1001-3695.2023.07.0294

Knowledge graph completion method for disentangledneighborhood information aggregation

Ma Haokai, Qi Yunsong, Wu Yubin

(School of Computer, Jiangsu University of Science & Technology, Zhenjiang Jiangsu 212000, China)

Abstract:Addressing the shortcomings of existing knowledge completion models based on graph neural networks in handling the heterogeneity of knowledge graphs and the limitations posed by most models adoption of a single static entity representation, this paper introduced a model based on the graph attention mechanism for disentangled neighborhood information aggregation. Initially, this paper learnt the disentangled representation of each entity, providing a multi-component representation for the latent influential factors of entities. Using the attention mechanism, the model selected the most influential latent factors as connection elements for two connected entities. Subsequently, by leveraging a relation-aware attention mechanism, the model adaptively aggregated neighborhood messages at the entity factor level, effectively reducing interference from irrelevant information during aggregation and significantly enhancing the models semantic representation capability. Moreover, to focus on the most relevant entity component in the scoring process with a given relation, this paper introduced an adaptive scoring coefficient, enabling the model to perceive the relevance between the given relationship and various entity components adaptively. Experimental results on the WN18RR and FB15K-237 datasets indicate that the proposed model outperforms other advanced baseline models in knowledge graph completion tasks, substantially enhancing the models expressive power.

Key words:knowledge graph completion; graph neural network; disentangled neighborhood information; attention mechanism

0 引言

知识图谱(KG)是真实世界信息的结构化映射,用于描述实体或概念间的关联。KG的应用遍及多个领域,如问答系统[1]、信息检索[2]和基于内容的推薦系统[3]等。随着技术的发展,知识图谱越来越普及,当前流行的大型KG有WikiData[4]、Google KG[5]等,然而即使是这些拥有上百万个实体和数十亿个事实的大型知识图谱也不可避免地存在知识不完整性问题。因此,知识图谱补全(knowledge graph completion,KGC)技术被提出,用来解决KG中知识不完整性问题。目前,知识图谱嵌入技术(knowledge graph embedding,KGE)已经成为知识图谱补全任务的主流方法。知识图谱嵌入模型主要有平移距离模型[6~10]、双线性模型[11~14]和神经网络模型[15~30]三类。平移距离模型以TransE[6]为代表,它以转换关系将头实体映射到尾实体,但对复杂关系和多语义问题处理能力有限,因此出现了TransG [7]、TransH[8]、TransR[9]、TransD[10]等改进模型。双线性模型,如DistMult[11],以二维矩阵形式表示关系嵌入,但其不能对非对称关系建模,后期研究者提出ComplEx[12]、Ana-logy[13]、SimplE[14]等模型以增强对非对称关系建模的能力。

平移距离模型[6~10]和双线性模型[11~14]主要挖掘实体间的线性关系,对知识图谱中的潜在信息挖掘能力不足。传统的神经网络模型[15,16,26]因能有效挖掘KG中的潜在信息,逐渐成为研究焦点,例如ConKB[15]、ConvE[16]等模型。其中ConvE[16]模型将头实体和关系拼接重塑为二维矩阵,然后使用卷积滤波器对重塑的二维矩阵进行卷积操作,提取实体与关系交互的特征信息,并将特征信息传递到密集层,最后将输出与尾实体的嵌入进行点积,从而得到事实三元组的得分。然而,传统的神经网络模型不能有效挖掘KG中的实体邻域信息,而图神经网络(graph neural network,GNN)[17~25,27~30]已经被证明能够有效挖掘实体的邻域信息,因此,越来越多基于图神经网络的知识图谱嵌入模型被提出,最早的图神经网络模型之一是图卷积网络(graph convolutional network,GCN)[17],它通过利用邻域实体的信息来更新每个实体的表示。GCN考虑了实体与其一阶邻域实体之间的关系,取得了优异的性能。随后,提出了GraphSAGE[18],通过采样邻居节点的方式,使得模型在大规模图上更具可扩展性。然而在图卷积网络模型中,分配给中心实体的所有邻域实体的权值都是相等的,这显然不利于捕獲节点之间的复杂关系。因此,研究人员将注意力机制与GCN[17]相结合,提出了图注意力网络(graph attention network,GAT)[19],GAT利用注意力机制为每个邻居分配不同的权重,能够更好地捕获节点之间的复杂关系。在GAT的基础上,KBGAT[20]将关系纳入嵌入过程,能够更好地捕捉实体和关系之间的复杂依赖关系。为了适应知识图谱具有异构性的特点,RGHAT[21] 、MRGAT[22]和HRAN[23]模型开始关注关系对知识图谱异构性的影响。其中:RGHAT将实体的局部邻域视为一个层次结构,使用注意力机制分层捕获邻域实体与关系的依赖程度,使实体聚合更加细粒度化,同时提高了模型的可解释性;MRGAT设计了一种能够适应异构多关系连接的不同情况的多关系图注意网络,使模型能够捕获实体在不同关系下的语义信息;HRAN在不同关系路径下通过关系特征计算该关系路径的重要性,并利用关系路径的重要性聚合实体特征,使模型能够捕获各种类型的语义信息。这些模型大多采用编码器-解码器框架,在编码阶段运用各种图聚合机制传播包含相邻实体与关系的嵌入信息,在解码阶段对三元组打分。

尽管基于编码器-解码器框架的GNN模型在知识图谱补全领域取得了重大进展,但是,现有的GNN模型在编码阶段通常将具有不同影响因子的实体和关系嵌入到一个低维向量中,这会导致不同影响因子相互干扰,从而影响模型的语义表达能力。例如在图1中,实体“Steve Jobs”的局部邻域实体包含了不同的“主题”,如“family”“career”和“birth information”等,本文将这些“主题”视作实体“Steve Jobs”的潜在影响因子。在图2中实体“Steve Jobs”和“Kobe Bryant”拥有相同的国籍,一般的GNN模型通常会使“Steve Jobs”与“Kobe Bryant”的嵌入表示更接近这种身份,然而在“career”方面,这两个人却表现出很大的差异。显然,这种将具有不同影响因子的实体作为一个整体并利用向量相似性表达语义信息的静态嵌入方法,会明显影响知识补全的性能。

因此,需要一种方法能够分别考虑并表示这些不同的影响因子,从而提高模型的表达能力。通过研究发现,解纠缠表示学习是解决上述问题的一种有效方法,它旨在将高维、复杂的数据表示分解为一系列独立或弱相关的因子,使这些因子之间的数据互不干扰。解纠缠图卷积网络(disen-tangled graph convolutional networks,DisenGCN)[24] 即是基于这一思想提出的。DisenGCN通过邻域路由机制调整每个邻居的权重来捕捉不同的因子通道的特定信息,从而实现实体的解纠缠表示,极大地提高了模型的性能,证明了利用解纠缠学习提高模型的表达能力是可行的。然而,DisenGCN模型的邻域路由机制更注重将邻域实体识别到不同影响因子的表示空间中,在相同的影响因子下,邻域实体的贡献度仅由邻域实体与中心实体在该因子中的相似度决定,忽略了与该因子中其他邻域实体比较的过程。因此,本文希望设计出一种模型,在相同因子中能够将不同邻域实体与中心实体的相似度进行对比,从而确定在该因子下邻域实体对中心实体的贡献度。这一过程与传统的基于GAT的模型相似,不同的是本文采用因子级对比来确定邻域实体信息在信息聚合过程中的权值,这种做法能够有效减少不相关邻域信息产生的干扰。例如,将图2中实体“Steve Jobs”和“Kobe Bryant”的职业信息与国籍信息聚合到各自对应影响因子的表示空间下,即影响因子对应的表示组件下,由于国籍信息与职业信息存在于不同的表示空间中,能够有效避免两者的国籍信息对职业信息造成的干扰。然而,在实现因子级邻域信息聚合之前,面临的一个关键挑战是如何确定不同影响因子中具有哪些邻域实体。本文观察到,在知识图谱中,中心实体与邻域实体产生连接的原因是它们拥有相同潜在影响因子,所以两个相连的实体在导致它们相连的潜在影响因子的表示空间中,要比在其他影响因子下更加相似,并且这种相似度差别越大越好。例如在图1中,邻域实体“Apple”与中心实体“Steve Jobs”在潜在影响因子“career”中要比在“family”中更相似。基于这一观察,本文利用中心实体与邻域实体在不同潜在影响因子的表示空间中的相似度不同,选择最大相似度的潜在影响因子作为中心实体与邻域实体的连接因子,形成新的知识图谱连接子图,从而确定不同影响因子中有哪些与中心实体相连的邻域实体。

综合上述过程,本文结合注意力机制提出了一种新的基于图注意力网络的解纠缠邻域信息聚合模型(disentangled neighborhood information aggregation with graph attention network,DNIAGAT)来解决传统知识图谱补全模型表达能力不足的问题。DNIAGAT模型能够根据知识图谱中实体的性质来学习其解纠缠表示,将实体的潜在影响因子分为多个组件表示,并在两个相连的实体中选择最重要的影响因子作为连接因子,确保每个组件相互独立。在所选的连接因子中,运用关系感知注意力机制自适应聚合目标实体在该组件(连接因子)下对应一阶邻域实体的嵌入信息。这种方法可以有效增强模型的表达能力,避免实体中不同的潜在影响因子相互干扰。此外,为了使模型在解码的过程中能够适用给定的关系,本文引入了一个关系感知注意力自适应评分系数,控制评分函数对于给定关系相近的分量表示给予更高的评价,提高模型的准确率。

1 相关技术

1.1 解纠缠表示学习

解纠缠表示学习(disentangled representation learning)旨在将高维、复杂的数据表示分解为一系列独立或弱相关的因子。通过这种方式,模型能够更好地捕获潜在的数据结构,从而提高模型的语义表达能力和可解释性。其核心思想是找到一种有效的方法将输入数据的不同属性或因子分离开来。解纠缠学习的目标是通过编码器将输入数据映射到潜在表示空间,在此空间中,数据的每个维度代表一个独立的因子,这意味着改变一个因子不会影响其他因子的表示。在图1中,实体“Steve Jobs”的邻居包含了不同的“主题”,如“family”“career”和“education”等。本文将每个主题视为实体的一个影响因子,实体的每一个组件对应实体在该影响因子下的嵌入表示。在预测三元组时,需要关注一个与任务更相关的影响因子。假设在(Steve Jobs,work of,?)的预测任务中,所设计的模型应该更多地关注“career”组件中的内容,如“Apple”,而不是“family”组件中的内容。

1.2 图注意力網络

图注意力网络(GAT)是图神经网络的一个重要分支,它将注意力机制与图卷积网络(GCN)相结合,利用注意力机制为其邻域实体分配不同的权重,根据不同的权重聚合邻域实体的嵌入信息,从而生成实体新的嵌入表示。与传统的图卷积网络相比,GAT的优势在于它可以为每对相邻节点分配不同的权重,从而实现对邻域信息的自适应聚合。这使得模型可以在节点间的交互中为每个邻居分配不同的重要性。研究表明,该方法可以有效挖掘实体邻域潜在的隐藏信息,提高模型的表达能力。

本文结合解纠缠表示学习的方法,在相同的潜在影响因子中引入GAT技术,将不同邻域实体与中心实体的相似度对比,确定在该因子下邻域实体对中心实体的贡献度,使得中心实体能够自适应地聚合在该因子下的邻域实体信息,从而实现因子级邻域信息的聚合。

2 准备工作

本文用G=(E,R,T)表示知识图谱,其中E和R分别表示实体集和关系集,包含知识图谱中所有关系,T表示三元组集合,(h,r,t)∈T表示一个三元组,其中h,t∈E,r∈R,每个三元组表示实体h与实体t关系间存在关系r。知识图补全的任务包括在知识图G中推断缺失的边,即预测一个给定的头部实体和关系查询的目标实体(h,r,?)。具体来说,该任务通常被定义为一个排名问题,目的是学习一个分数函数η(h,r,t),为有效的三元组分配比无效三元组更高的分数。这种通过已知三元组来预测未知三元组的任务也被称为链接预测任务,是知识图谱补全任务中的一个子任务。

3 本文方法

3.1 模型框架

基于图注意力网络的解纠缠邻域信息聚合模型(DNIAGAT)遵循编码器-解码器框架。为解决传统GAT模型在嵌入过程中将实体与关系信息描述为一个整体,从而导致模型语义表达能力不足的缺陷,DNIAGAT编码器利用解纠缠表示学习的方法将每个实体表示分为K个不同的组件,每个组件负责实体在一个潜在影响因子下的邻域实体信息聚合。DNIAGAT模型在编码阶段基于图注意力网络的思想,使用注意力机制聚合实体在不同组件(影响因子)下的相关邻域实体信息。与DisenGCN模型相比,在聚合过程中,DNIAGAT模型利用注意力机制能够自适应地感知不同组件(影响因素)下邻域实体的重要程度,这对提高模型的表达能力是非常重要的。在解码阶段,DNINAGAT模型选择ConvE作为实体各个组件之间的评分函数。此外,在聚合各个组件评分的过程中,DNINAGAT模型还引入了一个关系感知自适应评分系数来控制评分系统,更加关注与给定关系相关的组件分量信息。图3为实体e0局部邻域信息在模型框架中的计算过程,编码器部分包括解纠缠表示、邻域信息聚合等模块,解码器包括评分函数、自适应评分系数等模块。图中:(a)为e0与邻域实体原始连接示意图;(b)为e0在编码器中聚合不同因子下邻域实体组件信息的过程;(c)为e0与邻域实体经过解纠缠以及确立连接因子操作后,在不同因子下的实体连接示意图;(d)为编码器输出实体新的解纠缠表示作为解码器的输入并计算e0所在三元组最终评分的过程。

3.2 编码器

3.2.1 实体解纠缠表示

在KG中,实体常常与多种语义相关。例如在图1中,实体“Steve Jobs”与邻域实体在家庭、职业等多个方面相关联。本文DNIAGAT模型的主要目标是学习实体的解纠缠表示,通过解纠缠让实体的各种语义特征从一个复杂的特征向量中分解出来。将特征向量投影到不同的潜在空间中,使每个组件可以从初始实体节点特征中提取不同的语义。具体来说,对于每个实体e,本文希望它的嵌入由K个独立的组件表示,即e=[e1,e2,…,ek],其中ek∈Euclid ExtraaBpd/k描述了实体e的第k个潜在影响因子对应的语义特征。设计这种策略是基于一个观察:每个潜在影响因子都与实体的一个特定语义属性相对应,采用不同的投影矩阵W={W1,W2,…,Wk}来捕获这些特定的语义属性。具体过程为

4 实验及结果分析

4.1 实现细节

本文在NVIDIA RTX 4090上使用PyTorch框架实现DNIAGAT模型。采用编码器-解码器架构,具体模块包括数据预处理、实体解纠缠表示、连接因子选择、邻域组件信息聚合、自适应评分系数和预测层。所有参数通过Xavier初始化,确保了早期的稳定训练。使用Adam优化器,并采取学习率衰减策略,初始学习率为0.001,每10个epoch减少10%。本文选取交叉熵作为损失函数,并引入了0.5的dropout和0.000 1权重的L2正则化防止过拟合。模型训练了300个epoch,每10个epoch基于验证集效果进行了模型保存。将所得到的实验结果与其他较为先进的基线模型作对比,来验证本文模型的先进性。通过消融实验,验证解纠缠表示以及因子级图注意力机制聚合邻域信息的有效性。

4.2 数据集

本文实验采用的数据集为WN18RR、FB15K-237,这两个数据集是知识图谱补全任务常用的数据集。WN18RR是從WordNet抽取的子集,包含了40 943个实体和11种关系。由于FB15K中包含大量的逆关系,这会影响关系学习的精度,所以本文采用的是FB15K的子集FB15K-237。FB15K-237从FB15K中抽取,并且只保留每对互逆关系中的一个关系,它包含了14 541个实体,237种关系。两种数据集具体统计情况如表1所示。

4.3 基线模型以及参数设置

为了验证DNIAGAT模型的先进性,将该模型与现有较为先进的基线模型进行了对比实验。基线模型包括传统的知识图谱嵌入模型、神经网络模型。其中传统的知识图谱嵌入模型包括TransE[6]、DistMult[11],神经网络模型包括ConvE[16]、KBGAT[20]、R-GCN[25]、CompGCN[27]、InteractE[26]、TRAR[28]、LTE-GCE[29]、MVCL[30]。

本文使用PyTorch实现了该模型,在模型中每个组件的嵌入维度为200,批处理大小batchsize设为{128,256,512,1024}。潜在影响因子K分别设为{2,4,6,8,10},参数γ值分别设置为{0.4,0.5,0.6,0.7,0.8},训练迭代轮数epoch设置为300。数据集FB15K-237、WN18RR的学习率分别设置为0.000 5、0.000 1。

4.4 评估指标

本文选用MR(mean rank)、MRR(mean reciprocal rank)、hits@N作为模型的评估指标。MR是正确实体或关系的平均排名,MRR是正确实体或关系倒叙的排名。hits@N是一种计算正确实体或关系前N名的评估方法,例如N为3时,表示正确实体或关系排在前3名的比例,本文采用hits@1、hits@3、hits@10三种方法,计算前1、3、10名正确实体和关系的比例。在上述的三个指标中,MR越低、MRR或者hits@N越高,表明模型的实验结果越好,进而说明模型的性能更优越。

4.5 实验结果分析

4.5.1 实验结果与基线模型对比分析

本文在不同的模型上对数据集WN18RR、FB15K-237进行了实验,并将本文设计的DNIAGAT模型与其他基线模型的评估结果进行了对比分析,具体的实验结果如表2所示。由表2可知,本文DNIAGAT模型的结果为所有设置参数中表现最好的结果。在表2中,粗体表示最优的性能,带下画线的数据表示次优的性能。可以发现,在FB15K-237数据集上,DNIAGAT模型在MR、MRR、hits@1、hits@3、hits@10指标中获得了最好的性能,与其他最好的基线模型相比,在MRR、hits@1、hits@3、hits@10上性能分别提升了1.2%、1.1%、3.3%、1.7%。在WN18RR数据集上,DNIAGAT模型在MRR、hits@1、hits@3、hits@10上表现最佳,与最好的基线模型相比,分别提升了0.6%、1.4%、0.2%、1%。从表2可以发现,DNIAGAT模型在多个评估指标上都优于最先进的基线模型,这表明DNIAGAT模型具备有效性和先进性。具体来说,DNIAGAT模型利用解纠缠表示学习,将实体分为K个独立组件表示,增强了模型的语义表达能力。在聚合邻域信息时,每个组件通过关系注意力机制自适应地聚合与该组件对应影响因子相关的邻域信息,这使得实体在聚合邻域信息时能够有效避免不相关邻域信息的干扰,从而提升模型的性能。

4.5.2 实验结果具体实例分析

本节结合FB15K-237数据集中实体在模型中解纠缠表示的具体实例,来研究解纠缠表示学习如何促进实体的嵌入,从而提高知识图谱补全任务的准确性。详细的观察结果如图4所示。

在邻域信息聚合过程中,首先确定了中心实体与邻域实体之间的连接因子,即在k因子中与中心实体相连的邻域实体,每一个因子k表示实体的一个潜在影响因素,因此,因子k中的邻域实体应该与一个“主题”相关联。然后,利用图注意力机制自适应聚合相同因子中与中心实体相连的邻域实体信息。因此,在相同因子中,不同邻域实体对应的组件信息的贡献度是不同的。在对预测三元组评分时,通过自适应评分系数使模型在评分过程中能够更加关注与给定关系最相关的实体组件。

图4(a)中给出了实体“Steve Jobs”在不同因子k中,贡献度排名前2的邻域实体。从图4(a)中可以发现,组件C1、C2、C3、C4中的实体集信息属于同一个“主题”,例如在组件C1中,“Apple” 和“Pixar”实体都是“Steve Jobs”创办的,它们都反映了“Steve Jobs”在“career”方面的信息,并且“Apple”比“Pixar”的贡献度大得多,这说明利用图注意力机制能够捕获到相同因子中不同实体组件信息的贡献度。而在组件C2中,包含了实体“United States of America”和“San Francisco”,两者都与“birth information”这一主题相关联。因此,根据图4(a)可以推测出组件C1、C2、C3、C4为“Steve Jobs”分别在“career”“birth information”“achievement”“family”四个不同“主题”中的解纠缠表示。图4(b)给出了预测三元组(Steve Jobs,place_of_birth,?)在解码器中不同因子k对应组件的自适应评分系数,可以发现组件C2的自适应评分系数值远远高于其他组件,这是因为“place_of_birth”与组件C2反映的主题更相关,同时这一现象也充分验证了本文对C2组件对应“birth information”这一主题的推测。图4(b)的结果证实了自适应评分系数能够使模型在评分过程中更加关注与给定关系最相关的实体组件。

4.6 消融实验

为了进一步验证实体解纠缠表示、关系信息、因子级图注意力机制、自适应评分系数对模型预测效果的影响。建立DNIAGAT的变体模型DNIAGAT-one、DNIAGAT-rel、DNIAGAT-gcn、DNIAGAT-sco。在DNIAGAT-one模型中设置因子数K值为1,使实体所有的信息都通过一个特征向量表示,从而使模型失去解纠缠表示的能力,其他部分与DNIAGAT模型一致。DNIAGAT-rel消去了关系投影矩阵、实体对应的线性投影矩阵,实体对应的组件信息不再投影到相应的关系子空间中。其他部分与DNIAGAT模型一样。DNIAGAT-gcn在聚合因子k中邻域实体的组件信息时,不再采用图注意力机制,而是采用图卷积操作,即对因子中邻域实体组件集合求和除平均值。其他步骤与DNIAGAT一样。DNIAGAT-sco不再使用自适应评分系数,直接使用ConvE[16]作为解码器生成三元组最终评分。将DNIAGAT模型与它的四个变体模型在数据集FB15K-237、WN18RR上分别进行了链接预测任务实验,消融实验结果如表3所示。

从消融实验的结果可以发现,具备解纠缠表示学习能力的模型在两个数据集上表现更好,并且改善较为明显,这说明对实体进行解纠缠表示能够提升知识图谱补全任务的性能;利用特异性投影矩阵将实体的组件信息投影到对应的关系子空间中,从而使模型融入关系信息,在不同数据集上各个评估指标值都有所提升,说明融入关系信息对模型有促进作用。利用图注意力机制的方法聚合因子中邻域组件信息对比利用图卷积操作的方法,在FB15K-237和WN18RR上的MRR、hits@3、hits@10指标分别提升了0.5%、0.9%、1.2%、0.4%、0.6、0.5%。这说明利用图注意力机制聚合因子中的邻域组件信息是有效的;使用自适应评分系数的模型比不使用自适应评分系数的模型在两个数据集上各项指标更优异,显然,自适应评分系数可以促进模型的性能。

4.7 超参数分析

为了验证因子数量对模型性能的影响,在其他参数相同的情况下,设置不同的K值{2,4,6,8,10},分别在数据集WN18RR[22]与FB15K-237[23]上采用hits@3评估方法进行实验,不同K值的表现如图5所示。

图5 不同K值下hits@3評估方法的实验结果

Fig.5 Experimental results of hits@3 evaluation methodsat different K values

从图5中可以发现:在数据集WN18RR上,K=6时,模型的性能表现最优;在数据集FB15K-237上,K=8时,模型的表现最优。这表明随着K值的增大,模型在知识补全任务上的表现会更优,将实体分为不同组件进行解纠缠表示的方法可以有效促进知识图谱补全任务的质量。然而,并不是K值越大越好,当K值增大到一定区间时,模型的表现会呈现下降趋势。从实验结果可以发现,K的值对模型性能的影响是巨大的。因此,设置合适的K值是本文模型的重点。

5 结束语

本文提出了一种新的基于图注意力网络的解纠缠邻域信息聚合模型(DNIAGAT)来完成知识图谱补全任务。该模型将实体嵌入分为K个组件表示,每个组件对应一个实体的影响因子,选择最重要的影响因子作为两个实体的连接因子,使用注意力机制聚合实体在不同组件(影响因子)下的相关邻域实体信息,并且在解码过程中引入一个关系感知系数来控制评分系统,使其更加关注与给定关系相关的组件分量信息,进一步分离了组件间的干扰信息。通过与基线模型对比的实验,证明了DNIAGAT模型的先进性。未来将关注少关系知识图谱的聚合方法,将其融合到DNIAGAT模型中,并改进DNIAGAT模型的算法,减少模型的计算量。

参考文献:

[1]Huang Xiao, Zhang Jingyuan, Li Dingcheng, et al. Knowledge graph embedding based question answering[C]//Proc of the 12th ACM International Conference on Web Search and Data Mining. New York: ACM Press, 2019: 105-113.

[2]Li Fangyi, Li Ying, Shang Changjing, et al. Fuzzy knowledge-based prediction through weighted rule interpolation[J]. IEEE Trans on Cybernetics, 2019,50(10): 4508-4517.

[3]Wang Hongwei, Zhang Fuzheng, Wang Jialin, et al. Exploring high-order user preference on the knowledge graph for recommender systems[J]. ACM Trans on Information Systems, 2019,37(3): 1-26.

[4]Vrandecˇic' D, Krtzsch M. WikiData: a free collaborative knowledgebase[J]. Communications of the ACM, 2014,57(10): 78-85.

[5]Singhal A. Introducing the knowledge graph: things, not strings[EB/OL]. (2012)[2022-10-30]. https://blog.google/products/search/introducing-knowledge-graph-things-not/.

[6]Antoine B, Nicolas U, Alberto G D, et al. Translating embeddings for modeling multi-relational data[C]//Proc of the 26th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2013:2787-2795.

[7]Xiao Han, Huang Minlie, Zhu Xiaoyan. TransG: a generative model for knowledge graph embedding[C]//Proc of the 54th Annual Mee-ting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computer Linguistics, 2016: 2316-2325.

[8]Wang Zhen, Zhang Jianwen, Feng Jianlin, et al. Knowledge graph embedding by translating on hyperplanes[C]//Proc of the 28th AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2014:1112-1119.

[9]Lin Yankai, Liu Zhiyuan, Sun Maosong, et al. Learning entity and relation embeddings for knowledge graph completion[C]//Proc of the 29th AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2015: 2181-2187.

[10]Ji Guoliang, He Shizhu, Xu Liheng, et al. Knowledge graph embedding via dynamic mapping matrix[C]//Proc of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2015: 687-696.

[11]Yang Bishan, Yih S, He Xiaodong, et al. Embedding entities and relations for learning and inference in knowledge bases[C]//Proc of International Conference on Learning Representations. 2015.

[12]Trouillon T, Welbl J, Riedel S, et al. Complex embeddings for simple link prediction[C]//Proc of the 33rd International Conference on International Conference on Machine Learning.[S.l.]: JMLR. org, 2016: 2071-2080.

[13]Liu Hanxiao, Wu Yuexin, Yang Yiming. Analogical inference for multi-relational embeddings[C]//Proc of the 34th International Conference on Machine Learning.[S.l.]: JMLR. org, 2017: 2168-2178.

[14]Kazemi S M, Poole D. Simple embedding for link prediction in knowledge graphs[J]. Advances in Neural Information Proces-sing Systems, 2018,31: 4289-4300.

[15]Nguyen D Q, Nguyen D Q, Nguyen T D, et al. A convolutional neural network-based model for knowledge base completion and its application to search personalization[J]. Semantic Web, 2019,10(5): 947-960.

[16]Dettmers T, Minervini P, Stenetorp P, et al. Convolutional 2D know-ledge graph embeddings[C]//Proc of the 32nd AAAI Conference on Artificial Intelligence and the 30th Innovative Applications of Artificial Intelligence Conference and the 8th AAAI Symposium on Educational Advances in Artificial Intelligence. Palo Alto,CA: AAAI Press, 2018: 1811-1818.

[17]Zhang Si, Tong Hanghang, Xu Jiejun, et al. Graph convolutional networks: a comprehensive review[J]. Computational Social Networks, 2019,6(1): 1-23.

[18]Hamilton W L, Ying Z, Leskovec J. Inductive representation learning on large graphs[C]//Proc of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017:1025-1035.

[19]Velickovic P, Cucurull G, Casanova A, et al. Graph attention networks[EB/OL]. (2017-10-30). https://arxiv.org/abs/1710.10903.

[20]Nathani D, Chauhan J, Sharma C, et al. Learning attention-based embeddings for relation prediction in knowledge graphs[C]//Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2019: 4710-4723.

[21]Zhang Zhao, Zhuang Fuzhen, Zhu Hengshu, et al. Relational graph neural network with hierarchical attention for knowledge graph completion[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2020: 9612-9619.

[22]Dai Guoquan, Wang Xizhao, Zou Xiaoying, et al. Multi-relational graph attention network for knowledge graph completion[J]. Neural Networks, 2022,154: 234-245.

[23]Li Zhifei, Liu Hai, Zhang Zhaoli, et al. Learning knowledge graph embedding with heterogeneous relation attention networks[J]. IEEE Trans on Neural Networks and Learning Systems, 2022,33(8): 3961-3973.

[24]Ma Jianxin, Cui Peng, Kuang Kun, et al. Disentangled graph convolutional networks[C]//Proc of the 36th International Conference on Machine Learning.[S. l. ] : PMLR, 2019: 4212-4221.

[25]Schlichtkrull M, Kipf T N, Bloem P, et al. Modeling relational data with graph convolutional networks[C]//Proc of the 15th International Conference on Semantic Web. Berlin : Springer-Verlag, 2018: 593-607.

[26]Vashishth S, Sanyal S, Nitin V, et al. InteractE: improving convolution based knowledge graph embeddings by increasing feature interactions[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2020: 3009-3016.

[27]Vashishth S, Sanyal S, Nitin V, et al. Composition-based multi-relational graph convolutional networks[EB/OL]. (2019-11-08). https://arxiv.org/pdf/1911.03082.pdf.

[28]Zhao Xiaojuan, Jia Yan, Li Aiping, et al. Target relational attention-oriented knowledge graph reasoning[J]. Neurocomputing, 2021, 461: 577-586.

[29]Zhang Zhanqiu, Wang Jie, Ye Jieping, et al. Rethinking graph con-volutional networks in knowledge graph completion[C]//Proc of ACM Web Conference. New York: ACM Press, 2022: 798-807.

[30]喬梓峰, 秦宏超, 胡晶晶,等. 融合多视图对比学习的知识图谱补全算法[J/OL]. 计算机科学与探索.[2023-08-06]. http://kns.cnki.net/kcms/detail/11.5602.TP.20230329.1546.002.html. (Qiao Zifeng, Qin Hongchao, Hu Jingjing, et al. Knowledge graph completion algorithm fused with multi-view contrastive learning[J/OL]. Computer Science and Exploration.[2023-08-06]. http://kns.cnki.net/kcms/detail/11.5602.TP.20230329.)

猜你喜欢
注意力机制
基于注意力机制的行人轨迹预测生成模型
基于注意力机制和BGRU网络的文本情感分析方法研究
多特征融合的中文实体关系抽取研究
基于序列到序列模型的文本到信息框生成的研究
基于深度学习的手分割算法研究
从餐馆评论中提取方面术语
面向短文本的网络舆情话题
基于自注意力与动态路由的文本建模方法
基于深度学习的问题回答技术研究
基于LSTM?Attention神经网络的文本特征提取方法