基于解耦图卷积网络的协同过滤推荐模型

2023-02-04 06:08游小钰
中文信息学报 2023年11期
关键词:集上物品卷积

李 驰,游小钰,张 谧

(复旦大学 计算机科学技术学院,上海 200433)

0 引言

随着互联网的快速发展,个性化推荐系统已经广泛应用于各个场景,如电子商城、视频网站和社交软件等。推荐系统的核心任务是预测一个用户是否会和某个物品交互,如点击、购买或观看等。协同过滤(Collaborative Filtering,CF)作为推荐系统的主要方法之一,是目前学术界和工业界研究的重点[1]。协同过滤最常用的框架是从用户和物品的历史交互记录中建模出用户和物品的潜在嵌入向量,常用的建模方法有矩阵分解[2]、深度神经网络[3]、自编码器等[4]模型。

近年来,图卷积网络(Graph Convolutional Network,GCN)得到越来越多的关注[5-7],其能同时端到端地学习节点的嵌入向量和图结构特征,在图相关任务上表现出卓越的性能。图卷积网络中的一层图卷积操作可以为每个节点聚合其邻居节点的嵌入向量,通过递归地堆叠图卷积层,该节点的向量表示就能够同时包含局部的图结构特征及其高阶邻居节点的特征。由于推荐系统中用户和物品的交互记录是一个天然的二部图,因此图卷积网络已经成为推荐系统中热门的研究方向[8]。其中模型结构最轻量,时间复杂度最低的是He等人[9]提出的LightGCN模型,该模型的可训练参数仅有用户和物品的嵌入向量,其图卷积层的输出是周围邻居节点的上一层嵌入向量的加权和,模型的最终输出是所有图卷积层输出的加权和。

基于GCN的模型虽然已经在推荐任务上取得了比较高的准确度,但还存在计算开销大的问题。以LightGCN模型为例,其计算开销主要来自于两部分: ①在模型前向传播阶段,LightGCN需要执行多次图卷积操作。这涉及一个较大的稀疏邻接矩阵和稠密参数矩阵的乘法,当数据规模增大时需要花费较多的时间。在Amazon-book数据集上这两个矩阵的维度分别为144 242×144 242和144 242×64,而在LightGCN模型的整个训练过程中,这样的大矩阵乘法计算需要执行五百余万次(详见4.4节分析)。如果使用GPU加速的话,就必须把两个大矩阵全部放在GPU的显存中,这对计算资源也提出了很高要求。②在反向传播阶段需要计算大量节点嵌入的梯度。由于LightGCN模型需要递归地聚合邻居节点上一层的嵌入,对于K层的LightGCN模型而言,每个节点需要聚合K阶以内所有邻居节点的嵌入,涉及的节点数量随着层数增加以指数级增加,如表2的6~9行所示,在本文所使用的三个数据集上,4层的LightGCN模型平均为每个节点聚合了全图一半的节点,这导致在反向传播阶段会产生大量的梯度计算开销。一些采样算法[10-13]如PinSAGE[4]可以在一定程度上缓解这个问题,但是训练过程中依然存在递归的节点聚合,所以这些算法无法避免指数级增长的计算开销,同时还可能会给模型训练引入偏差[8]。

近年来在图节点分类(Node Classification)任务上,有一系列基于解耦图卷积网络(Decoupled GCN)的工作[14-21]致力于解决这个问题。它们将图卷积操作和模型的训练过程解耦,分为数据预处理和模型训练两个阶段。其中图卷积操作仅在数据预处理阶段执行,将节点的属性特征经过多层图卷积之后的输出作为节点的新特征;在模型训练阶段,只需要在新特征上训练一个神经网络分类器,不再需要执行图卷积操作聚合邻居节点特征,从而避免了大量的计算开销。但在协同过滤任务中还没有类似的工作,这是因为解耦图卷积网络依赖于节点原有的属性特征,而在协同过滤模型中用户和物品并没有属性特征可以使用,无法直接应用上述解耦方法。

针对上述问题,本文提出了基于解耦图卷积网络的协同过滤推荐模型(Decoupled Graph Convolutional Network for Collaborative Filtering,DeGCF)。文中创新性地面向推荐系统这一特殊任务设计了解耦图卷积网络模型的学习范式,分为两个阶段: ①模型参数初始化阶段; ②模型训练阶段。其中,图卷积操作在模型参数初始化阶段完成,从而达到将图卷积操作与模型训练过程解耦的效果。具体地,在模型参数初始化阶段先执行多次图卷积操作,更新用户和物品的初始嵌入向量,使其包含局部图结构特征,在模型训练阶段仅使用用户和物品嵌入向量的内积作为模型输出;为了使节点的初始嵌入向量还包含全局图结构特征,设计了基于随机投影的多样性负采样策略,并融合进图卷积操作中;为了缓解流行度偏差对模型训练的影响,设计了逆倾向分数加权的损失函数。

本文主要贡献如下:

(1) 首次将解耦图卷积网络模型应用于推荐任务中,提出了DeGCF模型,将图卷积操作与模型训练过程解耦,从而减少模型的计算开销,提高训练效率。

(2) 提出了负采样增强的图卷积机制,使得图卷积操作能够同时捕获局部和全局的图结构特征,从而间接地增强了节点的初始嵌入向量。

(3) 在三个基准数据集上的实验结果证明,本文方法的性能超过了目前主流的基于GCN的推荐模型,同时显著降低了模型的计算开销。在Amazon-book数据集上相较于LightGCN模型性能提升了31%,训练效率提升了13倍,避免了五百余万次的全图矩阵计算。

1 相关工作

1.1 基于图卷积网络的协同过滤模型

图卷积网络模型已经被广泛应用于各种图任务中,在推荐系统中用户和物品可以视为图节点,用户和物品的交互记录可以视为边,近年来许多基于GCN的协同过滤模型相继被提出。Berg等人[22]提出的GC-MC模型将图卷积网络用于建模用户-物品交互图,但受限于其一层卷积层的设计,无法聚合高阶邻居的信息。Wang等人[23]受GCN启发,提出的NGCF模型在邻居聚合过程中加入特征变换以及非线性激活函数,并堆叠多个卷积层以聚合高阶邻居的信息。Chen等人[24]提出的LR-GCCF模型在NGCF的基础上加入了残差连接,缓解了GCN中的过平滑问题。He等人[9]提出的LightGCN模型在NGCF的基础上简化了图卷积操作,使得模型参数仅有用户和物品的嵌入向量,取得了显著的性能提升。Wang等人[25]提出的DGCF模型在LightGCN的基础上细粒度地考虑了用户-物品间的交互意图并映射到最终的分离式嵌入向量。Wu等人[26]提出的SGL模型在LightGCN的基础上引入了对比学习,以实现节点嵌入的自监督学习。此外还有一些研究工作从引入注意力机制[27]、多行为学习[28]、引入额外信息[29]等方面改进了基于GCN的推荐模型。

现有的研究工作往往专注于设计各种复杂精妙的图卷积层,但这些模型在训练过程中的每一轮、每一批次都需要递归地执行多次图卷积操作,这在数据规模较大时会产生大量的内存占用和计算时间。近期一些工作通过采样方法减少图的大小来缓解这一问题,如Hamilton等人[10]提出的GraphSAGE模型在每个图卷积层中随机采样固定数量的邻居节点进行聚合,Ying等人[30]提出的PinSAGE模型采用随机游走采样替代随机采样。此外还有一些工作[31]针对每个用户-物品交互记录从原始图中重建一个小规模的子图。但是采样方法或多或少都会损失一部分信息,从而给模型的训练引入偏差,而且这些算法在模型的每轮训练中依然需要递归地执行多次图卷积操作,本质上指数级增长的计算开销依然存在。

1.2 解耦图卷积网络

最近有研究[5]指出,GCN的性能收益主要来源于图卷积层中的特征传播操作,因此催生了一系列解耦图卷积网络模型,这类模型的共同点是将图卷积操作与模型的训练过程解耦,只在数据预处理阶段利用图卷积操作对节点的属性特征进行特征传播,模型中不再包含图卷积层。如Wu等人[14]提出的SGC模型,在数据预处理阶段将节点原有的属性特征经过K层图卷积操作的输出作为节点的新特征,之后只需要在新的节点特征上训练一个多层感知机分类器。Emanuele等人[6]提出的SIGN模型为了利用节点不同感受野的特征,将1~K层图卷积操作的输出拼接起来作为节点的新特征。Sun等人[16]提出的SAGN模型和Zhang等人[20]提出的GAMLP模型则是利用注意力机制融合不同层的特征。Zhang等人[21]将上述工作归纳总结,提出的PaSca系统可以自动搜索出每个数据集中最优的解耦图卷积网络模型。

然而将上述工作直接迁移至协同过滤任务中并不容易,这是因为在上述工作所研究的节点分类任务中,节点具有属性特征可以使用,因此它们可以对节点的属性特征进行图卷积操作,但在协同过滤模型中用户和物品节点并没有属性特征。据我们所知,本文是第一个将解耦图卷积网络模型应用在推荐任务中的工作。

2 问题定义

定义用户集合U={u1,u2,…,uM}和物品集合I={i1,i2,…,iN},其中,|U|=M,|I|=N。用户和物品的交互矩阵Y∈{0,1}M×N定义为:

(1)

通常交互矩阵Y极其稀疏,仅有少量元素为1。因此推荐系统的目标是根据已观测到的用户-物品交互数据建立模型预测可能出现的用户-物品交互。基于GCN的协同过滤模型通常利用用户-物品交互矩阵Y建立一个无向二分图G={U,I,A},其中,U和I分别代表用户节点和物品节点,A是图G的邻接矩阵,如式(2)所示。

(2)

在实际运算时更常使用对称归一化后的邻接矩阵,如式(3)所示。

(3)

其中,对角矩阵D对角线上的元素是节点的度数。因此推荐系统中的点击预测问题可以看作二分图G上的链接预测问题。

3 基于解耦图卷积网络的协同过滤推荐模型

为了便于理解DeGCF的模型结构与训练范式,图1对比了LightGCN模型和DeGCF模型。LightGCN模型的训练过程如图1(a)所示,经过多层图卷积操作后,模型输出的用户u和物品i的向量表示已经聚合了用户u和物品i及其k阶邻居的嵌入向量,用户u和物品i所有k阶向量表示加权和的内积作为LightGCN模型的预测结果,带入损失函数中计算梯度,反向更新用户u和物品i以及它们所有k阶邻居嵌入向量的参数[图1(b)中的粗虚线]。因此在LightGCN中图卷积操作和模型的训练过程是耦合在一起的。

图1 LightGCN和DeGCF模型对比图

与1.2节所介绍的解耦范式类似,DeGCF模型将图卷积操作与模型的训练过程解耦,不同的是DeGCF在模型参数初始化阶段执行多次负采样增强的图卷积操作初始化所有用户和物品的嵌入向量,如图1(b)所示;在DeGCF训练过程中,用户u和物品i的嵌入向量eu和ei的内积直接作为DeGCF模型的输出,带入逆倾向分数加权的损失函数中计算梯度,反向更新eu和ei的参数,如图1(c)所示。

3.1 模型参数初始化阶段

在传统GCN模型中,用户和物品的初始嵌入向量是随机初始化的,参数服从正态分布,如式(4)所示。

E0~N(μ,σ2I)

(4)

其中,E0∈(M+N)×d是用户和物品节点的初始嵌入向量组成的矩阵,d是嵌入向量的维度;μ和σ2分别是正态分布的期望和方差,I是单位矩阵。

在DeGCF参数初始化阶段,对式(4)生成的用户和物品节点的初始嵌入向量执行多层图卷积操作。以用户节点u为例,第k层图卷积操作的输出如式(5)所示。

(5)

(6)

由式(4)~式(6)得到的节点的嵌入向量已经包含了局部的图结构特征,这是因为经过多层图卷积后,在图中距离相近节点的嵌入向量已经比较相似了。

3.1.1 负采样增强的图卷积

为了进一步增强节点的初始嵌入向量中的图结构特征,还应该考虑在初始化阶段引入全局的图结构特征。在推荐系统中,每个用户只对一小部分物品感兴趣,绝大多数的物品都是该用户不太可能去交互的(对于该用户而言是负样本),这一点反映到用户-物品二分图中则为: 图中距离相近的节点的嵌入向量应该比较相似,距离较远的节点的嵌入向量应该不相似,如图2所示。

图2 负采样增强的图卷积机制示意图

基于上述分析,本文设计了负采样增强的图卷积操作,以用户u为例,式(5)改写成了式(7)。

(7)

3.1.2 基于随机投影的多样性负采样策略

根据Johnson-Lindenstrauss引理[33],高维空间中的点集经过线性投影到低维空间后相对距离可以得到一定误差内的保持,因此每次负采样时先使用高斯分布生成一组正交的单位向量P={p1,p2,…,pH},pk∈1×d,将Cu中每个节点的第k-1层图卷积输出的向量分别与P中的向量做内积,然后求平均,如式(8)所示。

(8)

3.1.3 矩阵形式表达

根据谱图理论知识[34],式(7)的矩阵形式表达如式(9)所示。

(9)

E←row_normlize(EK)

(10)

其中row_normlize表示对矩阵每一行做归一化。

3.2 模型训练阶段

经过上述方法初始化参数后,用户和物品的嵌入向量已经包含了局部和全局的图结构特征,DeGCF在模型训练和预测阶段不再需要反复执行图卷积操作,如图1(c)所示,用户u和物品i的嵌入向量的内积作为DeGCF模型的输出,表示物品i对于用户u的推荐分数,如式(11)所示。

(11)

3.2.1 损失函数

由于推荐系统存在流行度偏差的问题[35],用户-物品交互数据通常服从基于流行度的长尾分布,即一些热门物品占据了绝大部分的交互数据。而GCN模型还会进一步放大训练数据中的偏差[36]。为了无偏地训练模型参数,本文利用逆倾向分数(Inverse Propensity Score, IPS)[37]加权二分类交叉熵损失函数,修正每条交互数据的损失贡献值,从而调整训练数据的分布,损失函数如式(12)所示。

(12)

3.2.2 训练策略

不同于传统的基于GCN的协同过滤模型同时端到端地学习用户和物品的嵌入向量以及图结构特征,DeGCF在模型参数初始化阶段多次利用式(9)和式(10)将图结构特征注入到用户和物品的嵌入向量中,然后再利用式(12)训练模型参数。然而随着训练过程的进行,用户和物品的嵌入向量不断变化,会导致其中包含的图结构特征逐渐失真。为了维持模型中的图结构特征,进一步提高模型的精度,本文针对性地设计了相应的训练策略。具体地,在训练过程中当模型在验证集上的性能开始下降时,则判定模型中的图结构特征已经失真,此时再用式(9)和式(10)更新一次模型参数,为模型补充图结构特征。其步骤如算法1所示。

算法1 DeGCF模型训练策略

需要说明的是,模型训练过程中的Step 8~10执行次数非常有限,例如,在Amazon-book数据集上仅为3次,具体计算开销分析详见4.4节。

3.3 讨论

表1 模型复杂度对比

4 实验结果

4.1 实验设置

4.1.1 数据集

参照大多数协同过滤推荐模型研究工作[9,21-26],本文在三个公开基准推荐数据集上进行实验: Gowalla0F(1)https://snap.stanford.edu/data/loc-gowalla.html,Yelp20181F(2)https://www.yelp.com/dataset和Amazon-book2F(3)https://jmcauley.ucsd.edu/data/amazon。为了公平地对比模型性能,本文的数据集处理和训练集、测试集划分与文献[9,21-26]保持一致,过滤交互少于10的用户和物品,数据集按0.7∶0.1/0.2的比例划分为训练集、验证集和测试集。表2显示了各个数据集的统计信息。

表2 数据集分析

4.1.2 评价指标

参照大多数协同过滤推荐模型研究工作[9,23-26],本实验采用Recall@20和NDCG@20作为模型推荐准确度的评价指标,该指标越大越好。

参照大多数已有工作[2,5-13,14-16,30],本实验采用一个epoch的训练时间(s/epoch)作为模型时间复杂度的评价指标,该指标越小越好。

4.1.3 对比方法

本文将所提出方法与7个基于GCN的协同过滤模型进行对比:

(1)GCMC[22]GCMC利用单个图卷积层在用户-物品二分图上聚合一阶邻居的协同信号,生成用户和物品的向量表示,实现端到端的预测。

(2)PinSage[30]PinSAGE将GraphSage[10]应用在推荐任务中,每个卷积层随机采样一部分邻居节点聚合其嵌入向量。

(3)NGCF[25]NGCF将经典的GCN模型应用在协同过滤推荐模型上,保留邻居聚合机制中的特征变换矩阵和非线性激活函数。

(4)LR-GCCF[24]LR-GCCF在NGCF的基础上移除了邻居聚合机制中的非线性激活函数,同时为了解决过平滑问题引入了残差连接。

(5)LightGCN[9]LightGCN是目前模型结构最轻量、时间复杂度最低的基于GCN的协同过滤模型,其可训练模型参数仅有节点的嵌入向量。本文的DeGCF则是在LightGCN的基础上做进一步简化和改进得到的,二者对比如图1所示。

(6)DGCF[25]DGCF考虑分离出用户的不同意图,从而可以细粒度地建模用户的兴趣偏好。

(7)SGL-ED[26]SGL在LightGCN的基础上利用图扩增技术生成不同子图,然后使用对比学习损失函数实现节点的自监督学习。这里我们采用文献[26]中表现最好的SGL-ED作为对比方法。

(8)DeGCF本文提出的基于解耦图卷积网络的协同过滤推荐模型。

(9)DeGCF-不训练只利用3.1节提出的多层图卷积操作初始化DeGCF模型参数,但不对模型进行任何训练。

4.1.4 参数设置

在本文中DeGCF是使用PyTorch框架实现的,利用Nvidia RTX 2080 Ti GPU显卡加速计算。和对比方法保持一致,DeGCF的模型维度d设置为64。使用Adam[38]作为优化算法,学习率设置为0.001。L2正则化系数设置为0.000 1,训练批大小(batch)设置为1 024。模型参数初始化阶段图卷积层数K设置为10,用于随机投影的正交向量的数量H设置为64。当模型在验证集上Recall指标连续下降5个epoch时应用一次图卷积操作更新嵌入向量。在Gowalla、Yelp2018、Amazon-book数据集上损失函数负样本数量分别设置为800、500、500。所有参数都在验证集上进行了调整。

4.2 对比实验

本文在三个基准数据集上比较DeGCF模型与对比方法的推荐准确度与训练时间,实验结果如表2所示。其中,DeGCF模型的实验结果是5个随机种子重复实验的平均值,对比模型的实验结果中Recall@20和NDCG@20的皆来自于它们在论文[9,21-26]里报告的最佳结果。

观察表3的实验结果,可以得出以下结论:

表3 不同模型在基准数据集上的推荐准确度与训练时间

(1) 经过多层图卷积操作初始化后的DeGCF模型,即使不进行任何训练,就已经有了一定的推荐准确度,在Gowalla、Yelp2018和Amazon-book数据集上的Recall分别为0.123 1、0.038 2和0.016 6,已经逼近了早期的GCN模型GC-MC和PinSage。这说明了利用负采样增强的图卷积操作初始化模型,节点的初始嵌入向量已经包含了局部和全图的图结构特征。

(2) 与基于GCN的模型相比,DeGCF的性能在Gowalla、Yelp2018和Amazon-book数据集上分别提升了5%~38%,5%~54%和13%~87%。相较于最为广泛使用的LightGCN模型,DeGCF的性能分别提升了5%,10%和31%。这说明DeGCF将图卷积操作与模型训练过程解耦可以更好地学习图结构特征,同时基于节点度数的逆倾向加权的损失函数可以缓解流行度偏差对模型的影响。

(3) 除了DeGCF之外,没有一种对比方法可以在所有数据集上都取得最优的实验效果,这说明固定的模型结构并不能很好地适应所有推荐场景。在DeGCF中图卷积操作并不是固定于模型结构中的,而是根据训练反馈动态调用的,并且负采样策略进一步增强了图卷积操作,较好地维持了模型中的图结构特征。

(4) DeGCF模型在三个数据集上的每epoch训练时间显著少于其他对比模型。对比模型中时间复杂度最低的是模型结构最轻量的LightGCN模型,但其在训练过程中的每个epoch仍然需要执行若干次图卷积操作,其在Gowalla、Yelp2018和Amazon-book数据集上一个epoch的训练时间分别为33 s、64 s和222 s。而DeGCF模型将图卷积操作与训练过程解耦,其在三个数据集上的每一个epoch的训练时间分别仅为28s、36s和51s。

(5) 由于图卷积操作涉及全图的邻接矩阵与参数矩阵的乘法,因而基于GCN的模型每个epoch耗时随着数据规模的增大而显著上升。例如,所有对比模型在Amazon-book数据集上一个epoch的训练时间的平均值是Gowalla数据集上的7.4倍。而DeGCF模型的每个epoch耗时仅随数据规模增大而线性增长,其在Amazon-book数据集上的每个epoch训练时间仅是Gowalla数据集上的1.8倍。

4.3 模型训练效率分析

为了进一步分析DeGCF在训练效率上的优越性,本节以表3中时间复杂度最低的LightGCN模型作为代表对比方法,详细地从两方面进行分析: (1)模型达到最优性能所需要的训练总时间;(2)限定训练时间模型所能达到的最优性能。为了保证公平对比模型的训练效率,所有效率对比实验都在相同的硬件环境和软件框架下进行,并将所有影响训练时间的超参数进行了对齐。

4.3.1 对比模型训练总时间

表4给出了LightGCN和DeGCF在三个数据集上模型训练总时间对比,可以看出,DeGCF的训练效率显著优于LightGCN,在Gowalla、Yelp2018和Amazon-book数据集上DeGCF达到模型最优性能所需要的训练时间分别是LightGCN的1/4,1/10,1/13,这说明将图卷积操作与训练过程解耦,先将图结构特征注入到模型中可以帮助模型训练快速收敛。

表4 模型训练总时间对比

4.3.2 限定训练时间对比模型性能

图3绘制了在三个数据集上: ①限定35min的训练时间DeGCF模型所能达到的Recall指标; ②限定35min的训练时间LightGCN模型所能达到的Recall指标; ③表3中所列的其他所有对比方法在不限时训练条件下所能达到的最高Recall指标(用“SOTA-不限时”表示,在三个数据集上分别为DGCF、SGL-ED和SGL-ED)。从图3可以看出,在相同的训练时间下,DeGCF在测试集上的推荐效果显著优于LightGCN。限定35min的训练时间,DeGCF在Gowalla、Yelp2018和Amazon-book数据集上的Recall指标分别可以达到0.185 5,0.069 2,0.048 18,而同等训练时间LightGCN分别只能达到0.153 6,0.048 0,0.024 5。值得注意的是即使在数据规模最大的Amazon-book数据集上,训练35min的DeGCF的Recall指标也已经超过了所有对比方法所能达到的最佳性能(SGL-ED的0.047 8)。

图3 相同训练时间模型性能对比

4.4 计算开销分析

表5统计了DeGCF和3层的LightGCN模型训练过程中的全图矩阵计算次数。全图矩阵计算是指邻接矩阵和嵌入向量矩阵的乘法,即式(9)。以Amazon-book数据集为例,3层的LightGCN需要训练741个epoch训练至模型收敛,每个epoch包含2 325个batch,每个batch模型执行一次前向计算,一次前向计算需要三次全图矩阵计算,因此总共需要5 168 475次全图矩阵计算。而DeGCF在训练过程中仅仅需要执行3次全图矩阵计算(算法1中Step 8~10)。

表5 模型训练过程计算开销对比

虽然训练LightGCN需要数百万次的大矩阵计算,但是由于GPU可以显著加速矩阵运算,因此LightGCN的训练耗时还可以忍受,但前提是有足够大显存的GPU。此外,在模型训练完成后的推断阶段,LightGCN依然需要执行全图矩阵计算,这更不利于其在工业界的现实场景中应用。

由表5可以看出,DeGCF的全图矩阵计算次数几乎可以忽略不计,可以将其在更廉价的内存中完成。此外,在训练完成后的推断阶段,DeGCF只需要节点嵌入向量做内积,无需全图矩阵计算。因此DeGCF模型的训练和推断的计算开销远小于LightGCN,这也是将图卷积解耦的优势所在。

4.5 消融对比实验

图4 图卷积操作不同参数

图5展示了在Gowalla数据集上DeGCF模型的不同变体的实验结果。-IPS表示将损失函数中的基于节点度数的逆倾向分数加权移除,-GC表示将DeGCF中的所有图卷积操作移除。由图5可以看出,移除任意模块DeGCF的性能都会明显降低,这验证了本文设计的各个模块的有效性。

图5 DeGCF不同变体实验结果

5 结语

本文提出了基于解耦图卷积网络的协同过滤推荐模型,将图卷积操作与模型训练过程解耦,不但可以更好地学习图结构特征,还能减小计算开销。设计了基于随机投影的多样性负采样策略,并融合进图卷积操作,进一步增强了模型中的图结构特征。利用基于逆倾向分数加权的损失函数训练模型,可缓解流行度偏差对模型训练的影响。在三个基准数据集上的实验结果表明,本文所提方法性能优越且计算开销低。

猜你喜欢
集上物品卷积
称物品
基于3D-Winograd的快速卷积算法设计及FPGA实现
“双十一”,你抢到了想要的物品吗?
Cookie-Cutter集上的Gibbs测度
链完备偏序集上广义向量均衡问题解映射的保序性
从滤波器理解卷积
谁动了凡·高的物品
基于傅里叶域卷积表示的目标跟踪算法
复扇形指标集上的分布混沌
找物品