基于异构信息网络的混合推荐模型

2021-07-02 00:35林怿星
计算机应用 2021年5期
关键词:异构信息网络矩阵

林怿星,唐 华

(华南师范大学计算机学院,广州 510631)

(*通信作者邮箱karma2001@163.com)

0 引言

随着互联网规模逐年扩大,根据中国互联网络信息中心发布的《第45 次中国互联网络发展状况统计报告》[1]显示,截至2020 年3 月,我国网民规模达到了9.04 亿,互联网普及率达到了64.5%,互联网用户规模和数据量基数庞大,并将在未来保持增长。同时,用户与互联网应用的频繁交互产生了大量的信息。在如此海量的信息里如何使用户获取想要的信息,也就是如何解决“信息过载”问题,成为了新的挑战。

个性化推荐系统的诞生,在很大程度上缓解了用户的信息过载问题,但是在不同场景中依然存在许多挑战影响着推荐系统的表现性能,例如,数据稀疏、冷启动、可解释性以及大数据环境的并行计算问题等。

1)数据稀疏问题。以电商场景为例,电商交易平台上集中了海量的产品数据以及用户及其行为数据。如果将每个用户和产品的所有对应关系构建一个打分矩阵会发现这个矩阵极其庞大,然而相比这个矩阵的容量,真实的用户和产品历史关联个数的比例非常小,这种场景下很难获取用户和产品的准确特征向量。数据稀疏带来的影响包括:数据稀疏场景下获取的用户和产品特征过少,两者的信息都存在缺失,无法准确定位用户兴趣,也无法为用户提供丰富的产品推荐。

2)冷启动问题。当一个新用户进入系统时,因为缺乏过往的交易记录,无法根据过去的消费行为预测用户的消费兴趣并进行推荐,这是新用户的冷启动问题。同理,当一个新的商品进入交易平台,因其缺乏被消费记录,很难直接根据过往行为对其提取特征,也无法被准确地推荐给用户。

3)可解释性问题。所谓可解释性,就是在为用户提供推荐的同时,给出推荐的理由。例如,用户在亚马逊上买书时,系统会推荐其他书籍;在今日头条上看新闻时,会推荐其他新闻。在推荐时,不光给出推荐,且能够提供推荐的解释,能够提升用户对推荐系统的信任度和接受度,进而提升用户对推荐产品的满意度[2]。

本文研究了当前前沿推荐算法,基于异构信息网络以及深度学习技术,结合实际场景提出了一种数据稀疏环境下能够挖掘用户和产品深层次潜在信息并且预测用户对产品兴趣程度的混合推荐算法思路,能提升推荐模型在数据稀疏的场景下的推荐精度,适用于个性化推荐系统。对比其他模型,该模型能够实现将推荐平台中丰富的结构化以及非结构化数据整合,实现了同平台模型下推荐,并且该混合推荐模型具有推荐可解释性以及实时推荐效率优势。该模型在推荐系统的工程应用场景具有指导意义。

1 基于异构信息网络混合推荐模型

针对推荐平台中用户间的社交信息以及用户和产品复杂的属性信息,由此构建的异构信息网络结构复杂,为使得推荐系统在数据稀疏的环境下提升推荐准确度并且具有可解释性,本文提出了一种异构信息网络(Heterogeneous Information Network,HIN)和卷积神经网络(Convolutional Neural Network,CNN)结合的混合推荐模型。利用两种模型获取结构化的数据特征,组合特征后利用因子分解机(Factorization Machine,FM)[3]构建推荐评分预测模型,并且利用非单调函数的加速近端梯度(nonmonotonous Accelerate Proximal Gradient,nmAPG)[4]算法优化模型,得到最终的混合推荐模型。

1.1 基于Meta-Graph的异构信息网络的特征提取

异构信息网络可以承载网络中的多种节点类型和节点之间的多种关联类型,能更加精准地定义出信息网络中的不同语义从而挖掘出更深层次的信息。异构信息网络在互联网平台的应用非常丰富,例如微博网络、医疗信息网络、电子商务网络以及新闻网络等,将复杂场景里的对象和对象之间的关联关系装载进一个结构化的网络并且通过该网络分析,得到了广泛的关注。

一般来说,异构信息网络可以表示为G=(V,E),其中V表示网络中的对象集合,E表示网络的边集合,整个异构网络由这两个集合构成[5]。以文献信息网络为例构建的HIN,简单来说包括了作者(Author)、论文(Paper)、会议(Venue),以及主题(Topic)。图1 展现了如何根据这些对象和关系构建一个HIN。

图1 文献异构信息网络示例Fig.1 Example of literature HIN

以图1所示文献信息网络为例构建一个Network Schema,如图2所示。

图2 文献异构信息网络结构Fig.2 Structure of literature HIN

假如希望构建三种类型的Meta-Graph 关联矩阵:M1、M2和M3。其中:M1描述了Author 到Topic 的关联关系,即Author→Paper→Topic,简称为APT;M2描述了Author 到Venue 的关联关系,即Author→Paper→Venue,简称为APV;M3描述了Author 到Author 的关联关系,即Author→Paper→Author 简称为APA。M1、M2、M3如图3所示。

图3 文献异构信息网络结构拆分Fig.3 Literature HIN structural decomposition

将一条设定好的路径中每一个对象类型和下一个对象类型之间的关联关系构建成一个邻接矩阵,如构建一个Author-Paper 的邻接矩阵,设定一个元路径P=(A1,A2,…,Al),其中:A表示某种数据类型,A1和Al可以是同种类型也可以是不同种类型;W表示两个直接相连对象构建的邻接矩阵。路径P在一个完整的异构信息网络G=(V,E)中构建的相似度矩阵定义如下:

最终M是一个基于路径P构建的矩阵,矩阵的横纵坐标是A1和Al类型的对象。例如,文献信息网络中的APA路径,由此路径构建出来的矩阵最终横纵坐标都为Author,矩阵中的数值是通过式(1)将若干个邻接矩阵相乘得来。表示类型Ai和类型Aj之间的邻接矩阵,最终的矩阵M便是路径两端类型对象的相似度矩阵[6]。

对于上例的Meta-Graph,描述的都是单通道的传递关系,然后现实中存在着许多复合机构的路径,图4 展示了单通道路径和存在复合结构的路径。

图4 Meta-Path与Meta-Graph对比Fig.4 Meta-Path and Meta-Graph comparison

以图3 中的M2路径为例,从源节点U1到目标节点B2的路线有两条:(U,R,B,R,U,B)和(U,R,A,R,U,B)。其中(R,B,R)表示两个评论对同一个商品有相同的评价,而(R,A,R)表示两个评论都提及了相关的主题,这两种路径都可用于计算评论的相似性[7]。那么如何通过这种存在分支的复合型路径,计算Meta-Graph两端的对象之间的相似性,将利用矩阵计算结果。

在M2路径中,首先可以计算出User 和Review 的邻接矩阵,以WUR表示,WTUR表示WUR的转置矩阵。以WRB表示Review和Business 的邻接矩阵,WTRB为WRB的转置矩阵。以WUB表示User 和Business 的邻接矩阵,WTUB为WUB的转置矩阵。以WRA表示Review和Aspect的邻接矩阵,WTRA为WRA的转置矩阵。

以C表示两个矩阵相互计算的结果矩阵。在基于Meta-Path 的路径中,从左到右将矩阵依次相乘即可;在基于Meta-Graph 的M2中,左右两端的单通道部分依然可以这么做,而在复合结构位置,即(R,B,R)和(R,A,R)处,可采用Hadamard积(也可称为元素相关积)计算R→R的可矩阵,可表示为CSr=CP1☉CP2,其中CP1=WRB·WTRB,CP2=WRA·WTRA。

至此,基于元结构Meta-Graph 的路径M2两端对象的相似性矩阵计算完成。在现实场景中,对象以及对象之间的关系数据往往是更加复杂的,可以构建多条Meta-Graph 来描述它们之间的关系,并且基于每条Meta-Graph 生成一个User-Item相似度矩阵。

通过相似性计算可以获得基于Meta-Graph的源节点对象以及目标节点对象之间的相似度矩阵,推荐系统往往希望通过这些相似度矩阵获取两种对象的特征表达,用于后期计算任意两个对应对象之间的关联程度。

为了在数据稀疏的场景下获取用户和产品的特征信息以及挖掘特征的深层次语义,可采用矩阵分解方式[3-4]。本文对计算好的相似度矩阵采取FunkSVD 矩阵分解算法,将User-Item 相似度矩阵分解成User 和Item 两个隐式向量矩阵,且隐式向量的维度相同。

1.2 基于卷积神经网络的特征获取

针对推荐平台存在大量文本信息此类非结构化数据,本文采取卷积神经网络(CNN)的模型提取文本信息的深度特征,并通过神经网络将其他异构信息网络不能直接提取的特征与文本信息特征实现全连接,完成基于CNN的特征获取。

CNN 相对于其他深度学习算法,其特色在于卷积以及池化方法,常用于特征提取。在许多应用场景中,如图像处理,CNN 模型会以一个filter 作为滑动窗口,在输入数据矩阵上根据步长做横向和纵向的移动,从而扫描每块区域并且提取特征。而在自然语言处理(Natural Language Processing,NLP)场景之中,CNN模型可以将句子作为输入单位,并将句子做分词处理,将句子中的每个单词以维度相同的向量表示,组成一个输入矩阵,从而进入卷积和池化操作。图5 参考文献[8],展示了CNN实现文本分类的简单过程。

图5 文本卷积神经网络Fig.5 Text-CNN

异构信息网络中对象间相似度计算基于邻接矩阵计算,然而类似于ID 这样的数据因为具有唯一性无法参与计算,然而此类数据包含了许多特征。对于此类数据,本文通过传统神经网络模型将数据传达到嵌入层后,与1.1 节所获取的文本特征进行全连接,获取完整的User、Item特征向量。

基于CNN 特征提取的结构如图6 所示。其中:U_1、U_2表示User 特征1、特征2;I_1、I_2 和I_text 表示Item 特征1、特征2和文本信息。

图6 基于卷积神经网络模型的特征提取Fig.6 Feature extraction based on convolutional neural network model

至此,基于CNN的特征提取完成。

1.3 混合推荐评分预测模型

通过前文方法分别获取了两组特征,分别是从异构信息网络模型获取的User 和Item 隐式特征矩阵以及来自基于CNN 模型的User 和Item 特征。其中,来自隐式特征的维度为F,为方便计算将来自CNN 模型的User 和Item 特征的维度同样控制为F。

假设在异构信息网络模型中设计了L条Meta-Graph,那么将获得L个User 和Item 隐式特征矩阵且维度皆为F,此外,将同属于一个User 或Item 的特征进行拼接,最终每个User/Item 将获得(L+1)×F维度的特征向量。第i个User 和第j个Item的完整特征向量可表示为:

假设需要预测第i个User 对第j个Item 的评分预测,以xn表示该单次预测所需的所有特征向量,则其维度如下所示:

其中:xn表示连接后第n个样本的特征向量。式(4)中所描述的xn可以理解为预测用户i对产品j评分所需的完整特征集合,L表示用户和产品的隐式向量矩阵个数,组合基于CNN 的特征后共(L+1)组,F表示每个矩阵分解后的用户和产品的隐式向量维度。为了使得基于不同元路径分离出来用于预测用户i对产品j的所有特征能交互进行计算,本文使用因子分解机(FM)进行预测[8-9]。

不同于二阶多项式核支持向量机(Support Vector Machine,SVM),因子分解机为每个维度的特征xi学习一个表征向量vi,可以理解为类似于特征ID 的embedding 向量,其中这个向量的维度可以设定,以K来表示。那么在计算特征交叉信息时,两两特征相乘后的权重为这两个特征的表征向量的点积。模型训练时,除了训练偏置项以及每个特征的单独权重外,还需训练每个特征的表征向量。同时,User在为Item打分时,当前User 和Item 的历史平均分也具有重要参考价值,因此本文将这两个历史平均分融入因子分解机中,优化后的预测函数表示为:

如此多的特征卷入,需要训练大量参数,当模型训练完时,如此大量的参数在实时推荐中效率极低。因此,在定义完整的损失函数并训练时,应加入正则项去惩罚参数,使得模型在后续优化过程中能够挑选出有用的Meta-Graph,而忽略没用的,此外也降低推荐时的计算成本[11]。

为解决以上问题,本文引入Group Lasso 分组最小角回归算法[9],它是一种能够以组为单位的参数约束办法。式(6)展示了基于L2范式的分组最小角回归算:

其中:G表示分组的总数,从第一组开始遍历;‖pg‖2表示该组所有参数的L2范式值,即该组所有元素的平方和再开方。将此方法作为正则化加入损失函数中,能够极大地约束每组参数。上文介绍过,利用FM 进行预测,一组输入需要的特征个数为2×(L+1)×F,对于每个特征一一对应的参数个数同样为2×(L+1)×F,这个参数可以F个参数为一组,分为2(L+1)组。那么对于这个参数集的最小角回归算法如下:

其中:wl表示第l组的参数,每组参数的维度都是F,求得了针对w的每组参数的L2 范式的累加和。而针对交叉计算的部分,上文介绍到,FM 为每个特征学习了维度为K的表征向量,本文将这些参数用V表示,可以将其看成一个矩阵,格式为(2×(L+1)×F,K),因此可以得到:

其中:Vl表示第l组参数矩阵;F 表示计算矩阵Vl的Frobenius范数,简称F-范数是一种矩阵范数,记为‖‖·F。矩阵A的Frobenius范数定义为矩阵A各项元素的绝对值平方的总和再开方,计算公式可表达为:

完成两个Group Lasso 的定义后,将其作为正则化项加入后,可以得到完整的损失函数,如式(10)~(11)所示:

其中:N=d=2×(L+1)。损失函数(10)因为引入了两个正则化器(式(7)~(8)),且这两个正则化器存在不可导点,使损失函数成为非光滑函数。此外,针对损失函数的优化需要判断该函数的凹凸性,由于该损失函数待训练参数为w和V两组,且每组参数都为矩阵,因此损失函数为多元函数。针对多元函数判断凹凸性,本文引入Hession 矩阵进行判断,以f表示n元损失函数,则Hession矩阵的表示形式如下:

通过判断Hession 矩阵的正定性可以判断多元函数的凹凸性:当多元函数对应的Hession 的特征值均大于0 时,该矩阵为正定矩阵,多元函数为凸函数;反之则为凹函数。

由于损失函数中包括了预测函数(式(8)),针对参数矩阵V构建Hession矩阵,该矩阵的特征值计算结果可得公式:

其中:n表示输入特征的个数;xi表示输入特征。从式(13)可以看出n为偶数且大于1,K表示每个特征表征向量的维度,如此可以看出λ的取值不是全为0,因此预测函数以及损失函数均为非凸函数。

观察这个完整的损失函数,可以判断出它是一个非凸非光滑的函数,因而损失函数最低值求解转变成了一个非凸非光滑函数的最低值求解问题,优化这个损失函数本文采用非单调加速近端梯度算法实现参数调整。

1.4 模型优化

确定了损失函数之后能够发现,损失函数的优化是一个非凸非光滑的最小值问题。对于类似问题的优化常用近端梯度下降算法[10]实现。下面介绍如何利用非单调函数的加速近端梯度算法(nmAPG)优化损失函数里的两组参数w和V。

首先,在模型训练前,初始化w和V的矩阵元素值为随机值(random),将其视为矩阵的话其矩阵大小分别为:(1,2×(L+1)×F)和(K,2×(L+1)×F),矩阵元素初始化完成之后再初始化几个优化模型的参数,如下:h(w1,V1),q1=1,a0=0,a1=1。wi和Vi表示训练过程中迭代第i次后的w和V;c(wi,Vi)表示第i次迭代后的代入参数wi、Vi后的损失函数值;β和α为>0的常量,a表示线性步长。

yt表示将第t次迭代后参数wt和邻近算子wˉ和第t-1 次迭代后参数wt-1结合步长at和at-1线性组合后得到的线性预测参数,表达式如下:

同理Yt表示将第t次迭代后参数Vt和邻近算子和第t-1 次迭代后参数Vt-1结合步长at和at-1线性组合后得到的线性预测参数,表达式如下:

参数w的邻近算子的表达式[12]如下:

其中:g=1,2,…,G表示分组;表示L2-norm[13]。

参数V的邻近算子表达式如下:

User 以及Item 的历史平均分乘积的开方项的系数以q表示,则每轮循环该参数的更新[14]如下:

则对于第t次迭代时,基于线性预测参数的w邻近算子表达式可写为:

其中:∇hw(yt,Yt)表示对于损失函数h的参数w求导梯度。同理可得,第t次迭代时,基于线性预测参数的V邻近算子表达式可写为:

计算第t次迭代下参数集w的线性组合参数和其对应更新的邻近算子参数的差的L2-norm值,同理计算参数V的线性组合参数和其对应更新的邻近算子参数差值的Frobeniusnorm,相加后为本轮Δt值:

在训练过程中每次迭代一轮,需要更新以下参数:

完整的nmAPG 针对损失函数h(w,V)的训练过程[15]如下:

最终,经过指定次数的迭代或Δt<阈值ε,ε科学技术法取值1E-8,w和V参数逐渐稳定,模型训练完成[16]。

2 实验与验证

2.1 数据集

实验采用Kaggle 上公开发布的数据集yelp dataset(Version 9)。yelp 是美国著名的商户点评网站,适用领域囊括了酒店、购物中心、各地餐馆以及旅游等商户,用户可以在yelp 网站上给商户打分、提交评论以及交流购物体验等,是一款受众十分广泛的应用。其中实验所使用的数据集内数据文件主要为:yelp_business,yelp_review 以及yelp_User,文件格式为csv。

实验中yelp_business文件采用的字段包括:{business_id,name,neighborhood,address,city、state,postal_code,latitude,longitude,stars,review_count,categories,Parking、AcceptCreditcard},共174 567行;

yelp_review 文件中的字段包括:{review_id,business_id,User_id,stars,date,text},共17 746 490行;

yelp_User 文件包含的主要字段有:{User_id,User_name,friends_name,fans_number},共1 048 576行。

本文以yelp 数据集作为实验数据,设计9 条Meta-Graph来描述异构信息网络中User 到Business 的关联路径,通过矩阵乘法获取多个User-Business 相似度矩阵,以FunkSVD 算法获取多组User 和Business 隐式向量矩阵,通过重组获取完整的User和Business 特征向量后,以因子分解机做预测,并通过优化算法反复优化模型参数。推荐模型的效果以均方根误差作为评判标准。基于异构信息网络的推荐模型,首先需要为模型构建适当的路径用以描述数据集中的对象以及对象间的联系。基于数据集包含的字段,共构建了9 条Meta-Graph,如图7所示。

图7 实验Meta-Graph设计Fig.7 Experimental Meta-Graph design

2.2 混合推荐模型试验验证

实验经过损失函数计算以及模型优化阶段后,以均方根误差(Root Mean Squared Error,RMSE)作为推荐模型效果的体现标准,图8 显示了模型在参数λ不同取值情况下,推荐模型的RMSE 的变化情况,其中,参数λ=10-1时获得最佳实验结果,RMSE为1.187 8。

图8 混合推荐模型训练结果Fig.8 Training effect of hybrid recommendation model

图9展示了当λ=10-1时,推荐模型RMSE的收敛情况。

图9 混合推荐模型训练阶段RMSE收敛趋势Fig.9 RMSE convergence trend of hybrid recommendation model in training stage

表1 展示了模型训练完成之后,参数对应的Meta-Graph的选择情况。从表1 可看出,训练完成的混合推荐模型对参数以分组形式进行了挑选,保留了对预测有贡献的参数,并对无用参数归零,在实时推荐场景中可以帮助有效提高推荐效率。

表1 混合推荐模型参数选择结果Tab.1 Parameter selection results of hybrid recommendation model

实时推荐阶段,平台可以分析推荐结果,提高推荐的可解释性。例如预测某个用户对某个产品的评分较高将进行推荐,可以分析是哪些特征的贡献较大,例如基于地理位置Meta-Graph 解析得到的用户隐式特征向量和产品隐式向量,在本轮推荐时贡献了较大权重,以此类推,分析本次推荐结果的组成原因,增强可解释性。

2.3 对比实验

2.3.1 基于Meta-Graph的异构信息网络推荐模型

为体现混合模型引入非结构化数据特征后推荐精度的提升,本节将构建基于Meta-Graph的异构信息网络推荐模型,此模型为未结合非结构化数据特征的单一推荐模型,并介绍其实验模型构建以及实验效果,与混合推荐模型的实验效果作对比。

该模型采用了与混合推荐模型相同的Meta-Graph 设计,不同于混合推荐模型,该推荐模型未融入基于卷积神经网络模型的特征,且预测函数中未添加User 和Item 的历史平均分项,相对于混合推荐模型,该模型也可称为单一推荐模型。由此共得到18个相似度矩阵,经过矩阵分解算法得到18个User隐式向量矩阵和18 个Business 隐式向量矩阵。每个User 和Business 别获得18 组维度为10 的特征,因此每个User 和Business的维度为180。

实验经过模型优化阶段后,以RMSE 作为推荐模型效果的体现标准,图10 展示了在参数λ不同取值情况下,推荐模型的RMSE的变化情况。

图10 基于Meta-Grpah异构信息网络的推荐模型训练效果Fig.10 Training effect of recommendation model based on Meta-Grpah heterogeneous information network

由实验可得,模型在λ=10-2时达到了均方根误差的最低值1.228。图11 展示了当λ=10-2时,推荐模型训练过程中RMSE的收敛情况。

图11 基于异构信息网络推荐模型训练阶段RMSE收敛趋势Fig.11 RMSE convergence trend of recommendation model based on Meta-Grpah heterogeneous information network

表2 展示了在模型训练完成后,每条Meta-Graph 对模型中参数w和参数V的贡献情况。

表2 基于Meta-Grpah异构信息网络推荐模型参数选择结果Tab.2 Parameter selection results of recommendation model based on Meta-Grpah heterogeneous information network

2.3.2 其他推荐模型

基于FunkSVD 的推荐算法:采取一种线性回归的思想将User-Item 评分矩阵C分解成P和Q两个矩阵,分别代表User隐式特征矩阵和Item 隐式特征矩阵;再将P、Q矩阵相乘得到User-Item 评分预测矩阵,以矩阵分解再相乘的方式重构结果矩阵。该算法在奇异值分解(Singular Value Decomposition,SVD)的技术上优化数据稠密以及计算复杂度的难题。

基于因子分解机推荐(FM Recommendation,FMR)模型的推荐算法:对User-Item 评分矩阵,采取矩阵分解算法获得P(User 隐式特征矩阵)和Q(Item 隐式特征矩阵),并以因子分解机(FM)的方式实现评分预测。

这两类模型在推荐效果上有优秀的表现,并且为当前应用领域最成熟最广泛的算法之一。

2.4 模型对比结果

实验结果表明,混合推荐模型在数据稀疏的场景下能有效地整合结构化数据以及非结构化数据以实现共同推荐,并在训练完成后获得的模型参数上可以观察到,每条Meta-Graph和基于卷积神经网络模型对模型预测结果的贡献程度,模型实现了将无效特征参数归零,保证了模型的可解释性并且提高了混合推荐模型的实时推荐效率。

其次,混合推荐模型在推荐精度上对比单一的基于Meta-Graph 异构信息网络推荐系统有所提升,图12 展示了两种模型在相同数据集上不同λ取值时RMSE 的计算结果对比效果。从图12 可看出:混合推荐模型在λ=10-1处取得最优结果;而基于Meta-Graph 的异构信息网络推荐模型在λ=10-2处取得最优结果。显然混合推荐模型的训练效果优于基于Meta-Graph的异构信息网络推荐模型。

图12 混合推荐模型和单一推荐模型的训练效果对比Fig.12 Training effect comparison between hybrid recommendation model and single recommendation model

此外,本文对两种传统推荐模型FunkSVD 和FMR 在相同数据集上进行了训练,同样以均方根误差(RMSE)作为效果评判标准,取其最优效果参与推荐模型对标。

表3 直观地展示了本节描述的各个推荐模型在相同数据集yelp 中的最优训练效果(以RMSE 体现),并且将混合推荐模型对比其余模型验证了混合推荐系统在推荐精度上不同程度的提升。

表3 不同模型最优RMSE对比Tab.3 Comparison of the best RMSE of different models

2.5 结果分析

实验结果表明,在数据稀疏场景中,基于异构信息网络的混合推荐模型在相同数据集上的推荐性能,较其他单一推荐模型以及传统推荐模型有不同程度的提高。其次混合推荐模型的各项参数对应不同Meta-Graph以及卷积神经网络模型提取特征,使其在推荐环节具有解释性。模型参数在训练过程中可有效保留有用参数,能在实时推荐环节提高效率。

3 结语

本文基于当前推荐平台的数据复杂性,提出了一种基于异构信息网络的混合推荐模型,该模型基于Meta-Graph 相似度计算方法以及卷积神经网络技术提取出User 和Item 的结构化和非结构化特征表示,并利用因子分解机实现预测。经过训练后的模型在实验环节达到推荐的有效性、可解释性,并且对比多种模型在推荐精度上有不同程度的提升,在工程实践中有指导性作用。

猜你喜欢
异构信息网络矩阵
ETC拓展应用场景下的多源异构交易系统
离散异构线性多智能体系统的输出一致性
试论同课异构之“同”与“异”
凝聚与铺张——孙绍振教授《以丑、呆为美》两岸同课异构教学观摩后记
多项式理论在矩阵求逆中的应用
信息网络条件下党员教育工作问题与策略研究
国内教育微课发展与建设的初步探索
浅述非法利用信息网络罪的相关问题
目标中心战中信息网络安全防护问题研究
矩阵