多元图融合的异构信息网嵌入

2020-09-24 08:48申德荣聂铁铮
计算机研究与发展 2020年9期
关键词:子图异构语义

吴 瑶 申德荣 寇 月 聂铁铮 于 戈

(东北大学计算机科学与工程学院 沈阳 110169)18642113630@163.com)

网络表示学习是将网络嵌入到低维空间中,可以将网络中的节点、边或图表示成向量形式.这种表示形式能够更多保留节点的网络结构或者语义信息,因此可以将该向量表示作为特征应用到各种数据挖掘任务当中.

当前已有许多针对同构网络嵌入的研究成果[1-3]和部分面向异构网络嵌入的研究.利用元路径进行网络嵌入是提取异构网络特征的常用方法,但是元路径结构简单,可能会丢失一些重要的信息.元图可以获取到较元路径更复杂的信息,同时考虑节点间的元图和元路径会得到更好的嵌入结果[4].然而,已有方法大多由专家指定元路径和元图,类型较单一,不适用于大型复杂的网络,而且在指定元图和元路径时未考虑同类型网络各自的独特性,影响节点嵌入准确性.虽然已提出了一些针对异构网络元路径的发现算法,但是还没有见到关于元图的发现方法.部分研究利用频繁子图挖掘算法找到当前异构网络的频繁子图,将其作为元图,但是因为频繁子图算法生成的元图数量较大,并且在结构上可能存在很大程度的相似性,导致后续基于元图的相似度计算复杂度过高.

鉴于元路径是一种特殊形式的元图,本文提出了一种元图发现算法.在各种复杂网络的数据挖掘应用场景下,该算法可以发现网络中的适量关键元图,这些元图可以提取原网络的各类重要信息,减少网络嵌入的信息损失.基于元图发现算法,本文提出一种多元图融合的异构网络嵌入方法,该方法利用自动编码器模型,进一步自适应地选择关键元结构并学习权重值,不仅能够更好地获取网络的结构和语义特征,还可能有效降低人为因素对嵌入结果的影响.

本文的主要贡献有4个方面:

1) 提出了一种元图发现算法,该算法可以挖掘代表当前网络结构和语义特征的重要元图,有助于提升后续嵌入的准确性;

2) 提出了一种基于元图的节点相似度度量方法,相比于已有的计算方法,更具有通用性;

3) 利用神经网络嵌入节点的元图特征,通过原始特征的降维和融合,可以根据当前网络的特性计算不同元图的重要性,提高嵌入的准确性;

4) 通过对比实验,证明本文提出的方法在各类下游应用中的执行效果要优于其他网络嵌入算法.

1 相关工作

网络嵌入方法学习网络节点在低维空间的潜在表示,其结果可以作为各种数据挖掘任务的输入特征,例如聚类、分类、检索、链路预测等,因其较好的执行效果和在各领域的通用性,该方法成为近年来的研究热点.DeepWalk[1]是第1个提出使用语言模型skip-gram和无监督方式学习节点表示的方法,具体来说,将单词序列扩展到图,即用节点代替单词,用随机游走抽取的图路径作为单词的上下文,进而学习潜在节点的表示.Node2vec[2]是DeepWalk方法的扩展,它引入偏置随机游走生成序列,并分析了深度优先和广度优先2种游走方式所保留的不同结构信息,同时相比于DeepWalk依据权重的随机游走,该方法则增加了权重的调整参数.LINE[3]保留网络节点的一阶相似度和二阶相似度信息,采用广度优先搜索策略生成上下文节点,并使用负采样优化skip-gram模型.

近些年,随着应用系统复杂性的提升和用户需求的多样性发展,简单的同构网络难以表示现实世界,而异构信息网的异质性恰好可以解决复杂关系的建模问题,因此针对异构信息网的网络嵌入方法也相继出现.PME[5]是一种基于度量学习的异构信息网络嵌入模型,以统一方式捕获一阶和二阶邻近关系,并在单独的对象空间和关系空间中构建对象和关系嵌入,同时提出一种损失感知自适应采样方法用于模型优化.异构信息网中的异质性在引入丰富信息的同时也引入了潜在的不兼容语义,为了保留网络嵌入中丰富但可能不兼容的信息,Shi等人[6]提出了HEER算法,该算法通过将边缘表示和异构度量相结合,解决异构信息网络的综合转录问题.为解决网络中多类型节点、关系的结构信息和非结构化属性、文本的信息融合问题,Zhang等人[7]提出了SHNE异构网络嵌入模型,该模型通过skip-gram和深度语义编码的联合优化,捕获节点之间的异构结构接近度和非结构化语义关系.Huang等人[8]提出一个用于大规模网络异构信息学习的通用嵌入框架,加速拓扑结构与节点属性、二阶相似性、链路方向性等信息的联合学习,同时将复杂的建模和优化过程分解为许多简单的独立子问题,以分布式方式完成节点相似度的评估.

元路径和元图作为异构信息网的不同层次的网络模式,可以代表网络中特定的语义关系,因此在大量研究中都得到了充分的应用.TransPath[9]利用知识图中转换机制的概念,将元路径视为从第一个节点到最后一个节点的转换操作.此外还提出了一种用户引导的元路径采样策略,该策略以用户的偏好为指导,可以更精确地探索路径的语义,同时通过避免其他噪声和无意义的元路径提高了模型效率.Ji等人[10]提出了一个基于元路径融合的关注机制模型,用于异构信息网络的嵌入.该模型首先利用元路径从原始异构网络中抽取出多个同构网络,然后使用共同注意机制融合从多个同构网络中学习的节点嵌入.Sun等人[4]提出基于元图的网络嵌入模型,利用耦合张量-矩阵分解的方法获得节点的联合嵌入,即元图和其嵌入元路径的公共潜在特征.Zhang等人[11]引入多对齐属性异构网络的概念建模网络结构,将社交网络中的元路径进行分类,通过异构链接和属性信息定义了用户间各种类型的交互关系,然后将基于元路径的相似度作为深度自动编码器的输入特征,学习用户节点的低维表示.

为了将网络的元路径或者元图特征更好地应用到网络嵌入模型当中,少数研究集中于关键元路径或元图的发现和基于二者的特征度量.Huang等人[12]提出3种基于元结构的相关性度量方法,由于这些度量的计算复杂性较高,进一步设计一种支持以上数据结构的度量算法.Meng等人[13]研究自动发现元路径的方法,根据用户提供的具有较高相似度的节点对,生成能够解释节点对语义关系的元路径集合.同时提出贪婪树算法选择最相关的元路径以降低计算的时间复杂度.Fang等人[14]提出基于元图集合的相似度,利用监督方法自动学习元图集合中相似度的正确形式以适应期望的关系类型,同时设计双阶段训练和基于对称的匹配算法加速元图匹配的过程.

2 问题定义

针对异构信息网嵌入问题,我们首先给出相关定义,然后进行问题描述.

定义1.异构信息网.异构信息网是带有对象类型映射函数φ:V→L和链接类型映射函数ψ:E→R的有向图G=(V,E),图中的每个对象V属于一种对象类型φ(V),每条边E属于一种链接类型ψ(E).

定义2.元图[12].元图S是定义在网络模式TG=(L,R)上具有单一源节点nsou(入度为0)和单一目标节点ntar(出度为0)的有向无环图,可以表示为S=(N,M,nsou,ntar),其中N是节点的集合,M是边的集合.

我们研究异构信息网基于元图的节点嵌入方法,即给出一个异构信息网络G=(V,E),根据生成的元图M_G=(Vsou,Vtar,E)计算节点相似度s(Vsou,Vtar)作为原始特征Mij,利用神经网络模型得到所有节点的低维表示x1,x2,…,xn.

本文提出的多元图融合的异构网络嵌入模型(heterogeneous network embedding model based on multiple meta-graph fusion, HE-MGF)包括元图发现和基于多元图融合的节点嵌入2部分.模型的基本思想如图1所示,首先利用频繁元图发现算法得到当前异构信息网的一系列频繁元图;然后通过聚类算法,选择具有代表性的元图集合;接下来计算节点间基于元图集合的相似性分数;最后利用神经网络模型对元图集合进行融合嵌入.

Fig. 1 Framework of HE-MGF图1 基于元图的异构信息网嵌入模型的框架

3 元图发现

元图代表特定的结构和语义信息,不同网络中不同类型元图的重要性程度也存在一定差异.因此,需要根据特定网络的特性选择频繁元图集合,以涵盖网络的重要语义特征.所以本文提出频繁元图发现方法挖掘不同网络的关键信息.

3.1 频繁元图挖掘

元图是一种有向无环图,具有单一起点和终点,是网络中子图的子集;而包含节点数量过多的元图对计算节点对的相似度并无重要的作用;大多应用场景要求元图的起点和终点的类型要一致等.为此,本文利用GRAMI[16]算法,并进行部分修正,称为FMGM算法,该算法能更好地适用于自动生成元图的应用场景.FMGM包括3部分:FrequentMeta-graphMining(见算法1)是算法的整体流程(其中行⑦~是FMGM增加的元图抽取过程),Subgraph-Extension(见算法2)为子图扩展过程(其中行⑤~是FMGM增加的剪枝部分),IsFrequentCsp[16](见算法3)用于解决子图同构问题.

算法1.FrequentMeta-graphMining.

输入:G=(V,E)、频繁度阈值t;

输出:所有频繁度超过t的元图集合M.

①M,S置为空集;

② 构建G的频繁边集合fedgs;

③ foreoffedgs*选择仅包含目标类型节点的频繁边*

④S←S∪SubgraphExtension;

⑤ removeefromGandfedgs;*从原图和频繁边集合中删除当前边*

⑥ end for

⑦ for eachmofS

⑧Mg←mpath(tp);*根据设定的起点和重点类型tp,选择当前子图中满足要求的路径*

⑨ end for

⑩ for eachmpath1,mpath2 ofMg

mpath1.tg==mpath2.tg

算法1的行①②初始化结果集,并构建频繁边集合;行③~⑥选择起始边并执行子图扩展,在此次扩展结束后删除当前边;行⑦~抽取频繁元图.

算法2.SubgraphExtension.

输入:G的子图S、元图图节点数量的最大值m、t、fedgs;

输出:所有扩展S的频繁元图M.

①M←s,candidateset置为空;*当前子图放入结果集中,候选集置为空*

② foruinsandeinfedgs*针对子图中的每个节点和每条频繁边*

③ ife可以被用于扩展u

④ext=s+e;

⑤ if当前子图ext未生成过并且其节点量小于阈值m

⑥candidateset←ext;

⑦ end if

⑧ else ifext中的节点数量为m

⑨ ifextis meta-graph

⑩candidateset←ext;

算法3.IsFrequentCsp.

输入:s,G,t;

输出:ifs是频繁元图,返回true,否则返回false.

① consider theCSPofsinG;

② 应用节点和边的一致性规则,去掉矛盾组合;

③ if 任意领域的节点数量小于t

⑤ end if

⑥ for eachsol*CSP的一个解决方案*

⑦ 在对应领域domains中标记sol所有节点;

⑧ if所有domains至少有t个节点

⑨ return true;

⑩ end if

算法3的行①~⑤计算子图的CSP,删除不满足频繁度条件的子图;行⑥~遍历domains删除不满足条件的子图.算法3中的CSP表示为三元组形式(X,D,C),X是子图节点(变量)的有序集合,D是域集合(domains),每个X都对应一个包含G中所有节点的域,C是X之间的约束条件集合CSP的一个可行的解决方案(sol),就是一个满足约束条件C的节点分配方案,即向X中的每个变量分配domains中满足约束条件的节点.

3.2 候选元图选择

由于生成的元图数量较多,且大部分结构相似,而元图匹配的计算代价又非常高,所以我们提出基于k-means聚类的思想,选择具有代表性的关键元图.具体思路是将生成的频繁元图根据其结构相似度聚成k个类别,每个类别再根据其组内的结构相关性和组间的结构差异性,投票选择出最能代表本类别元图的某一个或者某几个元图.

首先介绍元图相似度的计算方法,如果2个元图共享一些公共的表示,则两者的结构可能是相似的,代表的语义关系可能也是相似的.基于最大公共子图(MCS)计算元图的结构相似度是一种理想的方法,二者的MCS越大,它们的结构相似度就越高.元图结构相似度的计算公式为:

(1)

因为计算最大公共子图是NP-Hard问题,所以本文提出一种近似的简化替代算法,每个元图都可以表示为(x,y)T的矩阵形式,其中x=(nt1,nt2,…,ntk),y=(et1,et2,…,etk),ntk表示图的节点类型,etk表示图的边类型,两者的取值分别表示特定类型节点和边的数量.因为余弦相似度在计算文本相似性时有较好的效果,所以本部分利用余弦相似度(式(2))计算2图的结构相似度,利用式(3)计算类心(m_x,m_y)T:

(2)

(3)

下面简单描述元图聚类的方法.

算法4.Meta-graphSelection.

输入:簇数目k、频繁元图集合D;

输出:候选元图集合R.

① 在D中随机选择k个对象构建初始类心集合w1;

② fordofDandcofw

③Sdc=SS(d,c);*计算d与类心的结构相似度*

④ end for

⑤ fordofD

⑥mi←max(Sdc);*将d归类到相似度分数最高的类心所在的聚类mi中*

⑦ end for

⑧ 计算新类心wt;

⑨ ifwt≠wt-1

SS(d,*)求和,作为类内元图相似度*

4 基于多元图融合的网络嵌入

本节利用一种适用于非对称元图的相似度度量方法HeteMGSim计算节点的相似度矩阵,并将该矩阵作为后续嵌入模型的原始特征.

4.1 基于元图的节点相似度计算方法——HeteMGSim

现有的基于元图的相似度计算方法,包括StructCount,SCSE[12],GraphSim[10]这3种.这些方法都在不同方面存在缺陷,GraghSim使用的前提是元图必须为对称形式,StructCount没有考虑起始节点的活跃度对相似度的影响程度,SCSE需要使用元结构层的概念,但是对于非标准形式的元图而言,很难界定节点所处的结构层次.受HeteSim[17]启发,我们提出一种适用非对称元图的节点相似度计算方法HeteMGSim,该方法的通用性要优于以上计算方法.

HeteSim的基本思想是将查找元路径实例问题转化为节点对的随机游走问题,并将源节点和目标节点的相似度定义为二者在特定元路径的中点相遇的概率.

因为元图是具有相同起始点的元路径的组合,从给定的元图中可以抽取到若干条元路径,所以计算2点在不同元路径相遇概率的乘积可以作为节点在元图中的相遇概率.给定一个HIN,2点沿元路径P的可达矩阵Cp为:

Cp=UA1A2×UA2A3×…×UAlAl+1,

(4)

其中,UAiAi+1是邻接矩阵的行归一化结果,表示Ai→Ai+1的转移概率矩阵,同时,邻接矩阵的按列归一化VAiAi+1表示Ai+1→Ai的转移概率.式(5)表示2点沿元路径在中点类型M下相遇的概率:

HeteSim(A1,Al+1|P)=UA1A2×UA2A3×…×
Umid-1M×VM×Vmid+1×VAlAl+1,

(5)

其中,P1P2,…,Pn是构成元图的元路径集合,所以两者在中点类型M下相遇的概率表示为

HeteMGSim(A1,Al+1|S)=
HeteSim(A1,Al+1|P1)×
HeteSim(A1,Al+1|P2)×…×
HeteSim(A1,Al+1|Pk)=
HeteSim(A1,Al+1|P1LP1R)×…×
HeteSim(A1,Al+1|PkLPkR).

(6)

4.2 利用神经网络嵌入节点

在异构信息网中,每个元图都可以获取特定的语义关系信息,利用关键元图的信息将其融合,可以很大程度上保留原网络的全部结构和语义信息,所以利用基于元图的节点相似度进行网络嵌入将会是非常有效的方法.

我们由此提出一种多元图融合的无监督网络嵌入方法,利用自动编码器模型[11]首先对基于元图的相似度特征进行降维,然后学习不同元图的权重,最后融合不同元图下节点的向量表示.

深度自动编码器模型可以通过一系列非线性映射操作将网络的原始特征映射到一个低维的特征空间中.自动编码器包括编码和解码2部分,编码部分映射原始特征向量到目标特征空间,同时解码部分恢复潜在特征表示到重构空间.模型的目的是保证原始特征与重构特征尽可能相似,以减少降维过程造成的信息损失.

本文扩展传统的自动编码器模型用于解决基于元图的网络节点嵌入问题,该模型以多个元相似矩阵作为输入,比如在社交网络中,如果想保留所有用户之间的相似度,那么矩阵的行就可以表示特定元图下的某一用户与其他用户的相似度分数.每个元图对应的相似度矩阵,都需要执行一系列独立的编码和解码操作,同时为了融合不同元图的信息,增加了编码阶段潜在特征整合的隐藏层和解码阶段潜在特征分解的隐藏层.自动编码器的结构如图2所示:

Fig. 2 Auto-encoder for node embedding图2 自动编码器嵌入节点

在编码部分,xi代表节点的原始特征,yi是隐藏层的潜在特征,在目标空间中的编码结果表示为zi,式(7)~(9)表示这些变量间的关系:

(7)

(8)

(9)

(10)

(11)

(12)

该模型的目标函数是最小化网络中所有实例的原始特征向量与重构特征向量之间的编码损失.由于输入向量是极其稀疏的,即相似度矩阵中零元素的数量要远远超过非零元素的数量,直接将其放入模型中会增加零元素的编码解码操作,为克服这个问题,在定义损失函数时,为非零特征的损失分配较高的权重值,进一步对每个元图的损失求和,最终的损失函数表示为

(13)

5 实验与分析

在数据集上测试本文提出的网络嵌入算法.

5.1 数据集

如表1所示,本文使用3个数据集,DBLP1包含339篇文章以及文章的作者、来源、参考文献3种属性信息.为降低稀疏性,我们在数据集中选择发表论文25篇以上的作者集合,以及论文数量在50篇以上的会议和期刊,利用论文及其属性信息构建异构网络.网络链接包括author-paper,paper-venue,paper-paper这3种类型.我们用DBLP1完成节点的链路预测任务.DBLP2[17]是带有标签的数据集,与DBLP1相比,DBLP2增加了论文的主题信息和各类节点的标签信息,其中的标签类型代表4类研究领域.因为DBLP2丢失了论文间的引用关系,而该信息对paper,author类型节点的链路预测有很重要的作用(如预测论文未来的引用关系、预测合作者关系),所以我们仅利用DBLP2完成节点分类任务.DEG是包含学位信息的数据集,其构建的异构网络包括degree,person,school,term这4种类型的节点以及person-degree,degree-term,degree-school这3种类型的连接关系.我们用DEG完成节点的链路预测任务.

Table 1 Statistics of Datasets表1 数据集统计

5.2 实验设置及对比实验

本文将HE-MGF算法与4种算法进行比较.

1) AD.我们用人工指定关键元图代替HE-NGF模型的元图生成部分.图3所示的元图是DBLP1,DEG的常用元图.

2) Dual-stage[14].一种利用样本进行监督学习的方法,具体思路是利用种子元图,通过结构相似度启发式获取候选元图,再根据特定语义下选择的训练样本进行双向训练得到有效的元图和相应的权重值.

3) DeepWalk[1].忽略网络异构性,利用skip-gram模型的网络表示学习方法.

4) Metapath2vec[18].基于元路径的随机游走重构节点的异质邻居,并用skip-gram模型进行节点嵌入的方法.

Fig. 3 Meta-graphs图3 常用元图

设置AD和Dual-stage对比实验的目的是评估元图生成算法的有效性.根据本文的频繁元图挖掘和聚类算法得到当前网络中的部分关键元图,将其嵌入结果与常用的DBLP元图以及利用样本进行监督学习的结果进行分析比较,以评估元图生成和聚类算法的优越性.设置DeepWalk和Metapath2vec对比实验的目的是评估利用元图信息相比于元路径信息,或者不考虑异构信息进行嵌入的优越性.

实验中,将4种算法的嵌入结果分别应用于DBLP的链路预测和节点分类的挖掘任务中,因为所选数据集包含时间属性信息,所以可以实现2种链路预测任务,包括当前网络中未发现链路的推理和未来时点的链路预测.在链路预测任务中,随机选择作者类型的节点对构建测试集,包括当前存在链接(合作者关系)的正样本和不存在链接的负样本,目标是预测网络中的合作者关系.在节点分类任务中,我们利用DBLP2的类标签训练SVM模型,测试节点关于研究领域分类的准确性.在DEG链路预测任务中,随机选择degree类型的节点对,根据节点对是否处于同一语义类别划分正样本和负样本.用准确率、召回率、F1值度量不同算法的执行效果.

5.3 实验结果

1) 预测、分类性能比较

如表2~4所示,在实验参数选择最优的情况下,与AD和Dual-stage算法相比,HE-MGF模型发现的元图能更全面地获取节点间的结构和语义关系.而与DeepWalk和Metapath2vec算法相比,HE-MGF模型充分考虑了节点类型的异构信息,以及网络中代表不同语义关系的复杂图结构,使学习到的节点向量保留了除节点邻接关系之外的其他重要信息,进而达到较好的链路预测效果.

Table 2 Link Prediction Performance in Network Embedding(DBLP1)

Table 3 Node Classification Performance in Network Embedding (DBLP2)

Table 4 Link Prediction Performance in Network Embedding(DEG)

2) 频繁度阈值的影响

元图发现算法生成的关键元图数量取决于子图频繁度的设置,较大的频繁度可以获得最关键的元图集合,而较小的阈值设定可以得到更多类型的元图,增加结构和语义信息的多样性.通过设置不同的阈值挖掘频繁元图,进而完成节点嵌入和节点分类,可以发现适用于当前数据集的阈值大小.我们比较了在不同嵌入维度d下,频繁度阈值s对节点分类效果的影响,实验结果如图4所示,最优值为:d=150,s=60.

Fig. 4 Influence of support threshold图4 频繁度阈值的影响

3) 节点的向量表示维度的选择

HE-MGF中自动编码器的嵌入维度会很大程度上影响节点表示学习的效果,所以需要对嵌入维度的敏感性进行测试和分析.在4种对比算法中,因为DeepWalk和Metapath2vec与HE-MGF采用的是完全不同的嵌入方式,而另外2种对比算法与HE-MGF除了在选择元图的部分存在差异外,它们使用的网络嵌入模型都是编码器,所以嵌入维度的敏感性是相似的.因此本文选择对比算法中的DeepWalk和Metapath2vec,观测维度参数的变化对嵌入结果的影响.实验结果如图5所示,可以发现随着嵌入维度的增大,节点分类的效果得到了显著的提升,直到达到最优值,之后嵌入维度的增加反而会降低节点分类效果.HE-MGF的嵌入维度最佳值为d=150.

Fig. 5 Influence of node embedding dimension图5 节点嵌入维度的影响

4) 聚类数量k的影响

较多的元图能抓取更加全面的信息,但是考虑到后续节点嵌入模型具有较高的复杂度,如果选择过多的元图,则需要大量计算节点在不同结构下的相似度,进而构建目标节点的相似度矩阵.根据实验结果发现,过多的元图对于嵌入效果并没有显著的提升,所以考虑到效率问题,应该在保证较高嵌入质量的前提下选择较少的元图.我们比较了在不同频繁度阈值s下,k值对链路预测效果的影响.我们在这部分展示DBLP1与DEG的k值选择结果,实验结果如图6所示,DBLP1的最佳值为s=60,k=8.得到的有效元图包括APA,APAPA,APPPA,APVPA,APPA,APA(APPPA),APVPAPA,APA(APPPVPA).如图7所示,DEG的最佳值为s=20,k=8.得到的有效元图包括DTD,DPD,DSD,DTDTD,DPDPD,DTDPD,DTD(DSD),DPD(DSD).与常用元图相比,HE-MGF算法发现的元图不但类型更全面,而且应用于不同网络的灵活性较高.

Fig. 6 Influence of k in DBLP1图6 DBLP1中k值的影响

Fig. 7 Influence of k in DEG图7 DEG中k值的影响

5) HE-MGF算法的执行效率

因为频繁元图发现算法中频繁度参数的设定对HE-MGF执行时间有重要影响,所以在这部分我们比较了在不同频繁度阈值s下,数据集规模对算法性能的影响,实验结果如图8所示:

Fig. 8 Running time of different data sizes图8 不同数据集规模的运行时间

6 总 结

本文提出一种多元图融合的网络节点表示模型.其中,利用频繁元图挖掘算法和进一步元图聚类实现了元图的自动发现任务,避免通过用户指定和监督学习生成元图造成的信息缺失问题.同时,基于多元图的网络节点嵌入方法,利用无监督的自动编码器结构,可以自动学习网络中的关键元路径以及相应的权重值.另外,对基于元路径计算节点相似度方法的改进可以较好地适应元图的应用场景,且具有更强的通用性.实验证明,本文提出的方法在准确率和召回率上都有较好的效果.接下来,将本文的网络嵌入方法扩展到跨网络或者动态网络的应用场景中,以解决更广泛的异构信息网的数据挖掘问题.

猜你喜欢
子图异构语义
ETC拓展应用场景下的多源异构交易系统
真实场景水下语义分割方法及数据集
离散异构线性多智能体系统的输出一致性
试论同课异构之“同”与“异”
异构属性网络中统计显著密集子图发现算法研究
基于Spark 的大规模单图频繁子图算法
交叉立方体的最大导出子图与拥塞
凝聚与铺张——孙绍振教授《以丑、呆为美》两岸同课异构教学观摩后记
不含3K1和K1+C4为导出子图的图色数上界∗
“吃+NP”的语义生成机制研究