基于词向量语义分类的微博实体链接方法

2016-08-22 09:55冯冲石戈郭宇航龚静黄河燕
自动化学报 2016年6期
关键词:知识库语义实体

冯冲 石戈 郭宇航 龚静 黄河燕,2



基于词向量语义分类的微博实体链接方法

冯冲1石戈1郭宇航1龚静1黄河燕1,2

微博实体链接是把微博中给定的指称链接到知识库的过程,广泛应用于信息抽取、自动问答等自然语言处理任务(Natural language processing,NLP).由于微博内容简短,传统长文本实体链接的算法并不能很好地用于微博实体链接任务.以往研究大都基于实体指称及其上下文构建模型进行消歧,难以识别具有相似词汇和句法特征的候选实体.本文充分利用指称和候选实体本身所含有的语义信息,提出在词向量层面对任务进行抽象建模,并设计一种基于词向量语义分类的微博实体链接方法.首先通过神经网络训练词向量模板,然后通过实体聚类获得类别标签作为特征,再通过多分类模型预测目标实体的主题类别来完成实体消歧.在NLPCC2014公开评测数据集上的实验结果表明,本文方法的准确率和召回率均高于此前已报道的最佳结果,特别是实体链接准确率有显著提升.

词向量,实体链接,社会媒体处理,神经网络,多分类

引用格式冯冲,石戈,郭宇航,龚静,黄河燕.基于词向量语义分类的微博实体链接方法.自动化学报,2016,42(6):915-922

微博是一种通过关注机制分享简短实时信息的广播式的社交网络平台,已成为目前最流行的社交平台之一.截至2014年9月30日,微博的月活跃用户已经达到1.67亿,用户每天产生的微博数目达到2亿[1].如何从海量微博中自动地及时分析、获得信息已成为研究和应用热点问题,微博实体链接是其中关键任务之一.

微博实体链接是指将微博中已经识别出的实体指称链接到知识库中的一个具体真实实体的过程[2-3].例如,微博“在我眼中,科比还是比乔丹棒的”中,“乔丹”作为实体指称,在知识库中有6个实体义项.实体链接的目标就是要确定,这里的“乔丹”,指代的是知识库中哪个实体义项.

以往实体链接研究主要集中在新闻等长文,对于微博等短文本的研究工作刚起步.微博具有两个特点[4]:1)内容非常简短,通常每篇至多包含140个字符;2)格式不规范,经常出现口语和缩写等灵活的非正式表达.传统的长文本实体链接方法主要从实体指称的上下文中抽取特征用于实体消歧,但是因为微博内容简短,传统方法难以抽取有效特征.

针对微博文本上下文不足的问题,部分工作借助微博的结构特点扩充微博的上下文.Jiang等[5]利用Twitter中的转发、回复以及同一用户的其他帖子扩充上下文进行情感分类.Shen等[6]利用同一个Twitter用户的数据对其兴趣建模,提高与用户兴趣模型一致性高的候选实体的权重.Guo等[2]利用类似主题的微博建模来对候选实体进行消歧.Liu等[7]利用指称上下文—实体上下文、指称上下文—指称上下文、实体上下文—实体上下文的文本相似度来对实体消歧.

以上方法虽然能够改善微博实体链接中上下文特征匮乏的状况,但本质上受限于对更多微博数据资源(用户的转发、回复和其他微博等内容)的获取,增加了处理开销.如果缺乏符合建模要求的数据,仍难建立有效模型[8].

本文从充分利用指称和候选实体本身所含有的语义信息入手,提出假设“一条微博中的名词,包括实体指称,位于相近的语义空间”,从而把微博实体链接问题转化为语义空间中的分类问题.以NLPCC 2014[9]评测数据集中的微博样本“好怀念当时的那支队伍啊!弗朗西斯、麦迪、巴蒂尔、大姚、斯科拉、穆托姆博、诺瓦克”为例,“大姚”是“姚明”和“姚晨”的别名.两人都是媒体热点人物,实体指称具有类似的词汇和语法特征,传统方法难以识别.而考察指称与上下文中其他名词的语义距离则可进行有效区分.统计577条微博训练数据,得出结果如表1所示.

表1 训练集数据统计Table 1 Statistics in training data

从统计数据可以看出,平均每条微博中含有7.91个名词,同一语义类别名词个数超过3的微博占训练数据的87%,验证了假设“一条微博中的名词位于相近的语义空间”的合理性.

基于以上假设,利用知识库中实体的深层语义信息,基于词向量对微博进行建模和实体消歧.传统的方法已经验证,足够多的语义特征可以提高实体链接的准确率[10],但由于微博是短文本,从微博本身很难加入更多的特征,因此从实体链接的另一方面入手,将知识库中的实体表征为含有语义、语法信息的分布式向量,从语义分类层面对微博进行建模和实体消歧.

本文的主要贡献是提出了一种基于神经网络和多分类回归模型的命名实体链接方法,将微博中上下文名词与对应的待链接实体映射到同一个语义主题空间,并以此训练分类模型对实体进行语义消歧.其创新之处在于,从神经网络语言模型的角度,以分类器分类预测的方式提出了实体消歧方法,不仅能够充分地利用上下文语义信息,也能够利用实体的语义分类信息来进行消歧,并降低了获取训练语料的难度.

本文结构如下:第1节介绍本文提出的方法;第2节是实体链接部分;第3节是实验部分;最后是结论和展望.

1 词向量语义分类方法

1.1任务描述

1.2词向量语义分类模型构建(SCWE)

1.2.1词向量语义模板构建

图1是本文的词向量语义分类模型.其中神经网络部分采用的是CBOW模型[11].CBOW是一个三层神经网络模型,从左至右依次是输入层、隐含层和输出层.其基本思想是通过训练将每个词映射成含有语义、语法信息的K维实数向量(K是可选参数,一般为50~200),通过向量之间的距离(例如欧氏距离、cosine相似度等)来判断它们之间的语义相似度.该模型是对语言模型进行建模,在建模的同时获得词语在分布式向量空间上的表示.

假设语料库是由S个句子组成的一个句子序列,整个语料库有V个词,Tj表示第j个句子的词个数,则对整个语料库来说,该模型的目标函数可以表示为

图1 词向量语义分类模型Fig.1 Model of semantical categorization by word embeddings

通过随机梯度下降对目标函数求解,即可将语料库中V个词表示为含有深层语义特征的分布式向量.

1.2.2特征选择

对于给定的训练数据集,用T=(t1,t2,···,tn)表示训练数据集中的每条微博,S=(s1,s2,···,sn)表示与微博相对应的,已经链接到知识库的无歧义实体的集合.基于假设“一条微博中的所有名词,包括实体指称,位于相近的语义空间”,抽取训练集中的名词,通过第1.2.1节中方法获得词向量模板,将抽取的名词表示为分布式向量,得到名词向量集合N.分布式向量中含有深层语义信息,对集合N用k-means[12]进行聚类,获得k个中心点C=(c1,c2,···,ck)作为k个特征(其中k为k-means聚类核心个数).同时,通过计算每个词到k个中心点的距离,获得集合N中每个词的类别标签.

1.2.3训练数据特征化

由第1.2.2节中得到的每个名词的标签,可以把集合T中的微博ti表示成k维向量,把ti中的每个名词类别出现的频数作为该维特征上的权值.

如图2所示,选取k=10,即选取10维特征.乔丹、科比、奥尼尔、艾弗森对应的聚类标签为3,球员对应聚类标签为1,退役对应聚类标签为5.则可以将这条微博表示为(0,1,0,4,0,1,0,0,0,0).与这条微博相对应的,已经链接到知识库中的无歧义实体si为“迈克尔·乔丹”,从向量模板中找出“迈克尔·乔丹”所对应的向量,通过公式

计算与迈克尔·乔丹最接近的类别,得出迈克尔·乔丹所属类别为3,于是可将si迈克尔·乔丹表示成向量(0,0,0,1,0,0,0,0,0,0).

图2 训练数据示例Fig.2 Example of the training data

通过上述过程我们可以把训练集合中的微博和对应的待链接实体表示成k(k为所选取特征个数)维的向量对.

1.2.4多分类模型训练

相关工作表明[13-15],在实际运用中,逻辑回归分类器跟SVM、随机森林等分类模型效果接近,但逻辑回归分类器算法复杂度最低.因此,该部分我们采用逻辑回归分类器构建分类模型.用表示特征化后的微博集合,用表示特征化后与微博相对应的,已经链接到知识库的无歧义实体的集合.其中,t∗i和s∗i均为k维向量.在特征化训练数据并将之用向量表示后,可以将问题转化为多分类问题.这样做的意义在于,既利用了微博待链接实体跟该条微博中的名词之间的关系,又利用了实体的词向量语义特征.

由此可以得出相应的多分类逻辑回归[16]模型:

通过构造似然函数对模型求解.把n个独立的观测样本记作(Xi,Yji),i=1,2,···,n.利用上面规定,得出如下似然函数:

其中,πj(Xi)=P(y=j|Xi).对等式两端取对数整理可以得到如下的对数似然函数:

通过梯度下降法对似然函数求解,至此得到训练好的词向量语义分类模型.

2 实体链接过程

2.1任务描述与特征选择

微博实体链接是将微博中给定的实体指称链接到知识库中无歧义实体的过程.本文选取两个特征进行实体消歧,词向量语义分类特征(Semantic categorization by word embeddings,SCWE)和实体流行度特征(Entity frequency,EF).实体链接过程表述如下:

2.2实体链接过程

图3所示是整个实体链接的过程.整个过程可以分为三个部分:实体指称标准化、候选实体扩充和实体消歧.微博中许多实体有若干不同的名称、提法,有的是别名(如小飞侠)、昵称(如大姚),有的是全名的一部分或是缩写(如北京理工、北理工、北理等).因此,首先需要对微博中出现的指称映射到一种标准的表达形式.具体地,构建一个同义词词表[17](见表2)来解决这个问题.其中,Key值表示实体的不规则指称,Value表示标准实体.

表2 同义词表举例Table 2 Examples of synonym lexicon

将实体指称标准化之后,需要为待消歧的命名实体构建一个候选实体列表.本文构建了歧义词表(见表3),表3中存储的是实体的标准形式(Key)及其对应的无歧义实体列表(List).

表3 歧义词表举例Table 3 Examples of ambiguity lexicon

在链接阶段,需要对扩充后的候选实体列表进行消歧,本文通过词向量语义分类特征和实体流行度特征进行消歧.词向量语义分类特征由第二部分构建的模型获得,实体流行度特征[4]则由Wikipedia页面中实体在所有描述页面中出现的次数来度量(见表4),并根据经验对实体流行度的权值进行设置(见表5).

表4 实体流行度表举例Table 4 Examples of entity frequency

图3 实体链接过程Fig.3 Process of entity linking

表5 实体流行度权值Table 5 Weights of entity frequency

综上所述,本文提出的基于词向量语义分类的微博实体链接过程的算法如下.

算法1.基于词向量语义分类的微博实体链接方法

输入.微博及其对应的待链接实体

输出.链接到知识库的无歧义实体

步骤1.根据知识库中的同义词表,对MMM中的指称进行描述标准化,得到标准化后的指称集合.

步骤3.再通过计算各候选实体到该标签的余弦距离得到各候选实体的语义分类特征.

步骤4.按式(10)计算每个候选实体两个特征的加权和,并输出结果最高的候选实体作为最终链接实体.如果加权和小于阈值α,则返回标记NIL.

3 实验

3.1数据集描述

本文建立同义词表、歧义词表、实体流行度表以及训练的词向量模板所用数据均为Wikipedia[18],使用的数据版本是2015年7月19日的中文百科.通过规则对知识库抽取信息并进行统计,获得数据规模如表6所示.

表6 实验数据规模Table 6 Scale of experiment data

实验中选取NLPCC2014[9]中文实体链接评测任务训练集中包含的177条中文微博数据和人工标注的400条新浪微博数据(从抓取的10000条数据中随机抽取标注)作为训练数据,从剩余的9600条微博中随机抽取100条标注作为验证集,测试集使用NLPCC2014官方提供测试集,共包含1152个实体指称.

3.2实验设计

1)选取链接效果好的算法进行对比.通过对比验证本文算法是否有效.该部分选取NLPCC2014评测中的最优方法(NLPCC)[19]、基于上下文概率模型的实体链接方法(EF*)[20]以及基于维基百科和搜索引擎(CMEL)[21]方法进行对比.

NLPCC采用百度百科分类属性和实体流行度相结合的方法进行消歧,EF*在概率模型基础上添加平滑方法,CMEL采用结合维基百科实体描述页面和搜索引擎结果相结合的方法进行实体消歧.

实验过程中,对所有方法均采用相同的资源模板和预处理.首先用训练集数据训练得到多分类回归模型,再用验证集进行模型调参,得到最优权重α =1.4,λ=0.6,最后在测试集进行方法验证.选取准确率(Precision)、召回率(Recall)以及F1值作为评价指标.其中,in-KB部分表示知识库中已收录实体的准确率,NIL表示未收录到知识库中的实体链接准确率.对比实验结果如表7和表8所示.

表7 in-KB实验结果Table 7 Results of in-KB

表8 NIL实验结果Table 8 Results of NIL

实验结果中,粗体部分表示本文方法.实验表明,本文方法在准确率、召回率方面均明显优于其他三种算法,特别是准确率有显著提升.而本文方法与NLPCC、EF*和CMEL方法的主要区别在于本文方法加入词向量语义分类特征,实验结果的提升表明词向量语义分类特征是有效的.例如,评测数据样例“好怀念当时的那支队伍啊!弗朗西斯、麦迪、巴蒂尔、大姚、斯科拉、穆托姆博、诺瓦克”,NLPCC 和EF∗将“大姚”链接至“姚晨”,而本文方法将该指称链接至“姚明”.

2)不同比重下的词向量语义分类特征(SCWE)对链接结果的影响.本文采用SCWE和实体流行度特征(EF)两个特征,选取不同的λ进行实验结果比对.结果如表9和表10所示.

表9 in-KB实验结果Table 9 Results of in-KB

表10 NIL实验结果Table 10 Results of NIL

从实验结果看,当λ=0时,链接方法中只选取了实体流行度作为特征,此时F1值最低.随着λ的增长,F1值也随之增长.在λ=0.6时,F1值最高.λ>0.6之后,F1值开始降低.表明本文构建的实体链接方法效果的提升依赖于词向量语义分类特征.为了更清晰地表示F1值与参数λ之间的关系,构建图4.

3)词向量语义分类特征与聚类特征数目k的关系.只采用SCWE模型进行实体链接,选取不同的k值来观测模型与k之间的关系.如图5所示,当k =10时,模型取得最高的F1值,在5~15之间,k值的变化对模型的预测效率影响不大.但k=20时,SCWE的F1值大幅度下降.通过对评测数据中每条微博含有的名词数目进行统计,发现每条微博中平均有7.91个名词.分析认为当k=20时F1值下降是由于特征选取过多,训练数据稀疏所致.

图4 本文方法在不同参数λ下的F1值Fig.4 F1 scores of the combined measure with the λ parameter

图5 SCWE在不同参数k下的F1平均值Fig.5 F1 scores of SCWE with the k features

4 结论与展望

基于微博中名词位于相近的语义空间的假设,本文提出了利用词向量语义分类对微博实体进行语义消歧的思路,设计了完整的实体链接方法,并在NLPCC2014发布的评测数据上进行验证.实验结果表明使用本文提出的基于词向量语义分类的实体链接方法,链接效果优于NLPCC已公开的最好结果,链接准确率有显著提升.后续工作主要集中在两点,一是结合词向量和图模型进行实体链接,二是探索不同的多分类模型在实体链接中的应用.

References

1 Chinese Microblog Service.Sina Weibo User Development Report in 2014[Online],available:http://www.199it.com/ archives/324955.html.November 24,2015(中国微博服务.2014年新浪微博用户发展报告[Online],available:http://www.199it.com/archives/324955.html.November 24,2015)

2 Guo Y H,Qin B,Liu T,Li S.Microblog entity linking by leveraging extra posts.In:Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing.Seattle,USA:Association for Computational Linguistic,2013.863-868

3 Yang Jin-Feng,Yu Qiu-Bin,Guan Yi,Jiang Zhi-Peng.An overview of research on electronic medical record oriented named entity recognition and entity relation extraction. Acta Automatica Sinica,2014,40(8):1537-1562(杨锦锋,于秋滨,关毅,蒋志鹏.电子病历命名实体识别和实体关系抽取研究综述.自动化学报,2014,40(8):1537-1562)

4 Shen W,Wang J Y,Han J W.Entity linking with a knowledge base:issues,techniques,and solutions.IEEE Transactions on Knowledge and Data Engineering,2015,27(2):443-460

5 Jiang L,Yu M,Zhou M,Liu X H,Zhao T J.Targetdependent twitter sentiment classification.In:Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics:Human Language Technologies.Portland,Oregon,USA:2011.151-160

6 Shen W,Wang J Y,Luo P,Wang M.Linking named entities in tweets with knowledge base via user interest modeling. In:Proceedings of the 19th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York,USA:ACM,2013.68-76

7 Liu X H,Li Y T,Wu H C,Zhou M,Wei F R,Lu Y.Entity linking for tweets.In:Proceedings of the 51st Annual Meeting of the Association of Computational Linguistics.Sofia,Bulgaria:Association for Computational Linguistics,2013. 1304-1311

8 Odbal,Wang Zeng-Fu.Emotion analysis model using compositional semantics.Acta Automatica Sinica,2015,41(12):2125-2137(乌达巴拉,汪增福.一种基于组合语义的文本情绪分析模型.自动化学报,2015,41(12):2125-2137)

9 NLPCC [Online],available:http://tcci.ccf.org.cn/conference/2014/pages/page04_sam.html.October 31,2015

10 Hachey B,Radford W,Nothman J,Honnibal M,Curran J R.Evaluating entity linking with Wikipedia.Artificial Intelligence,2013,194:130-150

11 Mikolov T,Chen K,Corrado G,Dean J.Efficient estimation of word representations in vector space.arXiv:1301.3781,2013.

12 Hartigan J A,Wong M A.Algorithm AS 136:a k-means clustering algorithm.Journal of the Royal Statistical Society—Series C(Applied Statistics),1979,28(1):100-108

13 Fern´andez-Delgado M,Cernadas E,Barro S,Amorim D.Do we need hundreds of classifiers to solve real world classification problems?Journal of Machine Learning Research,2014,15:3133-3181

14 Mao Yi,Chen Wen-Lin,Guo Bao-Long,Chen Yi-Xin.A novel logistic regression model based on density estimation. Acta Automatica Sinica,2014,40(1):62-72(毛毅,陈稳霖,郭宝龙,陈一昕.基于密度估计的逻辑回归模型.自动化学报,2014,40(1):62-72)

15 Zhou Xiao-Jian.Enhancing ε-support vector regression with gradient information.Acta Automatica Sinica,2014,40(12):2908-2915(周晓剑.考虑梯度信息的ε-支持向量回归机.自动化学报,2014,40(12):2908-2915)

16 King G,Zeng L C.Logistic regression in rare events data. Political Analysis,2001,9(2):137-163

17 Guo Y H,Qin B,Li Y Q,Liu T,Lin S.Improving candidate generation for entity linking.In:Proceedings of the 18th International Conference on Applications of Natural Language to Information Systems.Salford,UK:Springer,2013.225-236

18 Wikipedia[Online],available:http://download.wikipedia. comzhwikilate-stzhwiki-latest-pages-articles.xml.bz2.October 31,2015

19 Zhu Min,Jia Zhen,Zuo Ling,Wu An-Jun,Chen Fang-Zheng,BaiYu.ResearchonentitylinkingofChinese microblog.Acta Scientiarum Naturalium Universitatis Pekinensis,2014,50(1):73-78(朱敏,贾真,左玲,吴安峻,陈方正,柏玉.中文微博实体链接研究.北京大学学报(自然科学版),2014,50(1):73-78)

20 Guo Yu-Hang.Research on Context-based Entity Linking Technique[Ph.D.dissertation],Harbin Institute of Technology,China,2014.(郭宇航.基于上下文的实体链指技术研究[博士学位论文],哈尔滨工业大学,中国,2014.)

21 Meng Z Y,Yu D,Xun E D.Chinese microblog entity linking system combining Wikipedia and search engine retrieval results.In:Proceedings of the 3rd CCF Conference on Natural Language Processing and Chinese Computing.Berlin Heidelberg:Springer,2014.449-456

冯 冲北京理工大学计算机学院副研究员.2005年获中国科学技术大学计算机科学系博士学位.主要研究方向为自然语言处理,信息抽取,机器翻译.本文通信作者.

E-mail:fengchong@bit.edu.cn

(FENG ChongAssociate professor at the College of Computer Science and Technology,Beijing Institute of Technology.He received his Ph.D.degree from the Department of Computer Science,University of Science and Technology of China in 2005.His research interest covers natural language processing,information extraction,and machine translation. Corresponding author of this paper.)

石 戈北京理工大学计算机学院博士研究生.主要研究方向为自然语言处理,实体链接,问答系统.

E-mail:shige713@126.com

(SHI GePh.D.candidate at the College of Computer Science and Technology,Beijing Institute of Technology. His research interest covers natural language processing,entity linking,and question answering system.)

郭宇航北京理工大学计算机学院讲师. 2014年获哈尔滨工业大学计算机科学与技术学院博士学位.主要研究方向为自然语言处理,信息抽取,机器翻译.

E-mail:guoyuhang@bit.edu.cn

(GUOYu-HangLectureratthe College of Computer Science and Technology,Beijing Institute of Technology. He received his Ph.D.degree from Harbin Institute of Technology in 2014.His research interest covers natural language processing,information extraction,and machine translation.)

龚 静北京理工大学计算机学院硕士研究生.主要研究方向为自然语言处理,机器翻译,问答系统.

E-mail:gongjing@bit.edu.cn

(GONG JingMaster student at the College of Computer Science and Technology,Beijing Institute of Technology. Her research interest covers natural language processing,machine translation,and question answering system.)

黄河燕北京理工大学计算机学院教授. 1989年获中国科学院计算技术研究所计算机科学与技术博士学位.主要研究方向为自然语言处理和机器翻译社交网络与信息检索,智能处理系统.

E-mail:hhy63@bit.edu.cn

(HUANG He-YanProfessor at the College of Computer Science and Technology,Beijing Institute of Technology.She received her Ph.D.degree from the Institute of Computing Technology,Chinese Academy of Sciences.Her research interest covers natural language processing,machine translation,social network,information retrieval,and intelligent processing system.)

An Entity Linking Method for Microblog Based on Semantic Categorization by Word Embeddings

FENG Chong1SHI Ge1GUO Yu-Hang1GONG Jing1HUANG He-Yan1,2

As a widely applied task in natural language processing(NLP),named entity linking(NEL)is to link a given mention to an unambiguous entity in knowledge base.NEL plays an important role in information extraction and question answering.Since contents of microblog are short,traditional algorithms for long texts linking do not fit the microblog linking task well.Precious studies mostly constructed models based on mentions and its context to disambiguate entities,which are difficult to identify candidates with similar lexical and syntactic features.In this paper,we propose a novel NEL method based on semantic categorization through abstracting in terms of word embeddings,which can make full use of semantic involved in mentions and candidates.Initially,we get the word embeddings through neural network and cluster the entities as features.Then,the candidates are disambiguated through predicting the categories of entities by multiple classifiers.Lastly,we test the method on dataset of NLPCC2014,and draw the conclusion that the proposed method gets a better result than the best known work,especially on accurancy.

Word embedding,entity linking,social media processing,neural network,multiple classifiers

10.16383/j.aas.2016.c150715

Feng Chong,Shi Ge,Guo Yu-Hang,Gong Jing,Huang He-Yan.An entity linking method for microblog based on semantic categorization by word embeddings.Acta Automatica Sinica,2016,42(6):915-922

2015-10-29录用日期2016-05-03
Manuscript received October 29,2015;accepted May 3,2016
国家重点基础研究发展计划(973计划)(2013CB329303),国家高技术研究发展计划(863计划)(2015AA015404),国家自然科学基金(61 502035),高等学校博士学科点专项科研基金(20121101120026)资助
Supported by National Basic Research Program of China(973 Program)(2013CB329303),National High Technology Research and Development Program of China(863 Program)(2015AA015 404),National Natural Science Foundation of China(61502035),and Specialized Research Fund for the Doctoral Program of Higher Education(20121101120026)
本文责任编委柯登峰
Recommended by Associate Editor KE Deng-Feng
1.北京理工大学计算机学院 北京1000812.北京市海量语言信息处理与云计算应用工程技术研究中心北京100081
1.College of Computer Science and Technology,Beijing Institute of Technology,Beijing 1000812.Beijing Engineering Research Center of High Volume Language Information Processing and Cloud Computing Applications,Beijing 100081

猜你喜欢
知识库语义实体
汉语近义词辨析知识库构建研究
语言与语义
前海自贸区:金融服务实体
基于TRIZ与知识库的创新模型构建及在注塑机设计中的应用
实体的可感部分与实体——兼论亚里士多德分析实体的两种模式
两会进行时:紧扣实体经济“钉钉子”
振兴实体经济地方如何“钉钉子”
批评话语分析中态度意向的邻近化语义构建
“社会”一词的语义流动与新陈代谢
高速公路信息系统维护知识库的建立和应用