基于语义相似度的CORE论文关联关系发现及其语义服务研究

2021-12-21 02:49白林林万妮
知识管理论坛 2021年5期
关键词:知识库全文文档

白林林 万妮

摘要:[目的/意义]通过对CORE论文关系发现过程及其服务的详细剖析,希望为我国开放获取知识库在论文内容的推荐和语义链接方面提供有力的参考和借鉴。[方法/过程]从基于语义相似度的论文关联关系发现过程和基于论文关系的语义服务两方面进行分析。其中,基于语义相似度的论文关联关系发现过程包括元数据和全文内容收割、论文之间关系语义相似度计算两方面;基于发现的论文关联关系的语义服务包括论文推荐服务和关联开放数据服务。最后总结CORE对我国机构知识库的应用建议。[结果/结论]研究发现,CORE系统通过现有OAI-PMH协议自动收割开放获取知识库中的元数据,并进一步提取元数据中URI字段,通过HTTP协议下载全文。基于发现的论文语义关系提供论文推荐服务和论文关联数据服务,使得第三方系统可以利用CORE数据集,这些都为我国开放获取知识库(如机构知识库、开放获取期刊)在论文关系的推荐和语义链接方面提供有力的参考。

关键词:Connecting Repositories    语义相似度    论文关系   推荐系统   关联数据

分类号:G254

引用格式:白林林, 万妮. 基于语义相似度的CORE论文关联关系发现及其语义服务研究[J/OL]. 知识管理论坛, 2021, 6(5): 271-281[引用日期]. http://www.kmf.ac.cn/p/260/.

开放获取(open access, OA)运动推动和促进了全球科研成果的免费访问和开放获取知识库的建设与发展。但是,目前开放获取不应该只是实现科研成果的开放,而是要在现有基础上,充分发挥OA的潜力,通过改进现有的OA技术基础设施,用以支持内容的搜索、发现、挖掘、分析等这些功能。目前的大多数开放获取技术基础设施(如机构知识库、主题知识库、科研数据知识库等)大都是基于元数据的访问,而要实现开放获取内容的挖掘、分析等功能,必须实现OA元数据集成向内容集成的有效转换。为此,由欧共体资助的项目“欧洲研究开放获取基础设施(the Open Access Infrastructure for Research in Europe, OpenAIRE)”通过建立全欧研究信息平台来收割和监测欧共体和其他国家资助者的开放获取研究成果,从而提供丰富的元数据服务和科学成果链接服务,该项目开始于2009年12月1日,已从第一代发展到第五代(第一代OpenAIRE、第二代OpenAIREplus、第三代OpenAIRE2020、第四代OpenAIRE-Advance、第五代OpenAIRE-Nexus)[1]。截至2021年3月,美国的共享访问研究生态系统(Shared Access Research Ecosystem, SHARE) 对182个数据源的6 575万多个研究成果进行了集成[2]。法国的HAL (Hyper Articles en Ligne)主要对法国的科研成果进行集成,由法国国家科学研究中心的计算科学与控制研究所运行管理,目前收录了168个机构的251万多条数据[3]。我国由CALIS组建的机构知识库整合系统中国高校机构知识库联盟集成了50家成員机构的286万条元数据[4],香港机构知识库整合系统对香港的8个大学的42.6万条数据进行了集成[5]。但目前的这些开放获取技术基础设施,只是从元数据层面对不同来源的研究成果进行聚合和集成,并没有进一步从全文内容对论文和论文之间的关联关系进行集成和发现。CORE(COnnecting Repositories)[6]是第一个从全文内容来发现论文之间的关联关系的系统,并将发现的论文关联关系通过不同的方式向用户提供语义服务(如推荐服务、关联数据服务)。

基于此,对CORE中论文关联关系的发现过程以及在此基础上提供的语义服务进行详细解析和具体应用介绍,可为我国开放获取知识库在论文内容的推荐和语义链接方面提供有力的参考和借鉴。

1  CORE概况

CORE(COnnecting REpositories)[7]是2011年由英国开放大学知识媒体研究所P. Knoth构建的系统[8],目的是通过与数字图书馆和机构知识库的紧密合作,整合分布在不同系统上的开放资源,这些资源包括英国开放获取期刊平台(Directory of Open Access Journals, DOAJ)、世界各地机构知识库和主题知识库中的元数据与全文,并在此基础上提供了一系列的资源免费访问服务来进一步促进科研成果的开放获取,这一举措对英国的开放获取运动做出了巨大的贡献,奠定了英国开放获取内容汇总的地位。因此,CORE自创建以来就获得来自英国联合信息系统委员会(Joint Information Systems Committee, JISC)[9]和欧盟委员会(European Commission, EC)等一系列机构的资助,并在后续通过DiggiCORE和ServiceCORE两个项目继续开发了一些平台新功能。DiggiCORE(Digging Into Connected Repositories)项目的目标是通过使用自然语言处理技术和社会网络分析方法分析大量的开放获取科研出版物,实现研究团体行为模式、研究领域趋势和研究人员引文行为的识别,以发现高影响力的论文,用于开发搜索和浏览数字馆藏更好的方法,同时形成评价科研影响力和学者影响力的新方法。ServiceCORE项目的目标是通过进一步改进完善CORE技术基础设施,开发面向科研成果的主题分类系统和知识发现系统,如在CORE Linked Data知识库之上构建的新Web服务层,提供对内容和元数据的可编程访问;构建基于文本挖掘的增强型相关资源发现系统;使用文本分类技术(支持向量机)对内容进行基于主题的自动分类的工具等[10]。

截至2021年3月,该系统已收割来自13 799个机构知识库和主题知识库的2.1亿多篇开放获取论文[11]。CORE系统的特点是不像其他的开放获取搜索系统只提供元数据,CORE还集成了全文内容,确保了科研成果全文的免费访问和下载。目前,CORE系统提供了3种类型的服务:原始数据访问服务、内容管理服务和内容发现服务[12]。同时为了提高其检索率,CORE于2019实现了CORE-MAG映射,即将CORE中的数据映射为微软学术图谱(Microsoft Academic Graph, MAG)[13]。

(1)原始数据访问服务:包括CORE API、CORE Dataset和CORE FastSync服务。CORE API为访问CORE中的大量数据提供了一个入口,目前有两个版本:一个是提供XML或JSON格式数据的RESTful API接口,另一个是关联开放数据SPARQL终端[14]。CORE Dataset支持用户批量下载CORE中的数据,用于数据处理、分析和挖掘,数据包括论文元数据和全文、CORE到MAG实体的映射数据。CORE FastSync可以无缝访问从主要出版商的非标准系统中汇总的金色和混合开放获取论文,数据通过FastSync协议公开和共享。

(2)内容管理服务:包括CORE Repository Dashboard和CORE Repository Edition服务。CORE Repository Dashboard是专为知识库管理员设计的知识库面板工具,目标是提供对聚合内容的管理和控制。CORE Repository Edition是一套面向图书馆、机构知识库和内容管理商的工具套件,可用于提高机构研究成果的可发现性、数据访问的合规性等。

(3)内容发现服务:包括CORE Recommender 和CORE Discovery。CORE Recommender作为一个插件,可以用于在CORE和其他开放获取知识库之间推荐语义相似的论文。CORE Discovery是一个浏览器插件,支持绕过出版商免费访问CORE中的论文。

2 基于語义相似度的CORE论文关系发现过程

基于语义相似度的CORE论文关系发现过程包括数据获取和论文关联关系发现两个阶段。数据获取主要是通过从可用的开放获取知识库中收割元数据记录和全文内容,并对收割到的元数据和全文进行索引;论文关联关系发现主要是通过文本挖掘技术对收割到的论文之间的语义关系进行计算与发现。

2.1  CORE数据获取

2.1.1  元数据的收割

元数据收割的来源包括开放获取知识库(机构知识库、主题知识库)和出版商数据库两类。

(1)开放获取知识库中的元数据。开放获取知识库中的元数据收割是通过开放存档倡议的元数据收割协议(Open Archives Initiative Protocol for Metadata Harvesting,OAI-PMH)[15]请求来实现的,OAI-PMH成功的请求返回一个XML文档,其中包含有关存储在知识库中的论文的元数据信息。元数据收割过程中使用到的技术是OCLC OAIHarvester2[16],这是一个通过OAI-PMH协议进行元数据收割的JAVA类集合工具包[17]。

(2)出版商数据库中的元数据。针对不支持OAI-PMH协议的出版商数据库中的元数据,CORE团队开发了CORE Publisher Connector引擎,可以无缝访问和获取出版商数据库中的金色和混合开放获取类型的论文,通过资源同步协议FastSync进行同步。与只收割元数据提供互操作性的OAI-PMH协议相比,FastSync协议可以共享任何类型的资源(包括元数据和实际数据),并在网上提供先进的同步机制。FastSync协议是ResourceSync协议的改进版本,ResourceSync协议开始于2011年底,是美国国家信息标准组织(National Information Standards Organization,NISO)和开放存档倡议团队(OAI)合作开发的项目,由斯隆基金会资助,建立在同步元数据的OAI-PMH策略基础上,这个项目旨在加强现代网络技术的使用规范。CORE是最早部署ResourceSync协议以分发大量学术文献的公司之一,这些文献可以扩展到数百万条,并且能够进行实时更新。目前,已收割了Elsevier、Springer Nature、Frontiers和PLoS四大出版商中180万篇开放获取的论文[18]。

2.1.2  全文内容的下载

开放获取知识库将全文文档的URL作为元数据的一部分提供,因此,全文内容的获取是在从收割到的元数据中提取URI字段之后,通过HTTP协议自动从知识库下载获得的。从开放获取知识库下载PDF全文是通过一组Java类(如DownloadPdf类等)来实现的,在下载的过程中为了解决下载速度慢的问题,CORE通过使用缓冲流(BufferedStream)[19]将全文内容先下载到服务器上,用以解决远程服务器响应非常慢时会自动取消下载的问题。

2.1.3  元数据和全文索引

完成元数据和全文收割之后,CORE通过Apache Lucene对收割到的元数据和全文文档建立索引。Apache Lucene项目开发了3个开源搜索软件,包括:Lucene Core、Solr、PyLucene。Lucene Core是其核心子项目,提供基于Java的索引和搜索技术、拼写检查、命中突出显示和高级分析/标记化功能;Solr是一个使用Lucene Core构建的高性能搜索服务器,具有XML / HTTP和JSON / Python / Ruby应用程序接口,支持命中突出显示、分面搜索、缓存、复制和Web管理界面;PyLucene是Lucene Core项目的Python端口[20]。

2.2  基于語义相似度的CORE论文关系发现

CORE论文关联关系的发现是通过语义关系分析器组件来完成的[21]。该组件通过自然语言处理技术从下载的论文中提取文本,然后通过计算“论文对”之间的语义相似度来识别其关联强度。为了识别和计算论文之间的语义相似性,CORE系统通过向量空间来表示文档内容,即将内容转换为一组词语向量,并通过找到相似的向量来找到相似的文档。该系统选择使用Apache Tika(PDFBox)工具包[22]从PDF文档中提取文本,该工具包可从1 000多种不同的文件类型(如PPT、XLS和PDF)中识别和提取元数据和文本,并基于TF-IDF向量之间的余弦相似度来计算论文之间的相似度。

具体而言,可将CORE论文关系发现过程分为以下4个步骤:

(1)分词处理。对CORE下载到的论文进行词法分析,构建词语字典T={t1,t2,…,tM}。所有的论文可被表示为N × M的词语矩阵。其中,N表示论文数量,M表示对每篇文章进行词法分析后形成的词语数量,每篇论文对应于矩阵中某一行的向量。

(2)TF-IDF值的计算。TF-IDF(terms frequency-inverse document frequency)是指TF*IDF,用来评估某个词语在文档集合中的重要程度。TF即词频(terms frequency),指某个词语在单个文章中的出现次数;IDF即逆文档频率(inverse document frequency)=log2(N/DF),其中DF(document frequency)表示包含某个词语的文档数量。TF-IDF的主要思想是:一个词语对一篇文章的重要性主要是依靠它在文件中出现的次数,如果这个词语在这篇文章中的出现次数越高,则表明这个词语对于这篇文章的重要性越高;同时,它还与这个词语在整个文档中出现的文章篇数有关,随着出现的篇数越多,则会降低这个词语在这篇文章中的重要性,若包含某此项的文档越少,IDF就越大,则该词语对不同类别文档的区分度就越高。

算法流程如下:首先对文档进行分词,并去除停用词;然后统计各个词语在单个文档中出现的次数和文档集合中词语出现的次数;最后计算得出其TF-IDF值。

●TF词频的计算公式如下所示:

词频(TF)=某个词语在文章中的出现次数

公式(1)

由于需要考虑不同的文章,长度不同,需要将词频进行归一化处理,如公式(2)所示:

词频(TF)=某个词语在文章中的出现次数/

文章的总词数                  公式(2)

●IDF的计算公式如下所示:

逆文档频率(IDF)=log2(文档总数/包含该词           的文档数)        公式(3)

计算逆文档频率的原因是为了去除哪些经常出现的词语,比如说“的”“我们”“他”等这类的词语,这些词语对于整篇文档重要性不高、但是出现的频率会比较多,有可能会影响到最后的计算结果,如果是经常出现的词语则不能作为文章的关键词。

●计算TF-IDF的值,计算公式如下所示:

TF-IDF = 词频(TF)* 逆文档频率(IDF)公式(4)

(3)排序。对文章词语的TF-IDF值进行排序,从中选择提取TF-IDF值比较大的词语,合并成一个集合,计算每篇文章对于这个集合中的词的词频,生成文章各自的词频向量,接下来计算文章词频向量之间的相似度。

(4)相似度计算。目前存在许多用于计算两个向量之间的相似性的计算方法,例如余弦相似性、dice系数或Jaccard方法,并且有一些研究在计算相似性之前采用降低矢量的维数算法来提高性能。CORE采用了最标准的相似度计算方法:在TF-IDF向量基础上计算余弦相似度。与其他相似度计算方法相比,TF-IDF向量的余弦相似度方法比较成熟,已被用于自动链接生成系统中[23],完整性的公式如下:

公式(5)

可以通过夹角的大小,来判断向量的相似程度。夹角越小,余弦值越大,就代表越相似。

3  基于发现的CORE论文语义关系的服务

CORE在基于发现的论文语义关系基础上为用户提供了相似论文推荐服务和关联开放数据服务。其中,相似论文推荐服务以CORE Recommender插件和CORE API形式提供;关联开放数据服务是指CORE将论文之间相似性的数据作为关联数据发布,并在Linked Data Cloud[24]中注册。

3.1  CORE推荐服务

在2013年4月,CORE首次发布了适用于Eprints知识库中的推荐系统,名称为CORE Widget,发布在Eprints商店(Eprints Bazaar)中[25],一个用于安装Eprints附件组件、补丁的商店。2016年10月,CORE推出了新的版本,对原有“CORE Widget”推荐系统进行了许多改进与升级,重新命名为CORE Recommender,新升级的推荐系统不仅支持在CORE中推荐相似的论文,而且也可以部署在其他知识库和期刊系统中来推荐相似论文。其中Eprints知识库只需在Eprints Bazaar中下载即可;对于其他知识库(Dspace、Fedora、OJS),只需通过插入一段Javascript代码片段就可安装[26]。目前已被用于多个知识库中,如斯特拉斯克莱德机构知识库Strathprints[27]、拉丁美洲机构知识库联合网络LA Referencia[28]、俄罗斯国立职业师范大学机构知识库[29]、预印本知识库arXiv[30]等。

為了提高所推荐的相似论文的质量,CORE Recommender采用多个过滤器和众包机制来筛选推荐的论文,如只提供开放获取的论文、仅包含至少一组最小元数据属性的论文、包含缩略图的论文等。另外在某些情况下,CORE Recommender可能会提供不相关的甚至错误的推荐,为此CORE通过为用户提供反馈按钮进行错误上报。如果用户反馈所推荐的论文不合适,CORE会将这些论文列入黑名单,不会再在推荐列表中显示(见图1)。

CORE Recommender有两种使用方式。第一种方式是作为推荐系统部署在CORE系统内,向当前被访问的论文推荐相似的论文(见图1)。第二种方式是作为推荐插件安装并集成到知识库系统或期刊系统中,当用户访问知识库中的一个论文页面时,插件会向CORE发送有关所访问条目的信息,CORE会返回相似论文列表,目前提供了两种形式的相似列表:一种是来源于CORE知识库中的相似论文;另一种是用户访问的知识库中的相似论文(见图2)。

3.2  CORE论文关系关联数据服务

2011年,CORE发布了在40多万篇全文论文关系相似度计算基础上生成的300多万个RDF三元组,实现了论文之间相似度元数据的关联数据发布,以便于第三方以灵活的形式进行访问。CORE在将论文相似度关系发布为关联数据过程中,选择Sesame[31]平台作为三元组存储器,用于发布关联数据。接下来笔者将对CORE论文关系发布为关联数据的数据模型和实现机制进行阐述。

3.2.1  CORE数据模型

遵循关联数据原则,在将数据发布为关联数据时,尽可能复用已有的词汇表或本体来描述数据,以便外部世界更容易将新数据与已有的数据集和服务集成在一起。CORE采用MuSim相似度本体(The Similarity Ontology-MuSim)[32]、书目本体(Bibliographic ontology, BIBO)[33]以及自己构建的本体(core)来表示CORE知识库中论文之间的关系。

MuSim相似度本体由伦敦大学女王玛丽数字音乐中心的K. Jacobson、BBC的Y. Raimond、德累斯顿技术大学T. Gängler等合作开发,最初在设计时主要用于表示音乐之间的相似性,但它也可以应用到其他领域来表示两个事物之间的相似性和关联性,以便于在不同的环境下进行相关性事物的推荐和发现,这个本体中包含5个类和13个属性。在CORE中主要利用其属性实现对相似度计算方法、相似度权重进行语义描述。

BIBO书目本体是由F. Giasson 和B. D’Arcus 合作开发的一个本体,用于在语义网中用于描述书目参考文献和引文的一些基本的类和属性,可扩展性比较强,其他的词汇也可以混合在BIBO本体中,如FOAF词汇、DC词汇、Event词汇等。在CORE中利用BIBO中的类和属性对论文的文献类型、作者等进行语义描述。

CORE发布的论文相似度关系关联数据以一篇文档为主语,文档类型(rdf:type)、相似的论文(MuSim:element)、OAI标识符(core:hasOAIRepositoryIdentifier、core: hasOAIIdentifier)、论文之间的相似度权计算方法(MuSim:method)、相似度权重(MuSim:weight)为属性(见图3和图4)。

3.2.2  Sesame关联数据实现机制

Sesame是一个查询和分析RDF数据的开源框架,最初由荷兰软件公司Aduna创建,2016年5月由Eclipse RDF4J[34]项目继承,主要以两个Java Web应用程序的形式运行:OpenRDF Sesame服务器(OpenRDF Sesame Server)和OpenRDF工作平台(OpenRDF Workbench)[35]。OpenRDF Sesame服务器通过HTTP来访问Sesame库,除了提供一些服务器日志信息的查看功能外,不提供任何面向用户的功能。OpenRDF Workbench通过一个网页界面提供面向用户的查询、浏览、更新、输出等功能。CORE自创建以来,一直使用Tomcat Web服务器[36]作为应用程序容器,这是一个支持Java Servlets和JSP技术的Web服务器,所以CORE将Sesame的两个组成部分OpenRDF Sesame Server和OpenRDF Workbench部署为Tomcat Web服务器上的Java Servlet应用程序[37]。

具体而言Sesame分为以下3个层级:

(1)存储层和推理层。Sesame的存储和推理功能通过SAIL (Storage and Inference Layer, SAIL) API [38]实现,这是一个从底层存储库抽象出的API,支持内存三元组存储(in-memory triplestore)、磁盘三元组存储(on-disk triplestore)和关系型数据库存储,并有两个单独的Servlet软件包在永久服务器上对这些三元组存储器进行访问管理。

(2)关联数据转换层。关联数据转换过程通过Sesame Rio(RDF)软件包实现。Sesame Rio(RDF)软件包是由一个基于Java的RDF解析器和编写器组成的简单API,用于输入/输出RDF数据,用户可以通过在运行应用程序时将解析器和编写器放在Java类路径上来轻松扩展列表。

(3)关联数据查询和访问层。通过Sesame的Access API可以访问这些功能模块,它由两个独立的部分组成:Repository API和Graph API。Repository API提供对Sesame存储库的高级访问、例如查询、存储RDF文件、提取RDF等。Graph API为RDF操作提供了更细粒度的支持,例如添加和删除单个语句以及创建直接来自代码的小型RDF模型。这两个API在功能上相互补充,并且实际上经常一起使用。Sesame支持两种查询语言:SPARQL和SeRQL,也可以通过LuceneSail添加自由文本搜索功能。

4  CORE对我国机构知识库的应用建议

CORE通过集成世界各地的OA论文元数据和全文,提供了基于论文相似度的推荐服务和基于关联数据的语义服务,完成了OA元数据集成向内容集成的有效转换,提高了资源的可见度和访问率,对传统的OA知识库集成系统进行了发展,对我国仍处于初级阶段的机构知识库的发展和完善具有一定的新意和借鉴意义。笔者从论文关系发现过程、论文推荐服务和关联数据服务3个方面总结了CORE系统对我国机构知识库完善的启示。

在论文关系发现方面,CORE先收割元数据,并进一步从收割到的元数据中提取URI字段,之后通过HTTP协议自动从知识库下载全文;在此基础上通过自然语言处理技术从下载的论文中提取文本,然后通过计算“论文对”之间的语义相似度来识别其关联强度。目前,我国机构知识库整合系统已实现了元数据层面的收割,并未实现全文的获取,但在所收割的元数据字段中已包含URI字段,后续需要通过URI实现全文获取,并将获得的全文通过自然语言处理技术提取文本,计算论文对之间的相似性来识别论文关系。

在论文语义推荐服务方面,CORE通过将其开发CORE Recommender插件部署在CORE内或者其他知识库中实现论文推荐。我国机构知识库可借鉴这种思路,研发推荐服务系统或者引进CORE Recommender插件部署在机构知识库中,以此来为用户推荐相似论文。

在关联数据服务方面,CORE通过利用现有的词汇表MuSim相似度本体、BIBO书目本体和Sesame平台对论文数据进行关联化发布,方便用户更好地进行语义链接。我国可以通过分析机构知识库的数据进行建模,尽可能复用现有的成熟的词汇表对数据进行描述,并利用开源的关联数据发布工具和平台对机构知识库中的文献资源进行语义化组织和发布,从而提高资源的可发现性和可见度。

5  CORE论文关系发现过程及服务中遇到的问题

CORE在论文关系发现过程及提供的相关服务中也有许多问题和挑战需要去解决,具体的解决方法如下:

(1)在全文内容下载方面,主要涉及文件下载速度和数据存储成本问题。针对下载速度问题,CORE通过使用缓冲流(BufferedStream)将全文内容先下载到开放大学服务器上,用以解决在远程服务器相应非常慢时自动取消下载的问题。有关数据存储成本问题,鉴于CORE需要从许多开放获取存储库中下载数据,系统需要较大的磁盘空间,同时为了执行系统备份并允许系统快速响应,选择快速串行连SCSI(Serial Attached SCSI, SAS)磁盘。

(2)在提取文本方面,CORE测试了3个PDF文本提取系统:iText、Apache Tika(PDFBox)和pdftotext,最后发现虽然 Apache Tika的提取速度非常慢但提取到的文本质量较高。最终,通过使用BufferedStreams先行缓冲,设法加快提取速度。

(3)在相似度计算方面,为了能够在合理的时间内发现相关的论文,涉及大量的论文组合问题。CORE开发了一种新的启发式方法,通过使用文档频率切割标准来减少要考虑的组合数量,并考虑到计算结果的质量问题,CORE在Lucene库上开发了自己的TextAnalyzer和TextFilter,用于过滤数学公式、数字和其他类型的噪声数据等。

6  结语

笔者通过对CORE论文元数据和全文获取过程、论文之间关系语义相似度计算的论文关系发现过程以及基于发现的论文语义关系提供的服务进行了分析,为我国在开放获取知识库论文关系发现过程、论文推荐服务和关联数据服务3个方面提供了有力的参考,但是CORE也存在下载速度慢、存储开销大、PDF中文本提取速度慢、相似度計算准确度等问题,围绕这些问题和挑战还有待进一步深入的研究。

参考文献:

[1] Openaire-history [EB/OL]. [2021-03-01]. https://www.openaire.eu/openaire-history.

[2] SHARE [EB/OL]. [2021-02-27]. https://share.osf.io/.

[3] The open archive HAL [EB/OL]. [2021-03-01]. https://hal.archives-ouvertes.fr/.

[4] 中国高校机构知识库联盟 [EB/OL]. [2021-03-01]. http://chair.calis.edu.cn/.

[5] Hong Kong Institutional Repositories (HKIR) [EB/OL]. [2021-03-01]. https://library.tu.ac.th/tu-digital-collections/hong-kong-institutional-repositories-hkir.

[6] CORE – Aggregating the world’s open access research papers [EB/OL]. [2021-03-01]. https://core.ac.uk/.

[7] COnnecting Repositories [EB/OL]. [2021-03-01]. https://en.wikipedia.org/wiki/COnnecting_REpositories.

[8] Knowledge Media Institute [EB/OL]. [2021-03-01]. https://news.kmi.open.ac.uk/rostra/news.php?r=11&t=2&id=18463=KMi.

[9] CORE | Jisc [EB/OL]. [2021-03-01]. https://www.jisc.ac.uk/core#.

[10] Digging into Connected Repositories (DiggiCORE) [EB/OL]. [2021-03-01]. https://diggingintodata.org/awards/2011/project/digging-connected-repositories-diggicore.

[11] Data Providers [EB/OL]. [2021-03-01]. https://core.ac.uk/dataproviders.

[12] CORE Services [EB/OL]. [2021-03-01]. https://core.ac.uk/services.

[13] CORE Dataset [EB/OL]. [2021-03-01]. https://core.ac.uk/documentation/dataset/.

[14] Connecting Repositories (CORE) | Digging Into Data [EB/OL]. [2021-03-01]. https://diggingintodata.org/repositories/connecting-repositories-core.

[15] Open Archives Initiative Protocol for Metadata Harvesting [EB/OL]. [2021-03-01]. http://www.openarchives.org/pmh/.

[16] OAIHarvester2 [EB/OL]. [2021-03-01]. https://www.oclc.org/research/activities/oaiharvester2.html.

[17] Technical standards [EB/OL]. [2021-03-01]. https://blog.core.ac.uk/2011/03/.

[18] Releasing 1.8 million open access publications from publisher systems for text and data mining [EB/OL]. [2021-03-01]. https://blogs.lse.ac.uk/impactofsocialsciences/2018/03/22/releasing-1-8-million-open-access-publications-from-publisher-systems-for-text-and-data-mining/.

[19] Java文件流 BufferedStream [EB/OL]. [2021-03-01]. https://blog.csdn.net/mariofei/article/details/51195055.

[20] Apache Lucene[EB/OL]. [2021-03-01]. http://lucene.apache.org/.

[21] KNOTH P, ROBOTKA V, ZDRAHAL Z. Connecting repositories in the open access domain using text mining and semantic data [C]// International conference on theory and practice of digital libraries :research and advanced technology for digital libraries. Berlin: Springer, 2011: 483-487.

[22] Apache Tika [EB/OL]. [2021-03-01]. https://tika.apache.org/https://tika.apache.org/.

[23] FRANCINE C, AYMAN F, THORSTEN B. Multiple similarity measures and source-pair information in story link detection[C]// Proceedings of the human language technology conference of the North American Chapter of the Association for Computational Linguistics: HLT-NAACL 2004. Boston:  Association for Computational Linguistics, 2004: 313-320.

[24] CORE - Semantic Similarity of Open Access publications [EB/OL]. [2021-03-01]. https://lod-cloud.net/dataset/core.

[25] The EPrints Bazaar [EB/OL]. [2021-03-02]. https://bazaar.eprints.org/.

[26] CORE Recommender [EB/OL]. [2021-03-03]. https://core.ac.uk/services#recommender.

[27] Implementing the CORE Recommender in Strathprints: a “whitehat” improvement to promote user interaction [EB/OL]. [2021-03-03]. https://blog.core.ac.uk/2017/10/31/implementing-the-core-recommender-in-strathprints-a-whitehat-improvement-to-promote-user-interaction/.

[28] LA Referencia integrates CORE Recommender in its services [EB/OL]. [2021-03-03]. https://blog.core.ac.uk/2019/11/20/la-referencia-integrates-core-recommender-in-its-services/.

[29] CORE Recommender installation for DSpace [EB/OL]. [2021-03-03]. https://blog.core.ac.uk/2020/03/12/core-recommender-installation-for-dspace/.

[30] CORE Recommender now supports article discovery on arXiv [EB/OL]. [2021-03-03]. https://blog.arxiv.org/2020/10/15/core-recommender-now-supports-article-discovery-on-arxiv/.

[31] Sesame (framework) – Wikipedia [EB/OL]. [2021-03-06]. https://en.wikipedia.org/wiki/Sesame_(framework).

[32] The Similarity Ontology [EB/OL]. [2021-03-04]. http://grasstunes.net/ontology/similarity/0.2/musim.html.

[33] D'ARCUS B, GIASSON F. Bibliographic ontology specification [EB/OL]. [2021-03-05]. http://bibliontology.com/.

[34] Eclipse RDF4J – a Java framework for RDF [EB/OL]. [2021-03-10]. http://rdf4j.org/.

[35] Overview (OpenRDF Sesame 4.1.2 API) [EB/OL]. [2021-03-15]. http://archive.rdf4j.org/javadoc/sesame-4.1.2/.

[36] Apache Tomcat® [EB/OL]. [2021-03-15]. http://tomcat.apache.org/.

[37] Chapter1.Introduction: what is Sesame? [EB/OL]. [2021-03-17]. https://poc.vl-e.nl/distribution/manual/sesame-1.2.3/ch01.html.

[38] The SAIL API [EB/OL]. [2021-03-18]. http://docs.rdf4j.org/sail/.

作者貢献说明:

白林林:负责数据获取、研究提纲确定与论文撰写;

万妮:负责论文的修订。

Research on CORE Paper Association Discovery and Semantic Services Based on Semantic Similarity

Bai Linlin  Wan Ni

Beijing Information and Science Technology University Library, Beijing 100192

Abstract: [Purpose/significance] This paper dissects the process and services of article association discovery in Connecting Repositories, and hopes to provide powerful reference for the recommendation and semantic linking of the content of articles in Chinese open access repositories. [Method/process] This paper analyzed the discovery process of article association based on semantic similarity and the semantic services based on article association. The discovery process of article association based on semantic similarity included metadata and full-text content harvesting, and semantic similarity calculation of article association. The semantic service based on the discovery process of article association included the CORE recommendation service and the linked open data service. And this paper summarized the application suggestions of CORE to Chinese institutional repositories. [Result/conclusion] This paper finds CORE system automatically harvests the metadata of the open access repositories through the existing OAI-PMH protocol, and further extracts the URI fields from the metadata to download the full-text through the HTTP protocol. Furtherly, providing article recommendation services and services of data linked articles based on the discovery of article semantic association enables third-party systems to utilize CORE datasets, it provides a powerful reference in recommendation and semantic linking of article association for open access repositories (such as institutional repositories and open access journals) in China.

Keywords: Connecting Repositories    semantic similarity    article association    recommendation system    linked data

猜你喜欢
知识库全文文档
浅谈Matlab与Word文档的应用接口
全文中文摘要
有人一声不吭向你扔了个文档
基于TRIZ与知识库的创新模型构建及在注塑机设计中的应用
全文中文摘要
青年再造
基于RI码计算的Word复制文档鉴别
高速公路信息系统维护知识库的建立和应用
Persistence of the reproductive toxicity of chlorpiryphos-ethyl in male Wistar rat
基于Drupal发布学者知识库关联数据的研究