黄学坚,王根生,3,罗远胜,闵 潞,吴小芳,李志鹏
1(江西财经大学 人文学院,南昌 330013)
2(江西财经大学 计算机实践教学中心,南昌 330013)
3(江西财经大学 国际经贸学院,南昌 330013)
随着 Web2.0 的快速发展以及移动互联网的普及,以微博为代表的社交媒体成为人们获取和分享信息的一个重要平台.根据中国互联网络信息中心(CNNIC)2020年发布的第45次《中国互联网络发展状况统计报告》显示,截止2020年3月我国网民规模达到9.04亿,互联网普及率达64.5%,网络新闻用户规模达到7.31亿,占网民整体80.9%,微博使用率达到42.5%.微博等社交媒体方便人们信息分享的同时,也为谣言的传播提供了新的温床.根据微博辟谣官方发布的数据显示,2019年微博站方有效处理不实信息77742条.2020年初,关于新冠肺炎的谣言频出,如 “钟南山建议盐水漱口防病毒”、“板蓝根+熏醋可预防新型肺炎”、“国家不再对新冠肺炎病人免费治疗”等谣言给疫情防疫工作带了很多困扰.社交媒体中,谣言具有传播速度快、影响范围广、监测难度大、危害程度深等特点,谣言的产生和传播不仅妨碍了人们对社交媒体的有效利用,而且可能造成民众的误解、引发负面情绪、扰乱社会秩序、甚至影响社会稳定和国家安全[1].
为了控制谣言的传播,微博官方建立了微博社区管理中心,受理网民对不实信息的举报;中央网信办建立了中国互联网联合辟谣平台,为广大群众提供谣言举报、查证等功能;腾讯推出了专业事实查证平台“较真”,对各类假新闻、谣言等进行查证.这些措施对控制谣言的传播、降低谣言的危害起到了一定作用.然而,这些网站或系统在识别谣言时主要依赖于民众举报和人工验证的方式,不但需要耗费大量的人力和财力,而且在谣言识别上存在较大的时间滞后问题.因此,研究社交网络谣言自动识别模型,在谣言散布后尽可能短的时间内识别出谣言,对遏制谣言的传播具有重要的意义.
谣言的传播生命周期粗略可划分为潜伏期、爆发期和消亡期[2],所以按检测时间属性划分,可分为滞后检测、早期检测和实时检测3类[3].滞后检测主要针对谣言爆发期后的历史数据集进行检测,因历史数据包含了丰富的谣言传播特征(如评论、转发、点赞等数据),从而可用的检测特征相对较多,是初期谣言检测研究的主要方向.例如,2011年Castillo等人首次针对Twitter上的谣言数据进行整理,提出基于用户特征、内容特征、主题特征和传播特征的决策树谣言分类模型[4];2012年Yang等人首次针对新浪微博上的谣言数据进行分析,在已有的特征基础上提出了发布信息客户端类型和事件发生位置两个新特征,并使用SVM分类器构建谣言识别模型[5];贺刚等人认为Yang提出的浅层文本特征不能有效的区分谣言和非谣言,因此提出了符号特征、链接特征、关键词分布特征和时间差等4个新特征[6];曾子明等人以2016年雾霾谣言为例,在用户特征和传播特征的基础上利用LDA主题模型挖掘微博文本的主题分布特征,并利用随机森林算法进行谣言识别模型的训练[7].这一类的研究主要基于“人工特征工程+传统统计机器学习”的方式构建谣言检测模型,由于依赖的数据丰富,实验过程中也能获得较好的检测效果,但实际应用中不能尽早地识别谣言,缺少实用价值.所以,如何构建谣言及早检测模型成为近年来的研究热点.
早期检测主要针对尚处于潜伏期内的谣言进行识别,一般基于谣言早期传播过程中的时序数据进行建模.例如,Wu等人基于谣言的转发数据,构建谣言传播树形结构,使用基于图核函数的 SVM 分类器进行谣言检测[8];Ma等人基于谣言传播过程中的转发时序数据,构建基于循环神经网络(Recurrent Neural Network,RNN)的谣言检测模型[9];Chen等人提出注意力机制与循环神经网络相结合的谣言检测模型,使模型更加关注于转发时序数据中具有谣言特征的部分[10];谢柏林等人提出一种基于把关人行为的微博虚假信息检测方法,利用隐半马尔可夫模型刻画信息转发者和评论者对真实信息的把关行为,基于此来识别微博上流行的虚假信息[11];刘知远等人利用谣言传播过程中的怀疑和反驳信息,提出可信检测点的概念,基于深度神经网络构建谣言早期检测模型[12];廖祥文等人把谣言传播过程中的转发信息按时间段进行分割,输入带有注意力机制的双向门控循环神经网络(Gate Recurrent Unit,GRU)中,构建基于分层注意力网络的谣言检测模型[13];李力钊等人利用Doc2vec把谣言传播过程中的评论向量化,通过卷积神经网络(Convolutional Neural Networks,CNN)中的卷积层学习特征表示,将特征序列输入GRU中进行谣言检测[14].这一类的研究从基于人工特征工程的统计机器学习方法逐渐发展到基于语义特征的深度学习方法,大部分检测模型只要利用10%-30%的历史传播数据就可以获得80%以上的检测准确率,检测延时在12-24小时左右,相比于滞后检测具有较高的实用价值.
实时检测即信息一经发布就立即开始检测其是否为谣言信息,不依赖于任何的传播动态信息,也称为谣言的冷启动检测问题,是当今谣言检测研究的难点问题[3],部分学者也进行了相关探索研究.例如,Ajao等人提出卷积神经网络和长短时记忆网络(Long-Short Term Memory,LSTM)相结合的模型,自动提取Twitter中虚假谣言的语义特征,实现谣言的实时检测[15];李奥等人提出一种生成对抗网络模型用于谣言检测,通过对抗网络生成器和判别器的相互促进作用,强化谣言文本特征的学习[16].这一类的方法把谣言识别视为单文本分类问题,检测方法重点关注于谣言文本的语义信息[17].然而,用户散布的谣言可能不具有典型的谣言文本特征,单纯的文本分类有时并不能取得很好的效果.针对这个问题,马鸣等人将待检测样本和官方谣言库中的样本进行相似度计算,将其值和传统的用户统计特征、内容统计特征进行融合,输入SVM分类模型进行谣言检测[18];尹鹏博等人结合用户属性和微博文本,提出基于卷积神经网络和长短期记忆网络的谣言检测模型[19].通过研究分析发现,在单文本内容特征的基础上融入更多的辅助特征是提升实时谣言检测效果的重要手段.所以,本文基于已有的研究基础,提出融合多元用户特征和内容特征的谣言实时检测模型,通过结合多元异构信息以弥补单一文本信息的不足,提高谣言实时检测的准确率.
通常在社交媒体谣言检测中用到的特征主要有用户特征、内容特征和传播特征[20],而实时检测的谣言处于刚散布阶段,还不存在谣言的传播信息,所以只能从用户和内容信息挖掘出识别特征.在用户特征挖掘上,通过谣言用户和非谣言用户的属性差异选择用户基本特征,并利用用户的历史行为数据,挖掘用户理性值和用户专业度两个深层次特征;在内容特征挖掘上,构建双向GRU神经网络+注意力机制的文本语义特征学习模型,并统计符号、表情、URL等内容统计特征.检测模型如图1所示.
在图1中,采用分层特征级联和全连接的方式进行特征融合,把融合特征输入分类模型进行训练,预测分类结果.
3.1.1 用户基本特征
刘雅辉等人通过对谣言用户和非谣言用户的基本特征进行分析发现五点差异:谣言用户一般不会利用真实照片作为头像、话题型用户名的用户更具可信度、女性相比男性散布谣言的概率更大、用户所在地的差异影响谣言的识别能力、非认证用户比认证用户散布谣言的可能性更大[20];Morris等人研究发现用户的社交关系网络特征可以作为谣言用户的判断依据,粉丝数远小于关注数的用户更可能散布谣言信息[21];Castillo等人研究发现用户注册的时间越长、发布的信息越多其谣言识别能力越强,散布谣言的概率越小[4].所以本文基于这些研究结果,构建用户基本特征选项,并对相关特征表示进行数字化处理,具体特征选项如表1所示.
表1 用户基本特性选项
除了这些基本特征外,如何挖掘用户深层特征对提高谣言检测的准确率具有重要作用[22],所以本文基于用户的历史行为数据,提出用户理性值和专业度两个深层特征.
3.1.2 用户深层特征
1)用户理性值
“流言止于智者”,智者是具有独立思考判断的理性人,他们不轻易相信谣言,也不轻易传播谣言.通过对数据分析发现,理性用户发布的微博一般不会带有强烈的个人情感,微博行文客观公正,不容易引起广泛关注,用户评论态度也比较中立;而非理性用户发布的微博一般喜欢附加个人情感,微博行文主观臆断,更容易激起人们的关注,用户评论也更有争议性,即评论情感倾向程度明显[23,24].所以文本提出,通过对用户的历史微博文本情感和评论情感进行分析,计算用户的理性值,计算方法如公式(1)所示:
(1)
其中,Ratu表示用户u的理性值,n表示用户u发布的历史微博数,Sentii和Arguei分别表示微博i的情感度和争议度,其计算分别如公式(2)、公式(3)所示:
(2)
(3)
在公式(2)中,wt表示微博文本分词后的词语,SentiDic表示包含情感值的情感词库,SentiDegreewt表示wt的情感值,AdvDegreewt表示修饰wt的程度副词的程度值,微博的情感度计算不区分情感极性,取绝对值进行相加.在公式(3)中,neg和pos分别表示评论中正面情感评论数和负面情感评论数,中立情况不考虑,情感评论数越多微博的争议度越大;情感评论数相同的情况下,正负情感评论数越不均衡,微博的争议度越大.
2)用户专业度
用户经常发布某一主题的微博,说明用户对该主题有一定的认识,发布该主题下的微博更具可信度.文本基于LDA(Latent Dirichlet Allocation)主题模型[25],挖掘微博的潜在主题,提出基于主题相似度的用户专业度计算,计算方法如公式(4)所示:
(4)
3.2.1 文本语义特征
为了挖掘文本深层语义特征,文本构建双向GRU神经网络+注意力机制的语义特征学习模型.双向GRU使序列某点的输出不仅依赖与之前的信息,还依赖与未来的信息,融合上下文内容生产输出,符合人类理解文本的方式.注意力机制让模型更加关注于文本中具有谣言模式的部分.具体语义特征学习模型如图2所示.
1)语义特征学习模型算法
语义特征学习模型的算法如下:
Step 1.将文本进行分词和预处理(去除停用词、表情、符号等),利用词向量(Word2vec)进行词表示,构建文本词序列向量表示W=[w1,w2,…,wt],wi为分词预处理后的第i个词的向量表示,wi=[v1,v2,…,vk],k为词向量的维度.
Step 2.依次把文本词序列向量作为双向GRU网络的输入.
Step 3.把双向GRU状态输入到全连接层,计算输出结果yt,计算过程如公式(5)所示:
(5)
Step 4.利用注意力机制为每个节点的输出赋予不同的权重值,计算最终文本语义特征FC_s,计算过程如公式(6)所示:
(6)
其中,αt表示yt的权重,其计算过程如公式(7)~公式(8)所示:
ut=tanh(Wwyt+bw)
(7)
(8)
其中,Ww表示神经网络连接参数,bw表示偏置项参数,uw表示随机初始化权重.
2)GRU单元结构
图2模型中的GRU单元结构如图3所示.GRU单元结构中ht计算过程如公式(9)~公式(12)所示.
图2 语义特征学习模型
图3 GRU单元结构
rt=σ(Wr[ht-1,xt]+br)
(9)
zt=σ(Wz[ht-1,xt]+bz)
(10)
(11)
(12)
3.2.2 内容统计特征
在挖掘文本语义特征时,通常忽略了文本内容中的符号、表情、URL等信息,而这些信息对谣言的识别也具有一定的辅助作用.例如,一些谣言为了骗取用户流量通常会在文本中加入URL链接.本文为了弥补单一文本语义特征的不足,提出融合相关内容统计特征来丰富谣言检测内容特征.具体内容统计特征如表2所示.
表2 内容统计特征
用户特征和内容统计特征都是单值类型,文本语义特征为多维向量类型,为了使他们保持一致,文本采用分层级联+全连接的方式进行特征融合,具体融合模型如图4所示.
图4 特征融合模型
首先,针对用户基本特征、用户深层特征(理性值、专业度)、内容统计特征分别采用特征级联+全连接的方式得出用户基本特征向量FU_b、用户深层特征向量FU_s、内容统计特征向量FC_b;然后,继续采用特征级联+全连接的方式,把FU_b和FU_s进行融合得出用户特征向量FU,把FC_b和文本语义特征向量FC_s进行融合得出内容特征向量FC;最后,把用户特征向量FU和内容特征向量FC进行级联,得出最终多元融合特征向量FUC.整个计算过程如公式(13)~公式(18)所示:
FU_b=f(W(FU1⊕…⊕FU10)+b)
(13)
FU_s=f(W(Rat⊕Pro)+b)
(14)
FC_b=f(W(FC1⊕…⊕FC7)+b)
(15)
FU=f(W(FU_b⊕FU_s)+b)
(16)
FC=f(W(FC_b⊕FC_s)+b)
(17)
FUC=FU⊕FC
(18)
其中,⊕表示级联操作,即向量的拼接;W和b分别表示全连接层参数矩阵和偏置项;f表示全连接层的激活函数.
连接文本语义特征学习模型和特征融合模型,把融合特征FUC输入全连接层,最后通过softmax分类器进行谣言检测,分类预测结果计算如公式(19)所示:
p=softmax(W·FUC+b)
(19)
模型训练过程中基于最小化交叉熵损失函数对整个模型的参数进行优化,损失函数计算如公式(20)所示:
(20)
4.1.1 数据样本
本实验使用的数据由3部分组成:1)标注了类别的谣言和非谣言微博文本数据;2)谣言和非谣言微博的用户基本信息;3)用户发布该微博之前的历史微博文本数据和对应的评论数据.目前微博谣言公开数据集有Ma等人公开的数据集[9]和清华大学自然语言处理与社会人文计算实验室公布的中文谣言数据集[26]等,但这些数据集都不包含用户的历史微博数据,不符合本实验的要求,所以本实验数据是通过编写网络爬虫对微博社区管理中心和微博站点进行收集所得.微博站点选择weibo.cn,该站点相比weibo.com站点的页面结构更加简单,并且页面没有使用ajax异步加载数据和相关加密技术.为了避免站点对单个IP和账号的访问次数限制,爬虫在Scrapy框架的基础上利用了IP代理和账号池技术.微博社区管理中心公示了自2012年至今的近4万条不实信息,不实信息的公示结果如图5所示.
图5 微博社区管理中心不实信息公示
1)谣言样本
随着时间的推移,微博用户的属性可能会发生较大的变化,所以本实验只爬取微博社区管理中心近两年被证实的不实信息来构成谣言样本.爬虫采用广度优先的策略:
第1步.爬取文本内容不少于30个字符的谣言微博信息.如果文本内容过短,文本缺乏语义信息,所以本文根据一个完整句子的大概长度30设置过滤条件.
第2步.爬取谣言散布用户的基本信息,如果用户已注销则删除对应的谣言样本.
第3步.爬取用户散布该谣言之前最近的200条历史微博和对应的评论数据.
在爬取过程中,如果多条谣言属于同一用户,则只保留最新的一条.最后,获得3756条谣言数据.
2)非谣言样本
根据统计分析发现88.9%的微博谣言会在一周内被举报[26],所以本实验中非谣言样本是通过爬取发布时间超过一周且未被举报为不实信息的热门微博(评论数+转发数+点赞数大于100),这类微博包含的广告类、个人动态类和转发类的信息较少,微博内容更符合谣言检测任务.非谣言样本爬取数量、内容过滤条件、历史微博选择方式和谣言样本保持一致.具体实验样本统计信息如表3所示.
表3 实验样本统计信息
4.1.2 数据预处理
对数据的预处理主要包括特征统计、归一化、过滤、分词、去停用词、文本向量表示:
1)特征统计.用户基本特征FC3至FU10可以直接根据原始数据进行表示,而FU1(用户头像是否是真实照片)和FU2(用户名是否话题型)两个特征需要人工判断;内容统计特征FC1至FC7可以根据字符统计、正则表达式进行统计判断得到.
2)归一化处理.为了提高模型的训练速度,对所有统计数值特征转化到[0,1]区间表示.
3)文本内容过滤.微博内容包含大量的符号、表情、URL等,在进行分词前需要对这些特殊字符进行过滤,本文通过正则表达式进行筛选.
4)分词.利用HanLP分词工具对所有的微博(谣言微博、非谣言微博和用户的历史微博)进行分词.
5)去停用词.利用哈工大停用词表,对分词结果中的停用词进行删除.
6)文本向量表示.利用由北京师范大学和人民大学研究者开源的中文词向量库(Chinese-Word-Vectors)[27]进行词向量表示,再由词向量构成微博文本向量表示.该词向量库的向量维度为300,有针对微博特定领域训练的词向量,相比其他全领域的词向量库更适合微博谣言识别任务.
文本使用准确率(Accuracy)、谣言查准率(Precisionr)、非谣言查准率(Precisionn)、谣言查全率(Recallr)、非谣言查全率(Recalln)、谣言F1-Measure(F1r)、非谣言F1-Measure(F1n)作为模型检测评价指标,其计算分别如公式(21)~公式(27)所示:
(21)
(22)
(23)
(24)
(25)
(26)
(27)
其中,TP表示实际为谣言,预测也为谣言的样本数;TN表示实际为非谣言,预测也非谣言的样本数;FP表示实际为非谣言,预测为谣言的样本数;FN表示实际为谣言,预测为非谣言的样本数.
4.3.1 实验步骤
本文模型的实验步骤如表4所示.
表4 本文模型的实验步骤
续表
4.3.2 参数设置
在实验过程中,需要对相关模型参数和训练参数进行设置,本文根据先验知识和实验探索的方式对相关参数进行设置:根据微博官方首页的分类,设置LDA主题模型的主题数;根据数据预处理后的微博最大词数量设置文本语义特征学习模型中GRU输入序列的单元数;根据信息熵原理,特征蕴含的信息量越多,则其特征表示向量维度越大;通过多次实验探索,选择相对合适的模型训练参数,如学习率、迭代轮次等.本实验设定的主要参数如表5所示.
表5 主要参数设置
4.4.1 不同特征融合的实验结果对比
1)实验结果
为了验证融合多元用户特征和内容特征检测模型的有效性,进行以下5组不同特征融合的模型的实验对比:
①FC_c:只利用文本语义特性;
②FC_c+FC_b:融合本文语义特征和内容统计特征;
③FC_c+FC_b+FU_b:融合本文语义特征、内容统计特征和用户基本特征;
④FC_c+FC_b+FU_b+Rat:融合本文语义特征、内容统计特征、用户基本特征和用户理性值特征;
⑤FC_c+FC_b+FU_b+Rat+Pro:融合本文语义特征、内容统计特征、用户基本特征、用户理性值特征和用户专业度特征.
5组模型除融合特征不同,其他模型结构和参数保持一致,其实验结果对比如表6所示.
表6 不同特征融合的实验结果对比
2)结果分析
通过实验对比结果发现,随着融合的特征越多,模型的准确率、查准率、查全率和F1-Measure也越来越高,融合了FC_c+FC_b+FU_b+Rat+Pro模型的准确率达到91.74%,比其他FC_c、FC_c+FC_b、FC_c+FC_b+FU_b、FC_c+FC_b+FU_b+Rat4类融合模型的准确率分别高出4.39%,3.60%、1.26%、0.53%.实验结果表明:
①本文融合多元用户特征和内容特征的有效,以及提出用户理性值和专业度两个深层次特征的有效;
②当在纯内容特征中加入用户特征时模型的准确率提高最多,说明用户特征对基于内容特征的谣言识别具有很好的补充作用;
③FC_c和FC_c+FC_b两种只基于内容特征的模型对谣言类别的识别精度高于非谣言类别,而其他3类融合了用户特征和内容特征的模型对非谣言类别的识别精度略高于谣言类,说明内容特征更有利于对谣言的识别,而用户特征有利于对非谣言的识别.
4.4.2 不同语义特征学习模型的实验结果对比
1)实验结果
为了验证双向GRU神经网络+注意力机制的语义特征学习模型的有效性,进行以下4组不同模型的实验对比:
①GRU:基于单向GRU神经网络的语义特征学习模型;
②GRU+Attention:基于单向GRU神经网络+注意力机制的语义特征学习模型;
③BiGRU:基于双向GRU神经网络的语义特征学习模型;
④BiGRU+Attention:基于双向GRU神经网络+注意力机制的语义特征学习模型.
4组模型除语义特征学习模型不同,其他模型结构和参数保持一致,其实验结果对比如表7所示.
表7 不同语义特征学习模型的实验结果对比
2)结果分析
通过实验对比结果发现:
①BiGRU模型的准确率高于GRU模型,说明双向GRU神经网络的语义特征学习能力强于单向GRU神经网络;
②加入了注意力机制的GRU+Attention 和BiGRU+Attention两个模型的准确率分别高于未加入注意力机制的GRU模型和BiGRU模型,说明注意力机制提升了语义特性学习能力,验证了本文BiGRU+Attention模型的有效性;
③双向GRU使序列某点的输出不仅依赖与之前的文本信息,还依赖与之后的文本信息,注意力机制让模型更加关注于文本中具有谣言模式的部分.所以通过两者结合,挖掘的语义特征对谣言分类更加有效.
4.4.3 不同实时检测模型的实验对比
1)实验结果
4.4.1节和4.4.2节的实验对比都是模型本身的纵向对比.所以,为了进一步验证文本模型,利用本文数据集对文献[15]的谣言实时检测模型(LSTM-CNN)、文献[16]的谣言实时检测模型(TG-BiA)、文献[18]的谣言实时检测模型(T-SVM)和文献[19]的谣言实时检测模型(C-LSTM)进行复现,和文本模型分别对比它们在训练集和测试集中谣言的查准率、查全率、F1-Measure和方差(训练集F1-Measure减去测试集F1-Measure),对比结果如表8所示.
表8 不同实时检测模型的实验结果对比
2)结果分析
通过实验对比结果发现:
①LSTM-CNN和TG-BiA两种只关注谣言文本语义信息的检测模型在训练数据集上能实现较高的F1-Measure值,分别达到了90.57%和91.73%,而在测试数据集上分别只有87.10%和88.01%,分别下降了3.47%和3.72%,这可能是因为深度学习算法具有很强的特征学习能力,易学到和训练数据集高度相关的特征,导致模型的泛化能力不足;
②T-SVM在基于文本内容统计特征的基础上,融合了用户统计特征和历史谣言的相似度特征,模型在训练集和测试集上的F1-Measure值分别为85.55%和85.01%,准确率最低,方差也最小,这可能是因为基于人工特征工程+统计机器学习的算法模型学习能力低于数据驱动的深度学习算法模型,但统计特征具有全局性,所以模型的方差结果最小;
③C-LSTM在文本语义特征的基础上融合了用户属性特征,是只关注于文本语义信息模型的改进,测试集上的F1-Measure值达到了89.51%,相比LSTM-CNN、TG-BiA、T-SVM 3种模型分别提高了2.41%、1.50%、4.5%,方差也相对较小;
④本文提出的模型在文本语义特征的基础上融合了用户基本特征、用户深层特征和内容统计特征,进一步拓展了谣言实时检测的特征空间,在测试集上F1-Measure值达到了91.70%,相比于改进型C-LSTM模型高出了2.19%,在融合了更多的全局性特征后方差也相对更小.
4.4.4 谣言检查时效性分析
本文预测模型依赖于用户的基本信息和历史发文信息,对刚发布的微博进行预测时,如果数据库中已经存储了该发文用户的基本信息、理性值和专业度,那么待检测微博经过预处理后可以直接放入模型进行预测,以8核CPU、32G内存的计算机为例,整个计算过程毫秒级时间内就可完成.如果数据库中还没有存储该用户的信息,则先需要进行数据收集和计算,将结果保存数据库.以200条历史微博,单条微博5页评论计算,总需要抓取1001个页面,以单账号、单IP、单机器的Scrapy为例,数据抓取过程大概在3分钟左右,数据预处理、理性值和专业度的计算时间相对可以忽略不计,整个预测过程在3分钟左右就能完成,保证了谣言检测的实时性.
针对谣言实时检测问题,本文提出融合多元用户特征和内容特征的检测模型:在传统用户基本特征的基础上,基于用户的历史行为数据,挖掘用户理性值和用户专业度两个深层次特征;在利用双向GRU神经网络+注意力机制学习文本语义特征的基础上,融合符号、表情等内容统计特征.基于知识驱动和数据驱动相融合的思路,拓展了谣言实时检测的特征空间,弥补了单一文本数据学习的不足,并通过多种类型的实验结果对比,验证了本文模型的有效性.
虽然,本文模型提高了谣言实时检测的精准度,但也存在以下不足和可以改进的地方:1)相关统计特征依赖于手工操作,降低了模型的灵活性;2)无法对新用户进行理性值和专业度的计算,因为新用户没有历史行为数据;3)用户特征需要更新,因为用户的历史数据和相关属性会随时间发生变化;4)模型对超短文本类的微博检测效果不好,这类微博很难获取到语义特征和内容统计特征信息;5)没有对微博中附加的图片和视频进行多模态特征联合分析,而目前一部分的谣言是通过图片和视频进行传播的.这些不足都是下一步需要继续研究的方向.