基于答案辅助的半监督问题分类方法*
通信地址:215006 江苏省苏州市苏州大学计算机科学与技术学院Address:School of Computer Science & Technology,Soochow University,Suzhou 215006,Jiangsu,P.R.China
张栋,李寿山,周国栋
(苏州大学计算机科学与技术学院,江苏 苏州 215006)
摘要:问题分类旨在对问题的类型进行自动分类,该任务是问答系统研究的一项基本任务。提出了一种基于答案辅助的半监督问题分类方法。首先,将答案特征结合问题特征一起实现样本表示;然后,利用标签传播方法对已标注问题训练分类器,自动标注未标注问题的类别;最后,将初始标注的问题和自动标注的问题合并作为训练样本,利用最大熵模型对问题的测试文本进行分类。实验结果表明,本文提出的基于答案辅助的半监督分类方法能够充分利用未标注样本提升性能,明显优于其他的基准方法。
关键词:问答系统;问题分类;答案辅助;半监督分类;标签传播 田卫东等人[10]根据对中文问题的分析,得出问题中的疑问词和中心词等对问题所属类型起着决定性的作用。提出利用自学习方法建立疑问词-类别和疑问词+中心词-类别两种规则,并结合改进贝叶斯模型的问题分类方法。该方法充分利用了关键词对分类的贡献。
1引言
问答系统能够为用户提出的自然语言问题提供一个简明、准确的答案,越来越受到人们的关注。现有的问答系统主要包括三个模块:问题分析、信息检索和答案抽取。问答系统为了能够正确回答用户所提出的问题,首先需要对问题进行分析,知道用户想要寻找什么信息。此时,问题分类作为问题分析最基础的任务,提供了重要支持[1]。
问题分类就是把给定的某个问题映射到多个类型中的某一个或者几个类别中,以确定问题的类型。问题分类的第一个作用是有效地减小答案的候选空间。如:“怎么学习电脑维修呢?”经过问题分类,该问题是一个“电脑”类的问题,问答系统就可以把这个问题的候选答案限制在“电脑”类的相关答案集合中。这样就非常有效地减少了候选答案集合,充分提高了检索效率。
问题分类的第二个作用是能够决定答案的抽取策略,根据问题的不同类别采用不同的答案选择策略和知识库。如:“水瓶座男对天蝎座女表白说什么话最好?”经过问题分类,该问题是“感情”类问题,检索这类问题的答案就需要利用情感分析技术。
问题分类可以看作一种特殊的文本分类,然而,问题分类与传统的文本分类存在一定差别。一方面,在传统文本分类中词频信息对于区分文本中每个词汇的贡献程度很大,但在问题分类中词频信息不具明显区分作用,因为问题通常比较短,问题中每个词汇的词频普遍为1[2]。单单利用问题进行分类,往往由于信息量少而分错。另一方面,已标注的问题资源比较匮乏,标注语料又需要大量的时间、人力和物力[3]。因此,这就需要我们加入更多的辅助特征扩充问题信息,同时充分利用大量的未标注样本信息,才能获得较高的分类精度。
此外,传统的问题分类普遍都是基于全监督的分类方法,并且仅仅从问题中抽取特征进行分类。与以往研究不同的是,本文提出的基于答案辅助的半监督问题分类方法,一方面,该方法能够充分利用问题已有的答案来扩充分类信息,解决上面提到的问题包含的词汇信息量少的难点。如表1所示,在未利用答案特征的情况下,直接利用问题特征进行分类,“360问答开放平台是做什么的?”被误分为“非电脑”类问题。其原因可能是该问题中没有包含 “电脑”“网络”等关键词。然而,加入了答案特征后再进行分类,该问题则被准确识别为“电脑”类问题。因为答案特征中包含“互联网”这类明显的与“电脑”类相关的关键词。
Table 1 Examples of question classification
另一方面,该方法是一种半监督学习方法,能够充分利用未标注问题的信息提升分类性能,解决标注语料匮乏的问题[4]。此外,本文首次在问题分类研究中引入基于标签传播的半监督学习方法,该方法既可以使问题之间的标签互相传播,也可以使答案之间的标签互相传播,可以有效地提升标签预测准确率。
具体而言,本文的方法先将答案特征加入到问题中,利用标签传播方法预测未标注问题的类别;再将已确定类别的问题作为训练样本,利用最大熵模型进行问题分类。实验结果表明,答案的信息有助于大幅提升问题分类准确率。
本文其他部分组织如下:第2节介绍问题分类的相关工作;第3节描述问答语料的收集和构成;第4节介绍本文提出的基于半监督的问题分类方法;第5节给出实验设置与结果分析;第6节简述结论及下一步工作展望。
2相关工作
目前,问题分类研究主要集中在基于统计的机器学习方法上面。Ray S K等人[5]充分利用WordNet强大的语义特征和维基百科存储的大量相关知识来扩充问题所蕴含的信息,从而提升问题分类性能;Hui Z等人[6]考虑了问题文本中词序和词间距对问题分类的影响,提出一种扩展类顺序规则模型;Mishra M等人[7]从问题文本中抽取出词特征、句法特征、语义特征,融合这些特征训练三种分类器:最近邻、朴素贝叶斯、支持向量机,进行问题分类;Yadav R等人[8]使用了一元、二元、三元词特征以及词性特征,采用朴素贝叶斯分类方法进行问题分类的研究;Ligozat A L[9]将一部分英语问题语料库翻译为法语问题语料库,问题采用传统的6个大类别以及细分的50个小类别,并使用LibSVM分类器分类这些问题。
刘小明等人[11]先对问题进行浅层语义分析;再根据预定义的问题焦点结构和焦点抽取规则,获取问题焦点语义特征;然后标示问题的类别为问题焦点中疑问对象在领域本体中的标识;最后根据焦点不同则问题不同的事实,将焦点相同的问题归为一类。
张巍等人[12]针对中文问题分类方法中布尔模型提取特征信息损失较大的问题,提出了一种新的特征权重计算方法。在提取问题特征时,通过把信息熵算法和医院本体概念模型结合在一起,进行问题的特征模型计算,在此基础上使用支持向量机方法进行中文问题分类。
Liu L等人[13]认为标准核函数的SVM方法忽视了中文问题的结构信息,因而提出一种问题文本属性核函数的SMO方法。该方法还同时使用了句法依赖关系和词性特征。
多年来,传统的问题分类研究仅仅着眼于使用各种全监督技术只针对问题本身进行操作。与之不同的是,本文采用半监督学习方法,一方面减小了人工标注的工作量,另一方面通过将答案特征加入问题训练集中来扩充问题的信息,协助问题进行分类,以此提升问题分类的准确率。
3语料收集与描述
本文语料来自好搜问答社区(http://wenda.haosou.com/),其大类别总共有15个。本文为了实验方便直观以及下一步工作的需要,抓取了其中6个类别的问答数据,分别是:电脑/网络、文化/艺术、健康/医疗、生活、感情/家庭、体育/运动。每个类别包含2 000条问答(每个问题对应一个答案),共12 000条问答,问答实例如表2所示。
Table 2 Question and answer examples of each category
4基于答案辅助的半监督问题分类方法
如图1所示是本文所提出的问题分类方法的完整架构图。首先将答案特征叠加到问题特征中;其次根据改进后的标签传播方法,利用已标注问题预测未标注问题的类别;然后剔除这些问题中的答案特征,确定问题文本训练集,使用最大熵模型训练问题文本分类器;最终利用问题文本测试集测试问题文本分类器的性能。
Figure 1 Semi-supervised question classification with the help of answers图1 基于答案辅助的半监督问题分类方法架构图
对于问题和答案文本,我们均采用一元词特征。此外在预测未标注问题时,我们将答案特征加入到问题特征中来辅助问题分类。具体描述如表3所示。
Table 3 Examples of the unigram of question and
根据标签传播LP(Label Propagation)算法基本理论,每个节点的标签按相似度传播给相邻节点。在节点传播的每一步,每个节点根据相邻节点的标签来更新自己的标签;与该节点相似度越大,其相邻节点对其标注的影响权值越大;相似节点的标签越趋于一致,其标签就越容易传播。在标签传播过程中,保持已标注数据的标签不变,使其像一个源头把标签传向未标注数据。最终,当迭代过程结束时,相似节点的概率分布也趋于相似,可以划分到同一个类别中,从而完成标签传播过程[14,15]。具体算法如下所示:
算法1基于答案辅助的标签传播方法
输入:
初始已标注问题样本集合Lq,对应的答案样本集合La,分别包含n+个正类样本和n-个负类样本;
初始未标注问题样本集合Uq,对应的答案样本集合Ua;
初始已标注问题与答案叠加样本集合L=Lq+La,包含n+个正类样本和n-个负类样本;
初始未标注问题与答案叠加样本集合U=Uq+Ua;
输出:
更新后的标注问题样本集合Lq;
程序:
(1)初始化;
P:n×r标注矩阵,同时Pij标识文档i(i=0,…,n)属于类别j(j=1,…,r)的概率;
PL:P0的前m行对应的m个标注实例L;
PU:P0的后n-m行对应的n-m个未标注实例U;
(2)循环迭代N次直到收敛;
(4)从L中剔除答案样本集合La,得到最终的标注问题样本集合Lq。
在许多问题分类相关研究中,文档通常用词袋(Bag-of-words)模型化并用向量形式描述。在这些设置中,单词与文档间的关联是不清晰的。为了更好地捕捉单词和文档之间的关系,本文采用基于文档-词的二部图表述文档与单词的关系。文档-词的二部图的连接关系由文档和词的连接矩阵表示,即n×V矩阵X;n为文档数目,V是词的数目。文档-词的二部图仅存在文档到词及词到文档的连接关系。具体来讲,文档到词及词到文档的转移概率计算如下[16]:
如果文档di包含词wk,其权重为xik,则文档di到单词wk的转移概率为xik/∑kxik;同理,单词wk到文档dj的转移概率为xjk/∑kxjk。文档di到文档dj的转移概率是由文档di通过该文档里面的所有词到达文档dj的概率之和,即tij=∑k(xik/∑kxik)·(xjk/∑jxjk)。得到文档间的转移概率之后,可以通过标签传播算法计算未标注样本的标签。本文所提出的方法在每个文档中均加入了答案特征,辅助问题分类。
5实验
实验使用6个主题的问答语料,每个主题设计为一个二元分类问题,即“该主题”与“非该主题”分类。例如:“电脑”类2 000条问答对(一个问题对应一个答案),“非电脑”类是从其他5个主题中分别随机选取400条问答对,构成2 000条问答语料。因此,实验中一共包括6个二元分类问题。语料分词采用复旦大学自然语言处理实验室开发的分词软件FudanNLP(https://code.google.com/p/fudannlp/)。分类算法采用MALLET机器学习工具包中的最大熵分类器(http://mallet.cs.umass.edu/),所有参数都设置为默认值。分类特征选取词的一元特征(Unigram),使用准确率作为结果的评价标准。根据初始标注样本规模的大小,我们给出两组不同的实验设置:
(1)第一组6个二元主题分类任务的实验,分别随机选取每个主题5%的问答作为已标注问题样本,75%作为未标注问题样本,20%作为测试样本。
(2)第二组6个二元主题分类任务的实验,分别随机选取每个主题10%的问答作为已标注样本,70%作为未标注问题样本,20%作为测试样本。
实验比较方法详细描述如下:
(1)Baseline:只利用初始标注样本训练问题分类器(没有利用任何非标注样本);
(2)Self-training:利用整个特征空间构建分类器,并用它迭代加入置信度最高的样本扩充标注样本集合;
(3)LP(问题):利用已标注样本通过标签传播方法预测未标注样本的类别,将这些已确定类别的问题全部作为训练样本,训练问题分类器;
(4)LP(问题+答案):将对应的答案特征加入到已标注和未标注问题中,利用已标注样本通过LP预测未标注样本的类别,再剔除答案特征,将这些已确定类别的问题全部作为训练样本,训练问题分类器。
图2显示当初始标注样本为5%时,4种方法的分类性能比较。从图2中可以看出,我们的方法获得的分类效果明显优于其他方法,分类准确率比Self-training和LP方法分别平均提高了11.1%和3.9%。图3显示当初始标注样本为10%时,4种方法的分类性能比较。从图3中可以看出,我们的方法同样获得了最佳的分类效果,分类准确率比Self-training和LP方法分别平均提高10.7%和3.6%。具体比较结果如下:
(1)Self-training方法性能比Baseline还差,可能原因是,少量的问题标注样本刚开始预测的准确率很低,再一步步地迭代错误类别的问题样本,带来更大的错误。
(2) 利用LP方法预测未标注样本再进行问题分类,其分类准确率要明显高于Baseline和Self-training方法,这是因为LP方法可以在标注和未标注的问题样本中互相传播标签,有效地提升标签预测准确率。该实验结果说明LP方法在该任务中能够发挥较好的优越性。
(3) 本文提出的利用答案信息的LP方法,在12组实验中分类准确率均远远高于其他3种方法。该结果表明答案信息确实可以扩充问题分类信息,有效地提升了问题分类准确率。
Figure 2 Comparison of different methods based on 5% of the initial labeled samples图2 初始标注样本5%时不同半监督分类方法性能比较
Figure 3 Comparison of different methods based on 10% of the initial labeled samples图3 初始标注样本10%时不同半监督分类方法性能比较
6结束语
本文针对问题分类任务,提出了一种基于答案辅助的半监督问题分类方法。该方法的特色在于充分利用已有答案的分类信息并能够结合LP方法进行半监督分类,从而减少了大量的人工标注工作。实验结果表明,该方法在不同主题的任务中都表现得都非常优秀,分类准确率明显高于传统的半监督学习方法,进一步地提高了半监督问题分类的准确率。
下一步工作中,我们将考虑使用更多的分类方法(如矩阵分解模型)进一步提高半监督问题分类性能。我们也将考虑利用更多的特征(如:语义、句法),考察这些特征是否可提高问题分类的准确性。
参考文献:附中文
[1]LiXin,HuangXuan-jing,WuLi-de.CombinedmultipleclassifiersbasedonTBLalgorithmandtheirapplicationinquestionclassification[J].JournalofComputerResearchandDe-
velopment,2008,45(3):535-541.(inChinese)
[2]GaoChao.StudyonfeatureselectioninChinesequestionclassification[D].Anhui:AnhuiUniversityofTechnology,2011.(inChinese)
[3]LiS,HuangCR,ZhouG,etal.Employingpersonal/impersonalviewsinsupervisedandsemi-supervisedsentimentclassification[C]∥Procofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics.AssociationforComputationalLinguistics,2010:414-423.
[4]LiS,HuangL,WangJ,etal.Semi-stackingforsemi-supervisedsentimentclassification[C]∥ProcofACL-2015,2015:27-31.
[5]RaySK,SinghS,JoshiBP.AsemanticapproachforquestionclassificationusingWordNetandWikipedia[J].PatternRecognitionLetters,2010,31(13):1935-1943.
[6]HuiZ,LiuJ,OuyangL.Questionclassificationbasedonanextendedclasssequentialrulemodel[C]∥ProcofIJCNLP, 2011:938-946.
[7]MishraM,KumarMishraV,SharmaHR.Questionclassificationusingsemantic,syntacticandlexicalfeatures[J].InternationalJournalofWeb&SemanticTechnology,2013,4(3):39-47.
[8]YadavR,MishraM,BhilaiS.QuestionclassificationusingNaïveBayesmachinelearningapproach[J].InternationalJournalofEngineeringandInnovativeTechnology(IJEIT),2013,2(8):291-294.
[9]LigozatAL.Questionclassificationtransfer[C]∥ProcofACL, 2013:429-433.
[10]TianWei-dong,GaoYan-ying,ZuYong-liang.Questionclassificationbasedonself-learningrulesandmodifiedBayes[J].ApplicationResearchofComputers,2010,27(8):2869-2871.(inChinese)
[11]LiuXiao-ming,FanXiao-zhong,LiFang-fang.Aquestionclassificationmethodcombiningdomainontologyandquestionfocus[J].TransactionsofBeijingInstituteofTechnology,2012,32(5):498-502.(inChinese)
[12]ZhangWei,ChenJun-jie.MethodofinformationentropyanditsapplicationinChinesequestionclassification[J].ComputerEngineeringandApplications,2013,49(10):129-131.(inChinese)
[13]LiuL,YuZ,GuoJ,etal.Chinesequestionclassificationbasedonquestionpropertykernel[J].InternationalJournalofMachineLearning&Cybernetics,2014,5(5):713-720.
[14]ZhangJun-li,ChangYan-li,ShiWen.Overviewonlabelpropagationalgorithmandapplications[J].ApplicationResearchofComputers,2013,30(1):21-25.(inChinese)
[15]LiS,XueY,WangZ,etal.Activelearningforcross-domainsentimentclassification[C]∥Procofthe32rdInternationalJointConferenceonArtificialIntelligence,2013:2127-2133.
[16]GaoWei,WangZhong-qing,LiShou-shan.Semi-supervisedsentimentclassificationwithaensemblestrategy[J].JournalofChineseInformationProcessing,2013,27(3):120-126.(inChinese)
[1]李鑫,黄萱菁,吴立德.基于错误驱动算法组合分类器及其在问题分类中的应用[J].计算机研究与发展,2008,45(3):535-541.
[2]高超.中文问题分类中特征选择研究[D].安徽:安徽工业大学,2011.
[10]田卫东,高艳影,祖永亮.基于自学习规则和改进贝叶斯结合的问题分类[J].计算机应用研究,2010,27(8):2869-2871.
[11]刘小明,樊孝忠,李方方.一种结合本体和焦点的问题分类方法[J].北京理工大学学报,2012,32(5):498-502.
[12]张巍,陈俊杰.信息熵方法及在中文问题分类中的应用[J].计算机工程与应用,2013,49(10):129-131.
[14]张俊丽,常艳丽,师文.标签传播算法理论及其应用研究综述[J].计算机应用研究,2013,30(1):21-25.
[16]高伟,王中卿,李寿山.基于集成学习的半监督情感分类方法研究[J].中文信息学报,2013,27(3):120-126.
张栋(1991-),男,江苏扬州人,硕士生,研究方向为自然语言处理。E-mail:dzhangsuda@qq.com
ZHANGDong,bornin1991,MScandidate,hisresearchinterestincludesnaturallanguageprocessing.
李寿山(1980-),男,江苏扬州人,博士后,教授,CCF会员(E200033402M),研究方向为自然语言处理。E-mail:lishoushan@suda.edu.cn
LIShou-shan,bornin1980,postdoctor,professor,CCFmember(E200033402M),professor,hisresearchinterestincludesnaturallanguageprocessing.
周国栋(1967-),男,江苏常州人,博士后,教授,CCF会员(E200008769S),研究方向为自然语言处理。E-mail:gdzhou@suda.edu.cn
ZHOUGuo-dong,bornin1967,postdoctor,CCFmember(E200008769S),hisresearchinterestincludesnaturallanguageprocessing.
A classification method for semi-supervised question classification with answers
ZHANG Dong,LI Shou-shan,ZHOU Guo-dong
(School of Computer Science & Technology,Soochow University,Suzhou 215006,China)
Abstract:Question classification aims at classifying the types of questions automatically, and this is a basic task of the question answering system. We propose a classification method for semi-supervised questions with answers. Firstly, we combine answer features with question features to realize sample expressions. Then we train a question classifier on labeled questions using label propagation algorithm to annotate the category of unlabeled questions automatically. The questions of initial annotation and automatic annotation are merged with each other as training samples, and the maximum entropy model is adopted to classify the testing samples. Experimental results demonstrate that the classification method for semi-supervised questions with answers in this paper can make full use of the unlabeled samples to improve the performance, and it outperforms other benchmark methods.
Key words:question answering system;question classification;answer aiding;semi-supervised classification;label propagation
作者简介:
doi:10.3969/j.issn.1007-130X.2015.12.024
中图分类号:TP391
文献标志码:A
基金项目:国家自然科学基金重点项目(61331011);国家自然科学基金资助项目(61375073,61273320)
收稿日期:修回日期:2015-10-24
文章编号:1007-130X(2015)12-2352-06