教育考试中短测验的分析方法——基于两种项目反应理论方法的比较研究

2012-11-08 08:05袁淑莉赵守盈
中国考试 2012年10期
关键词:同质性测验试卷

何 壮 袁淑莉 赵守盈

1 前言

采用专题的方式命题是现代考试中的一种常见的方式,如高考英语全国卷中听力、阅读、写作等内容均可视为一个专题;文科综合试卷中,政治、历史、地理各成一个专题。这些专题的题目数量都很少,如英语试卷中听力20题、阅读20题、写作2题;文科综合选择题中政治12题、历史12题、地理11题。短测验在教育测量中非常流行,测验质量一直是命题者关注的问题。

命题质量关系到评价结果的客观公正,为确保测验质量,教育测量学者提出了一系列的方法。近年来,以项目反应理论(Item Response Theory,IRT)为代表的现代测量理论逐渐成为教育测量的主流,帮助教育者通过难度、区分度、猜测度、一致性等了解试卷质量,对考试实践产生了深远的影响。

2 两种项目反应理论的关系

按照项目分析时所用统计量的不同,项目反应理论可以分为参数项目反应理论(Parameter Item Response Theory,P-IRT)和非参数项目反应理论(Non-parameter Item Response Theory,NIRT)。P-IRT模型以区分度a、难度b、猜测度c、能力参数θ、信息量I等统计量为参数进行项目分析。常见的P-IRT模型有Rasch模型、Logistic模型、等级反应模型等。N-IRT使用正答概率的次序、哥特曼错误数、同质性系数H(coefficients of homogeneity)等指标进行项目分析。目前在教育测量中运用最为广泛的N-IRT 模型是摩根模型(Mokken Model)[1]。

P-IRT多应用于大试题量、大样本的测验中。在处理短测验、小样本数据时P-IRT存在很大的误差,N-IRT理论可以弥补这一缺陷[2],帮助研究者全面了解测验的质量。两种理论都遵循IRT的基本假设:潜在特质单维、被试作答局部独立、项目特征曲线(item characteristic curve,ICC)单调递增。在摩根模型中,如果测验数据满足三个假设,就构成了单调同质模型(monotonely homogeneous model,MH)[3]。其ICC曲线类似于P-IRT中的Logistic模型:每个题目的ICC曲线都满足单调递增,但由于区分度不同,ICC曲线可能相交(图1-1)。如果数据拟合MH模型,说明被试能力与试题得分之间单调相关。P-IRT中用拟合指数等进行维度检验,拟合差则说明测量结果中可能受到了目标特质之外的其它因素的影响。如Rasch模型中的Outfit MNSQ和Infit MNSQ,理想值为1,越接近理想值拟合越好,测验过程没有受到潜在特质之外的因素影响[4]。

如果测验数据满足这三个假设且不同题目的ICC曲线不相交(N-IRT中称之为题目间单调)这就构成了摩根模型中的双重单调模型(doubly monotone model,DM)[3]。DM模型可以用来对试卷进行项目功能差异(differential item functioning ,DIF)检验。一份优秀的试卷要求试题难度排序具有不变性的特点。即对于同一群体的不同子群体(如考试中的男、女两个子群体),按照正答率对试题排序,排序结果应当一致。出现不一致的情况则表明不同子群体在同一题目上的正答率不同,这些题目可能存在DIF。P-IRT中也有许多方法进行DIF检验。体现在ICC曲线上,不同被试子群体的ICC曲线不重合(图1-3),曲线越不重合,DIF越严重。

图1 ICC曲线

3 分析实例

3.1 研究样本及数据来源

本研究的样本是贵州省贵阳市某高三文科班学生。研究数据为贵阳市2011年一模文综考试的地理部分,共11个题目。样本量为194人,其中,男生71人,女生123人。

3.2.1 Rasch分析结果

Rasch模型是一种单参数模型,本研究选择该模型对数据进行P-IRT分析,并与N-IRT的分析结果进行比较。Rasch分析采用Winsteps软件。利用Rasch模型对试卷进行分析可以得到难度b、信息量I、拟合指数等参数(表1)。

表1 Rasch分析结果

图2 Rasch分析信息曲线

Rasch分析结果显示Infit MNSQ 均值为1.00、Outfit MNSQ均值为0.97。拟合指数等于或接近理想值1[5],说明数据与模型拟合良好,测量过程没有受到目标特质之外的因素影响。整套试题测量的特质为地理知识能力。

一般认为试题的难度应在[-2,2]之间,难度太大(>2)或太小(<-2)的题目对潜在特质的测量效用不大[6]。这套试题中有两个题目(题目2、10)的难度大于2,超出上述标准。对剩余9个题目难度作进一步分析,发现有6个题目难度为负,占总数的66%。这说明对样本群体来说这套试题比较简单。测验信息函数表示能力估计的精确程度,它被定义为测量误差平方[SE(θ)2]的倒数[7]。测验信息曲线(图2)的峰值对应的能力值为-0.35,表明这套试题在对于地理知识能力中等偏低的学生测量精度最高。峰值处的信息量为2.125。一般认为一个好的试卷,测验误差应当在0.25以下,信息量为16;一个更好的试卷,测验误差在0.2以下,信息量为25[8]。地理试卷的测验信息未达到上述标准。测验信息量是全部题目信息量加总后得到的,整套试卷信息量太低可能与每个题目信息量太低、题目数量太少有直接关系。此次分析只涉及了客观题部分,但一套完整的试卷除此之外还有简答、论述、综合等主观题,应当结合整套试卷判断试题质量,而不是简单按照参数标准删除或修改题目。

Rasch模型还可以比较题目难度与被试能力的分布,常见的Rasch分析软件都以Wright Map的方式输出结果。Wright Map中通过对数转换,将被试能力和题目难度转换成同一单位——Logit,这样就可以在同一坐标系中比较被试和题目[9]。图3中左侧为被试分布,能力由上至下逐渐降低;右侧为题目分布,难度由上至下递减。

Wright Map显示被试能力分布区间约为[-2,3],题目难度分布在[-1.52,2.08];表明题目难度未能涵盖所有被试(图3)。理想的测验应该是测验项目集中在学生能力分布周围[10]。这套试题的难度与被试能力分布存在一定差异,试题偏简单。

选择Mantel-Haenszel法对试卷进行性别DIF分析。若题目p值小于0.05则表明该题目存在显著的DIF。结果表明(表1)整套试卷不存在性别DIF。

图3 题目难度与被试能力

3.2.2 Rasch测量的误差

Rasch分析结果表明(表2)参数估计的标准差(standard error,SE)在[0.17,0.21]之间,平均值0.18。随机抽取3、5、7、9个题目进行参数估计,结果表明(表2):随着题目数量的减少,测量的误差逐渐增大。这说明测验越短,P-IRT估计的结果越不稳定,按照参数估计的结果判断题目质量可能会将好的题目删除或将差的题目保留。例如题目4,抽取7个题目进行参数估计时的SE=0.21,抽取11个题目时SE=0.19。

P-IRT追求的是对题目和能力参数的准确估计,力求将误差降低到最小。这就需要不断增加题目和被试数量,如此次研究中将题目数量增加到9题以上时平均误差降低到0.2以下。但在实际的教育测量情境中,题目数量在10题左右的短测验经常出现。尤其是当题目与模型拟合较差时,参数估计的误差更大,结果更不稳定。

针对P-IRT的这一局限,有研究者提出了N-IRT模型作为补充[11]。Mokken模型是最具代表性的非参模型之一,它以同质性系数、正答率、哥特曼错误数等统计量进行项目分析。这些统计量(如正答率次序)不受题目数量的影响[12]。

3.3 Mokken分析结果

利用Mokken模型对试卷进行分析,常用的统计量称为同质性系数H。共有三种类型的同质性系数:题目i与题目j之间的同质性系数Hij、题目i与剩余题目的同质性系数Hi、全部题目的同质性系数H。H值越高,测验总分对被试潜在特质的排序越准确,Mokken提出:Hij应大于0,Hi和H至少为0.3。0.3≤H<0.4表明试卷的测量准确程度较弱;0.4≤H<0.5表明试卷测量准确程度中等;0.5≤H≤1时,试卷测量准确程度强;H<0.3表明试卷不合格[13]。

Mokken分析主要从两个方面进行:对试卷的维度进行分析、筛选题目;DIF检验。本研究使用MSP5软件对数据进行Mokken分析。

Mokken模型利用同质性系数进行维度检验,当数据拟合MH模型,同时满足以下两个条件时,题目所测量的是同一特质。任意两个项目之间同质性系数Hij>0;特定题目与剩余题目间同质性系数Hi>0.3[1]。分析结果显示(表3):11个题目中有7个题目达到上述标准,这些题目测量的是同一潜在特质,另外4个题目(题目3、5、8、10)测量的可能不是地理能力,或测量过程受到了其它因素影响。这些题目应当删除或改进。

筛选后的整套试卷同质性系数H=0.37,表明利用试卷对学生的地理能力进行测量,准确程度接近中等。

如果数据拟合DM模型,就可以通过比较不同子群体题目正答率次序进行DIF检验。性别DIF检验结果显示(表4),男生组数据中有7个题目与DM模型拟合,女生组有5个题目拟合。以正答率为指标分别对这些题目进行排序,男女生两组的排序结果相同,且正答率非常接近;题目不存在性别上的差异。

表2 随机筛选题目参数估计时的标准差

表3 Mokken分析结果

3.4 两种分析方法的比较

表4 项目功能差异结果

将P-IRT中的题目按照难度值由高到低排列,并与N-IRT中按照正答率由低到高排列的结果比较。结果证明二者是等效的,即难度越高的题目,正答率越低。这一结果与其他研究者的结论一致[14]。

在Rasch模型中依据难度筛选题目,结果有9个题目达到统计学要求,2个题目需要改进或删除。在Mokken模型中,依据同质性系数筛选题目,结果有7个题目达到统计学要求,4个题目需要改进或删除。对比两个结果,在题目筛选上Mokken模型比Rasch模型更加严格。

需要特别指出的是对题目2和题目10的分析结果。在Rasch模型下,两个题目的难度相当,分别为2.08、2.04,均稍高于Rasch标准。在Mokken模型下,项目2的同质性系数Hi=0.54、P=0.54,是符合Mokken标准中难度最大的题目。这表明在P-IRT中参数不合格或处在合格与不合格分界处的题目对潜在特质的测量仍然有用。这有可能是Rasch在分析短测验试卷时的不稳定性造成的。另有研究者指出这类题目反映出被试的得分概率与潜在特质之间的关系可能不是Logistic类型,而是简单的非递减函数关系。这些题目对提高测验的质量意义也很大,以往研究中,简单的按照参数标准删除或修改的做法有待商榷。对于超出Rasch标准很高的题目是否也会出现类似现象,由于此次研究中未出现这类题目,这一问题需要在之后的研究中做进一步的讨论。

从维度检验的结果来看,Rasch模型下单维的数据,在Mokken模型下不一定单维,这表明后者对数据的要求更为严格。在重要考试中,可以采用Mokken模型进行维度检验,保证试题质量。

两种理论的DIF检验结果一致。Mokken模型下进行DIF检验的过程要将各分组的数据分别进行处理,结果发现有些题目在整体处理中能与模型拟合,分组后却并不一定能与模型拟合。这类信息是Rasch分析无法得到的,但却对命题非常重要。

P-IRT分析可以估计出准确的题目参数,依照相应的标准评价题目和试卷;N-IRT分析只能得出正答率及其次序、同质性系数、哥特曼错误数。项目分析时使用最多的方法是排序。排序方式没有参数标准精确,但对P-IRT是个重要的补充。

P-IRT更适用于大规模的测验,题量越大、被试越多,参数估计结果越准确、稳定。而在教育测量中常会遇到由少数题目组成的短测验或被试数量很少的情况。尤其是高考等重要考试中,以专题、短测验形式命题已经成为命题的主流。N-IRT为这类测验的分析提供了思路,可以为测验的准确性和公平性提供重要参考。它在题量小、被试少的测验分析上所表现出的优势备受研究者青睐[15]。N-IRT对计算机自适应测验的题库建设也具有深远的意义。在题库建设阶段施测的被试越少,越能有效地降低题目的曝光率。

4 结语

两种理论比较体现出来的差异,其原因是多方面的。既有理论本身的原因,也有所运用软件的原因。Rasch分析的结果比较丰富与其软件更为成熟也有一定的关系。目前基于P-IRT计算机软件不论是数量还是商业化程度都远超基于N-IRT的软件。相关软件的开发也将会是N-IRT理论发展的一个突破口。

近年来N-IRT的研究取得了长足的进步,但受其项目分析结果不够精确等特点的限制,研究者在实际应用中将其多作为P-IRT的补充。随着模型和算法的不断完善,它将逐渐减少人们对P-IRT的依赖。两种理论互补,共同提高教育测量的质量。

[1]张军.非参数项目反应理论在维度分析中的运用及评价[J].心理学探新,2010(3):80-83.

[2]辛涛.项目反应理论研究的新进展[J].中国考试,2005(7):18-21.

[3]Van Schuur W H.Mokken scale analysis:between the Guttman scale and parametric item response theory[J].Political Analysis.2003,11(2):139-163.

[4]晏子.心理科学领域内的客观测量——Rasch模型之特点及发展趋势[J].心理科学进展,2010(8):1298-1305.

[5]Smith Jr EV,Others.Detecting and evaluating theimpact of multidimensionality using item fit statistics and principal component analysis of residuals.[J].Journal of applied measurement.2002,3(2):205.

[6]余嘉元.项目反应理论及其应用[M].南京:江苏教育出版社.1992.

[7]杨建原,柏桧,赵守盈.计算机自适应测验开发的程序研究[J].中国考试,2012(3):3-7.

[8]涂冬波,蔡艳.信息函数在标准参照测验中的应用研究[J].江西师范大学学报(自然科学版),2005,29(2):167-172.

[9]赵守盈,何妃霞,陈维,等.Rasch模型在研究生入学考试质量分析中的应用[J].教育研究,2012(6):61-65.

[10]张金勇,何妃霞.教育测试中学生能力水平与测验项目难度的Rasch模型分析——个体能力与题目难度之间的对应关系[J].当代教育科学,2012(12):11-14.

[11]刘欣,徐海波.国外非参数项目反应理论的回顾与展望[J].统计教育,2002(1):43-44.

[12]Engelhard Jr G.Historical perspectives on invariant measurement:Guttman,Rasch,and Mokken[J].Measurement.2008,6(3):155-189.

[13]Mokken R J.A theory and procedure of scale analysis[M].Mouton The Hague,1971.

[14]雷新勇.非参数项目反应理论模型及其在教育考试中的应用[J].考试研究,2006(3):53-71.

[15]Junker BW,Sijtsma K.Nonparametric item response theory in action:An overview of the special issue[J].Applied Psychological Measurement.2001,25(3):211-220.

猜你喜欢
同质性测验试卷
《新年大测验》大揭榜
Module5 A Trip Along the Three Gorges
Module5 Great People and Great Inventions of Ancient China
Module 4 Sandstorms in Asia
Module 1 Europe
同质性和社会影响对混合型社交网络形成的仿真分析
基于同质性审视的高职应用型本科工程教育研究
两个处理t测验与F测验的数学关系
理性程度的异质性:基于理论与实践的考察
你知道吗?