任衍具 孙 琪,2
(1山东师范大学心理学院, 济南 250014) (2浙江师范大学心理学系, 金华 321004)
视觉搜索是指个体主动地从许多干扰项中寻找目标项的过程, 它是人们日常生活中许多作业活动的重要组成部分, 该任务已发展成为认知心理学家研究选择性注意的重要实验范式之一(Nakayama& Martini, 2011)。早期研究者采用此范式考察观察者从干扰项中搜索并确认目标项的绩效(成绩和效率), 其主要目的是探究在知觉竞争条件下人们将目标项从众多干扰项中分离出来的机制(Treisman& Gelade, 1980)。今天的研究者开始考虑使用该范式研究人们如何在环境中搜索目标物体, 以实现人类与环境的有效互动(Eckstein, 2011)。
近10多年来, 人们开始关注记忆与视觉搜索的交互作用(参见综述文章Kristjánsson & Campana,2010)。已有研究发现, 记忆是影响视觉搜索绩效的重要因素(如Kristjánsson, 2000; 但见Horowitz &Wolfe, 1998)。特别是情景记忆(Hout & Goldinger,2010, 2012; Howard, Pharaon, Körner, Smith, &Gilchrist, 2011; Solman & Smilek, 2010; Võ &Wolfe, 2013)、语义记忆(Castelhano & Henderson,2007; Droll & Eckstein, 2008; Ehinger, Hidalgo-Sotelo, Torralba, & Oliva, 2009; Võ & Henderson,2010)以及工作记忆(Anderson, Vogel, & Awh, 2013;Hollingworth, Matsukura, & Luck, 2013; Oh & Kim,2004; Solman, Cheyne, & Smilek, 2011; Woodman &Luck, 2004, 2010; Woodman, Vogel, & Luck, 2001)均会对视觉搜索的绩效产生重要影响, 其中工作记忆在视觉搜索中的作用倍受研究者的关注。
Baddeley及其同事系统提出并发展了工作记忆的多成分模型, 将工作记忆系统分为中央执行系统、语音环路、视空模板和情景缓冲器4个子系统,其中视空模板又称视空工作记忆, 可细分为客体工作记忆和空间工作记忆(参见综述: Baddeley, 2003,2012)。一些研究者认为这两个成分是相互独立的(如: Klauer & Zhao, 2004)。
已有研究者采用视空工作记忆任务和视觉搜索任务相结合的双任务范式对视空工作记忆在传统视觉搜索任务(以字母、图形等人工刺激为实验材料)中的作用进行研究, 结果发现, 不管工作记忆任务是对项目空间位置的变化觉察(空间工作记忆任务, 以下简称空间负载)还是对项目颜色的变化觉察(非空间工作记忆任务, 以下简称客体负载),有记忆负载条件下的搜索成绩(典型指标为搜索反应时和正确率)明显低于无记忆负载条件下的搜索成绩(Oh & Kim, 2004; Solman et al., 2011; Woodman& Luck, 2004; Woodman et al., 2001)该结果说明不管是空间负载还是客体负载均会对传统视觉搜索任务的成绩产生影响。当对视觉搜索的效率(采用反应时-搜索集合大小函数的斜率来表示: 详见Treisman & Gelade, 1980)进行分析时发现: 与无负载条件相比, 空间负载会降低传统视觉搜索任务的效率而客体负载则不会(Oh & Kim, 2004; Solman et al., 2011; Woodman & Luck, 2004; Woodman et al.,2001)。然而来自动物实验的研究发现, 前额叶(工作记忆的重要脑区, Goldman-Rakic, 1996)受损的猴子很难完成不同试次之间搜索目标不断变化(此时目标线索需要保持在工作记忆中)的搜索任务, 但能完成搜索目标不变(此时可直接从长时记忆中提取目标线索)的搜索任务(Rossi, Bichot, Desimone,& Ungerleider, 2001, 2007)。随后, Woodman, Luck和Schall (2007)据此设计了相应的实验对人类被试进行研究, 结果发现, 不管搜索目标是否变化, 客体负载条件下的搜索成绩均明显低于无负载条件下的; 但在搜索效率这一指标上, 当搜索目标不变时, 有无客体负载条件下的搜索效率差异不大; 当试次间搜索目标不断变化时, 客体负载条件下的搜索效率明显低于无负载条件下的。由此可见客体工作记忆是否对传统视觉搜索任务的效率产生影响则依赖于试次间搜索目标是否发生变化。
为了提高研究的生态效度, 近年来大量运用视觉搜索范式进行的研究已开始探讨与真实场景搜索任务相关的问题(参见: Wolfe, Alvarez,Rosenholtz, Kuzmova, & Sherman, 2011; Wolfe, Võ,Evans, & Greene, 2011)。已有研究表明, 真实场景搜索任务和传统视觉搜索任务在搜索材料方面存在着很大的差异, 集中体现为两点: ①传统视觉搜索任务的刺激画面往往是无意义的, 由高度相似的项目随机分布组成; 而真实场景搜索任务的刺激画面往往具有一定的意义和空间结构, 由身份及视觉特征变化幅度较大的物体(往往由不同维度的特征构成)和背景按照一定的语义关系组成。②传统视觉搜索任务的目标项目简单, 而且具有明确的定义性特征, 识别目标项也不必需要眼动去注视搜索画面中的每个项目; 而真实场景搜索任务的目标物往往是异常复杂的, 由多个维度的特征组成, 而且有时候具有一定的不确定性, 往往需要眼动将目标物置于中央窝区域, 以便将目标物与其他干扰子区分开来(Hollingworth, 2012)。搜索材料的差异使得影响传统视觉搜索任务和真实场景搜索任务的因素之间存在着较大的差异。那么前人有关视空工作记忆对传统视觉搜索任务绩效的影响有待采用真实场景搜索任务做进一步的探讨。
新近研究表明, 影响真实场景搜索任务绩效的因素主要包括目标模板的具体化程度(Bravo &Farid, 2009, 2012; Malcolm & Henderson, 2009,2010; Reeder & Peelen, 2013; Yang & Zelinsky,2009)、搜索场景画面的视觉混乱度(Henderson,Chanceaux, & Smith, 2009; Rosenholtz, Li, &Nakano, 2007)和场景情境(Brockmole, Castelhano,& Henderson, 2006; Malcolm & Henderson, 2010;Neider & Zelinsky, 2006)。
利用传统视觉搜索任务进行的研究发现, 目标模板的具体化程度能够系统地引导搜索, 目标模板的具体化程度越高搜索反应时就越短(例如: Wolfe,Horowitz, Kenner, Hyle, & Vasan, 2004)。利用真实场景搜索任务进行的研究也有类似的发现, 目标线索为图片时的搜索时间短于目标线索为文字时的搜索时间(Bravo & Farid, 2009, 2012; Malcolm &Henderson, 2009, 2010; Schmidt & Zelinsky, 2009)。对目标模板表征的具体化程度则依赖于视空工作记忆对目标物体的编码质量, 那么目标模板的具体化程度是否会调节视空工作记忆对真实场景搜索绩效的影响还有待进一步的探讨。
搜索画面项目数的多少(搜索集合大小)是影响传统视觉搜索任务绩效的一个重要因素。针对真实场景搜索画面中的集合大小难以统计这一事实, 一些研究者提出采用视觉混乱度来代替传统视觉搜索任务中的集合大小, 视觉混乱度是指由于视觉画面中存在过多的项目使其显示或组织令某些作业绩效下降的一种状态(Rosenholtz et al., 2007), 随后有研究者验证了这种替代方法的有效性(Henderson et al., 2009)。并有研究发现, 随着场景画面视觉混乱度的增加, 搜索绩效明显下降(Neider & Zelinsky,2010, 2011)。那么, 场景画面的视觉混乱度是否会调节视空工作记忆负载对真实场景搜索绩效的影响也需要进一步的探究。
仅通过搜索反应时和正确率并不能清晰地反映整个搜索过程, 因此我们利用眼动技术, 借鉴前人的方法(Castelhano & Heaven, 2010; Castelhano,Pollatsek, & Cave, 2008; Malcolm & Henderson,2009, 2010), 将搜索过程划分为3个阶段: ①起始阶段, 是指从搜索画面呈现到第一个注视点结束的时间间隔, 即首次眼跳潜伏期; ②扫描阶段, 是指从首次眼跳开始到首次注视搜索目标之间的时间; ③确认阶段, 是指从首次注视搜索目标开始到做出恰当按键反应之间的时间, 反映了被试确认该物体是否为搜索目标的时间。希望通过这3个阶段的划分能够更精细地理解视空工作记忆对真实场景视觉搜索绩效的影响机制。
综上所述, 本研究尝试采用视空工作记忆任务和真实场景搜索任务相结合的双任务范式, 考察视空工作记忆负载对真实场景搜索任务绩效的影响机制, 同时探讨试次间搜索目标是否变化、目标模板的具体化程度以及搜索场景画面的视觉混乱度所起的调节作用。具体而言: ①视空工作记忆负载(包括空间负载和客体负载)对真实场景搜索任务成绩的影响与对传统视觉搜索任务成绩的影响是否相同, 试次间搜索目标是否变化、目标模板的具体化程度以及搜索场景画面的视觉混乱度是否会调节这些影响; ②视空工作记忆负载(包括空间负载和客体负载)对真实场景搜索效率的影响与传统搜索效率的影响是否相同; 试次间搜索目标是否变化、目标模板的具体化程度以及搜索场景画面的视觉混乱度是否会调节这些影响。
选取96名本科生和研究生(男生18名; 女生78名)参加该实验。参加者的平均年龄为20.77岁,标准差为1.56, 视力或矫正视力正常, 色觉正常,所有参加者均未参加过类似的实验, 实验结束后给予一定报酬。
实验刺激呈现在17英寸的显示器上, 屏幕分辨率为1024 × 768, 刷新率为75 Hz。视距为75 cm。采用Eyelink 1000 (SR Research, Ontario, Canada)眼动仪采集眼动数据, 采样频率为1000 Hz, 利用E-Prime 2.0编程控制实验流程。
在整个实验过程中, 所有刺激材料均呈现在灰色(RGB: 147, 147, 147)屏幕上。整个实验涉及3种任务: 空间工作记忆任务、客体工作记忆任务和真实场景搜索任务。
空间工作记忆任务: 首先要求被试记住屏幕上呈现的4个黑色方块(参照Zhang & Zhang, 2011)的空间位置, 间隔5000 ms后进行记忆测试, 即呈现一个黑色方框3000 ms, 要求被试在该时间段内判断该方框所在的位置是否为刚才识记过的4个位置中的一个。方块和方框大小均为46 px ×46 px (视角约为1.2°× 1.2°大小)。方块的位置从表1所示的19个位置中随机挑选, 方块与方块之间无覆盖。
客体工作记忆任务: 首先在屏幕中央的上下左右4个位置呈现4个不同颜色的色块(参照Solman et al., 2011; Woodman & Luck, 2004; Woodman et al.,2001) 500 ms, 要求被试记住这4个色块的颜色,间隔5000 ms后进行记忆测试, 即在屏幕中央呈现一个色块, 要求被试判断该色块的颜色是否为刚才识记过的4种颜色中的一种。色块大小与空间工作记忆任务中的方块大小相同, 色块颜色包含7种易分辨的颜色, 包括:红色(RGB: 255, 0, 0)、蓝色(RGB:0, 0, 255)、黑色(RGB: 0, 0, 0)、白色(RGB: 255, 255,255)、紫罗兰(RGB: 238, 130, 238)、黄色(RGB: 255,255, 0)、绿色(RGB: 0, 255, 0)。4个色块的位置保持不变, 色块中心到屏幕中心的距离均为130 px(换算成视角约为3.5°)。
场景搜索任务: 首先告知被试搜索目标, 在屏幕中央呈现需要搜索的目标物体的图片(大小与随后呈现的搜索场景图片中的目标物体大小相同)或名称(白色黑体文字, 大小60点) 500 ms, 间隔1500 ms后呈现需要搜索的场景图片4000 ms, 要求被试在此时间段内找到并注视目标物体同时作按键反应。
表1 空间记忆负载方块位置分布表
借助互联网搜集到190张场景图片作为原始图片(无搜索目标)。首先利用Photoshop CS 3对图片进行简单处理, 调整像素大小均为1024 × 768, 然后采用Rosenholtz等(2007)提出的计算方法, 以特征拥塞(feature congestion, FC)和子带熵(subband entropy, SE)为指标, 对图片的视觉混乱度进行测量,筛选出FC和SE均高的图片(FC:M
= 4.45,SD
=0.64; SE:M
= 3.87,SD
= 0.21; FC和SE存在中等程度正相关:r
= 0.48,p
< 0.001) 60张作为正式实验中高视觉混乱度组的材料, 将FC和SE均低的图片(FC:M
= 3.00,SD
= 0.38; SE:M
= 3.37,SD
= 0.17;SE和FC存在中等程度正相关:r
= 0.50,p
< 0.001)60张作为正式实验中低视觉混乱度组的材料。高低分组中的图片在FC和SE这两个指标上差异均显著(p
s < 0.001)。练习图片每组6张, 共12张(FC=3.97, FC= 3.22)。将筛选出的图片复制成两份, 一份置入相同搜索目标组作为试次间搜索目标不变条件下的实验材料; 另一份置入不同搜索目标组作为试次间搜索目标变化条件下的实验材料, 一共264张(24张用于练习, 240张用于正式实验)场景图片。此外, 为了防止实验过程中言语工作记忆的编码, 要求被试大声清晰地读出呈现在屏幕中央的4个不同的随机字母(如, E T U G, 呈现时间为500 ms, 字体为白色黑体, 大小为60点)直至该试次结束(Soto & Humphreys, 2007)。
本研究的主要目的是为了对比3种类型的工作记忆负载条件下观察者完成真实场景搜索任务的绩效, 同时探讨试次间搜索目标是否变化、目标模板的具体化程度以及搜索场景画面的视觉混乱度3个变量的调节作用。因此该实验采用3 (工作记忆负载类型: 无负载、客体负载和空间负载) × 2 (目标模板的具体化程度: 图片和文字) × 2 (搜索场景画面的视觉混乱度: 高和低) ×2 (试次间搜索目标是否变化:不变和变化)的混合实验设计。其中目标模板的具体化程度和搜索场景画面的视觉混乱度为被试内变量, 工作记忆负载类型和试次间搜索目标是否变化为被试间变量。因变量包括被试完成工作记忆任务的正确率、完成真实场景搜索任务的正确率、搜索反应时、起始阶段的持续时间、扫描阶段的持续时间、扫描阶段的平均注视时间、扫描阶段的注视点数、确认阶段的持续时间和搜索效率等。
将96名被试随机分为6组, 每组16人(男生3人, 女生13人), 分别完成无负载-搜索目标不变、无负载-搜索目标变化、客体负载-搜索目标不变、客体负载-搜索目标变化、空间负载-搜索目标不变和空间负载-搜索目标变化6种条件下的实验。每种实验条件中有4种搜索类型, ①图片提示搜索目标-搜索场景画面视觉混乱度高; ②文字提示搜索目标-搜索场景画面视觉混乱度高; ③图片提示搜索目标-搜索场景画面视觉混乱度低; ④文字提示搜索目标-搜索场景画面视觉混乱度低。对于同一张搜索场景画面, 当用文字提示搜索目标时, 不可再用图片进行提示, 即每位被试在所完成的实验中对同一图片搜索一次, 正式实验中每位被试共搜索120张(视觉混乱度高低各60张)场景图片, 这120张场景搜索图片在实验中呈现的顺序是随机的, 而图片提示和文字提示与材料的组合则采用被试间平衡; 具体来说, 用P代表图片提示, W代表文字提示,H01-H60代表视觉混乱度高的60张图片, L01-L60代表视觉混乱度低的60张图片; 参加者1完成的提示形式与材料的组合为PH01-PH30, WH31-WH60,PL01-PL30, WL31-WL60; 参加者2完成的提示形式与材料的组合为WH01-WH30, PH31-PH60,WL01-WL30, PL31-PL60, 以此类推。实验开始前均需对眼睛进行9点校准, 达到标准后进入实验。
无负载-搜索目标不变和无负载-搜索目标变化条件下的单次试验流程一致(如图1a所示)。首先在屏幕中央呈现注视点“+” 500 ms, 然后呈现4个不同的随机字母 500 ms, 要求被试进行发音抑制任务, 间隔500 ms的空屏后呈现所要搜索的目标物体的图片或名称500 ms, 再间隔500 ms的空屏, 随后再呈现红色注视圆点1000 ms, 要求被试用眼睛盯住该圆点按键, 接下来呈现所要搜索的场景图片4000 ms, 要求被试在该时间段内找到搜索目标,并盯住目标物体按“空格键”; 按键结束后是4000 ms的空屏, 该次试验结束, 然后进入下一试次。每种条件下, 被试首先进行12试次的练习实验, 然后进行120试次的正式实验。
客体记忆负载-搜索目标不变、客体记忆负载-搜索目标变化、空间记忆负载-搜索目标不变、和空间记忆负载-搜索目标变化4种条件下的单次试验流程一致(详见图1b所示): 首先在屏幕中央呈现注视点“+”500 ms, 然后呈现4个不同的随机字母500 ms, 要求被试进行发音抑制任务, 间隔500 ms的空屏后呈现所要搜索的目标物体的图片或名称500 ms, 间隔500 ms的空屏后呈现4个不同颜色的色块或者4个位于不同位置上的黑色方块500 ms;之后是500 ms的红色圆点, 要求被试用眼睛盯住该圆点按键; 然后呈现所要搜索的场景图片4000 ms, 要求被试在该时间段内找到搜索目标, 并盯住目标物体按“空格键”; 按键结束后是500 ms的空屏, 然后呈现一个色块或者位于某一位置上的方块,持续时间3000 ms, 要求被试在该时间段内判断该颜色或位置是否是刚才识记过的, 如果是识记过的项目就按“F”键; 如果不是则按“J”键; 按键结束后是500 ms的空屏, 该次试验结束, 然后进入下一试次。练习实验和正式实验的次数与无负载条件下的相同。
图1 单次试验流程示意图
由于本研究的目的是为了考察视空工作记忆负载对真实场景搜索绩效的影响, 我们关注的是不同实验条件下与搜索任务有关的因变量结果, 而非双任务中视空工作记忆任务的成绩(如表2所示),所以不对视空工作记忆任务的正确率做进一步的统计分析。
然后对搜索任务的数据进行预处理, 剔除错误反应的数据, 只分析正确反应的数据。错误反应的试次包括: ①被试在4000 ms内未做出正确按键反应的试次; ②被试虽然做出了正确的按键反应, 但注视点未落在或校正后未落在目标物体上的试次;③依据该条件下搜索反应时的M
± 3SD
的原则剔除的数据; ④在正确反应的基础上, 将持续时间低于100 ms的注视点剔除(参照Malcolm & Henderson,2010; Võ & Wolfe, 2012的数据预处理标准进行筛选数据)。无记忆负载、客体负载和空间负载条件下剔除数据点占总数据点的百分比分别为12.1%,18.8%和21.0%。不同实验条件下搜索任务的描述统计结果见附表1a至附表1f所示, 采用SPSS 21.0对实验数据做统计分析。表2 不同实验条件下视空工作记忆任务的正确率
F
(2, 90) = 9.84,p
< 0.001, η= 0.18; 且与试次间搜索目标是否变化的交互作用显著,F
(1, 90) = 3.72,p
= 0.028, η= 0.08; 简单效应分析表明, 当搜索目标不变时, 不同负载条件之间差异不显著(p
s >0.05); 当搜索目标变化时, 无负载条件下的搜索正确率显著高于客体负载和空间负载的(p
s < 0.01)。此外还发现, 试次间搜索目标是否变化与目标模板具体化程度的交互作用显著,F
(1, 90) = 14.14,p
<0.001, η= 0.14; 简单效应分析表明, 当搜索目标不变时, 两种提示条件之间的正确率无显著差异(p
= 0.177); 当搜索目标变化时, 以文字形式提示搜索目标的正确率低于图片提示的(p
< 0.001)。F
(2, 90) = 6.84,p
=0.002, η= 0.13; 多重比较表明: 无负载条件下的搜索反应时明显短于空间负载的,p
= 0.001; 二者与客体负载条件的差异均不显著(p
s > 0.05)。此外还发现, 试次间搜索目标是否变化与目标模板的具体化程度之间有显著的交互作用,F
(1, 90) = 56.24,p
< 0.001, η= 0.39; 简单效应分析表明, 当搜索目标变化时, 文字提示的搜索反应时显著长于图片提示的(p
< 0.001); 当搜索目标不变时, 二者之间差异不显著(p
= 0.742)。目标模板的具体化程度和视觉混乱度的交互作用也显著,F
(1, 90) = 6.05,p
=0.016, η= 0.06; 简单效应分析表明, 高低视觉混乱度下文字提示的搜索反应时均显著长于图片提示的(p
s < 0.001); 只是在低视觉混乱度下二者之间差异更加明显(p
< 0.001)。图2 不同实验条件下的搜索反应时(ms)和正确率(%) (图中误差线为标准误, 下同)
图3 不同实验条件下搜索过程中不同阶段的持续时间(ms)
基于眼动技术, 将整个搜索过程分为起始阶段、扫描阶段和确认阶段。不同实验条件下搜索过程中不同阶段的持续时间如图3所示。下面将对各个阶段进行更为细致的分析。
起始阶段的持续时间是指从搜索画面呈现到被试做出首次眼跳之间的时间, 即为首次眼跳潜伏期, 它反映了被试从搜索画面中获取场景要旨并做出眼跳决策的难易程度。方差分析表明, 仅搜索目标不变时起始阶段的持续时间显著长于搜索目标变化时的,F
(1, 90) = 6.00,p
= 0.016, η= 0.06。扫描阶段的持续时间是指从被试首次启动眼跳到首次注视目标物体之间的时间, 反映了被试搜索目标物体的过程。方差分析表明, 3种负载条件下扫描阶段的持续时间差异不显著,F
(2, 90) = 2.19,p
= 0.118, η= 0.05。但与目标模板的具体化程度有显著的交互作用,F
(2, 90) = 3.54,p
= 0.033, η=0.07; 简单效应分析表明, 当以图片形式提示搜索目标时, 无负载条件下扫描阶段的持续时间短于客体负载下的(p
= 0.038); 当以文字形式提示搜索目标时, 3种负载条件两两之间差异均不显著(p
s >0.05)。此外还发现, 试次间搜索目标是否变化与目标模板的具体化程度之间存在显著的交互作用,F
(1, 90) = 28.63,p
< 0.001, η= 0.24; 简单效应分析表明, 当搜索目标变化时, 文字提示条件下扫描阶段的持续时间长于图片提示条件下的(p
< 0.001);搜索目标不变时, 二者之间差异不显著(p
= 0.551)。扫描阶段的注视点数反映了搜索过程的难易程度。方差分析表明, 3种负载条件下扫描阶段注视点数差异显著,F
(2, 90) = 6.19,p
= 0.003, η= 0.12;多重比较表明: 无负载条件下扫描阶段的注视点数均少于客体负载和空间负载下的(p
= 0.013,p
=0.006); 后两者之间差异不显著(p
> 0.05)。此外, 还发现试次间搜索目标是否变化与目标模板的具体化程度之间存在显著的交互作用,F
(1, 90) = 15.94,p
< 0.001, η= 0.15; 简单效应分析表明, 当搜索目标变化时, 文字提示时扫描阶段的注视点数多于图片提示时的(p
< 0.001); 当搜索目标不变时, 二者之间差异不显著(p
> 0.05)。扫描阶段的平均注视时间反映了被试从注视点处获取信息并对其进行判断是否为目标物体的难易程度。方差分析表明, 3种负载条件下扫描阶段平均注视时间差异不显著,F
(2, 90) = 0.47,p
=0.624, η= 0.01。此外, 还发现试次间搜索目标是否变化与目标模板具体化程度之间显著的交互作用,F
(1, 90) = 6.11,p
= 0.015, η= 0.06; 当搜索目标变化时, 图片提示搜索目标时扫描阶段的平均注视时间短于文字提示时的(p
< 0.001); 当搜索目标不变时, 二者之间差异不显著(p
= 0.544)。视觉混乱度和试次间搜索目标是否变化的交互作用也显著,F
(1, 90) = 7.37,p
= 0.008, η= 0.08; 简单效应分析表明, 当搜索目标变化时,视觉混乱度高的条件下扫描阶段的平均注视时间长于视觉混乱度低的条件(p
< 0.001); 搜索目标不变时, 两种条件之间差异不显著(p
= 0.735)。确认阶段的持续时间反映的是被试确认注视物体是否为搜索目标的时间。方差分析表明, 3种负载条件下确认阶段的持续时间差异显著,F
(2, 90) =5.90,p
= 0.004, η= 0.12; 且与目标模板的具体化程度有显著的交互作用,F
(2, 90) = 3.38,p
= 0.033,η= 0.07; 简单效应分析表明, 当以图片形式提示搜索目标时, 无负载和客体负载均短于空间负载条件(p
= 0.032,p
= 0.041); 当以文字形式提示时, 无负载和客体负载均更短于空间负载条件(p
= 0.008,p
= 0.003)。此外, 还发现试次间搜索目标是否变化与目标模板具体化程度之间的交互作用显著,F
(1,90) = 7.08,p
= 0.009, η= 0.07; 简单效应分析表明, 当搜索目标变化时, 图片提示条件下确认阶段的持续时间短于文字提示的(p
< 0.001); 当搜索目标不变时, 二者之间差异不显著(p
= 0.448)。搜索效率是指反应时与视觉混乱度函数的斜率, 代表了搜索过程中单位混乱度条件下搜索的困难程度, 值越大搜索效率越低。本研究中采用两种混乱度指标: FC和SE, 因此对应的两种评估搜索效率的指标为RT/FC和RT/SE (Henderson et al.,2009), 结果如图4所示。
F
(2, 90) = 7.28,p
= 0.001, η= 0.14; 且与视觉混乱度的交互作用显著,F
(2, 90)= 5.61,p
= 0.005, η= 0.11; 简单效应分析表明,当视觉混乱度高时, 无负载的搜索效率高于空间负载的(p
= 0.002); 视觉混乱度低时, 无负载和客体负载的搜索效率均高于空间负载的(p
= 0.001,p
=0.028)。此外还发现, 试次间搜索目标是否变化与目标模板具体化程度的交互作用显著,F
(1, 90) =61.35,p
< 0.001, η= 0.41; 简单效应分析表明, 当搜索目标变化时, 图片提示的搜索效率高于文字提示的(p
< 0.001); 当搜索目标不变时, 二者之间差异不显著(p
= 0.416)。目标模板的具体化程度和视觉混乱度的交互作用也显著,F
(1, 90) = 13.83,p
<0.001, η= 0.13; 简单效应分析表明, 两种提示条件下, 视觉混乱度高的搜索效率均高于视觉混乱度低的(p
s < 0.001); 只是在文字提示条件下, 二者之间的差异更明显。图4 不同实验条件下两种评估指标表示的搜索效率(值越大搜索效率越低)
F
(2, 90) = 7.16,p
= 0.001, η= 0.14; 且与视觉混乱度的交互作用显著,F
(2, 90) =3.79,p
= 0.026, η= 0.08; 简单效应分析表明, 当视觉混乱度高时, 无负载的搜索效率高于空间负载的(p
= 0.002); 当视觉混乱度低时, 无负载和客体负载的搜索效率均高于空间负载的(p
= 0.001,p
= 0.023)。此外还发现, 试次间搜索目标是否变化与目标模板具体化程度的交互作用显著,F
(1, 90) = 54.73,p
<0.001, η= 0.38; 简单效应分析表明, 当搜索目标变化时, 图片提示的搜索效率高于文字提示的(p
<0.001); 当搜索目标不变时, 二者之间差异不显著(p
= 0.473)。目标模板的具体化程度和视觉混乱度的交互作用也显著,F
(1, 90) = 10.64,p
= 0.002, η= 0.11;简单效应分析表明, 两种提示条件下, 视觉混乱度高的搜索效率均高于视觉混乱度低的(p
s < 0.001); 只是在文字提示条件下, 二者之间差异更加明显。下面将从搜索成绩和搜索效率两个方面来分析视空工作记忆负载对真实场景搜索任务的影响与对传统视觉搜索任务的影响有何异同, 同时探讨试次间搜索目标是否变化、目标模板的具体化程度以及搜索场景画面的视觉混乱度所起的调节作用。
从搜索任务的正确率和反应时的结果来看, 二者之间不存在速度-准确性权衡。
综合搜索任务的正确率和反应时两个指标的结果(图2)发现: 与无负载条件相比, 空间负载会降低真实场景搜索的成绩, 而客体负载的影响较小;且这两种负载对真实场景中搜索成绩的影响主要表现在搜索目标变化的条件下。这可能是因为: 当搜索目标不变时, 更可能将其表征储存在长时记忆中, 而不占用或很少占用视空工作记忆资源, 搜索画面一出现, 观察者就可以从长时记忆中自动化地提取搜索目标的表征与搜索画面中目标物体的联结, 此时视空工作记忆负载条件下的搜索成绩与无负载条件下的差别不大; 而当搜索目标在试次间不断变化时, 更可能将其表征储存在视空工作记忆中,这将占有一定数量的视空工作记忆(特别是空间工作记忆)资源, 此时工作记忆负载(特别是空间负载)条件下的搜索成绩将明显低于无负载条件下的。这与视空工作记忆负载对传统视觉搜索任务的影响是类似的(Oh & Kim, 2004; Solman et al., 2011;Woodman & Luck, 2004; Woodman et al., 2001)。
然而所不同的是: 本研究发现客体负载对真实场景搜索成绩的影响较小, 究其原因可能是由于真实场景搜索画面比传统视觉搜索画面所包含的信息更为丰富和复杂。近期利用传统视觉搜索任务进行的研究表明, 客体工作记忆在传统视觉搜索任务中的一个主要作用是对先前搜索过的干扰子产生返回抑制, 而且该作用的产生受制于客体工作记忆的容量, 一旦搜索集合大小达到客体工作记忆的容量后, 客体工作记忆的负载对搜索成绩的影响就很小了(Emrich, Al-Aidroos, Pratt, & Ferber, 2010)。经典研究发现, 客体工作记忆的容量约为4个项目(如, Luck & Vogel, 1997), 而这个数量与真实场景中物体的数量相比是微乎其微的, 因此, 不管之前是否有客体工作记忆负载, 个体在真实场景中搜索一段时间后, 由于返回抑制的原因, 客体工作记忆便处于满载状态, 这使得个体在后续搜索过程中的返回抑制能力减弱, 表现为有无客体工作记忆负载对真实场景搜索的成绩没有多少影响。
基于眼动技术对搜索过程(图3)进行更为细致的分析发现, 视空工作记忆负载对搜索过程的影响主要体现在扫描阶段和确认阶段上。具体来说: 在扫描阶段, 视空工作记忆负载均会增加扫描阶段的注视点数, 且客体负载对扫描阶段持续时间的影响与目标模板的具体化程度有关, 仅出现在图片提示搜索目标的条件中。在确认阶段, 仅空间负载会影响确认阶段的持续时间, 且与目标模板的具体化程度有关, 与图片提示搜索目标的条件相比, 文字提示条件下空间负载对确认阶段持续时间的影响更大。由此可见, 客体负载对搜索过程的影响较短暂,仅影响搜索过程的扫描阶段; 而空间负载对搜索过程的影响更长久, 既影响搜索过程的扫描阶段, 也影响对物体目标的确认阶段; 视空工作记忆负载对搜索过程的影响均会受到目标模板具体化程度的影响。这些结果与前面提及的返回抑制的解释也是一致的。
此外, 本研究还发现了调节变量之间的交互作用。试次间搜索目标是否变化对搜索成绩的影响与目标模板具体化程度有关, 这不仅表现在搜索的总体成绩上(反应时和/或正确率), 而且也表现在扫描阶段的持续时间、注视点数和确认阶段的持续时间等眼动指标上。当搜索目标不变时, 不同提示条件之间的差异不明显; 而当搜索目标变化时, 图片提示较文字提示表现出一定的优势, 这与前人有关真实场景搜索研究的部分结果也是一致的(如: Bravo& Farid, 2009, 2012; Castelhano & Heaven, 2010;Malcolm & Henderson, 2009, 2010; Schmidt &Zelinsky, 2009)。这是因为当搜索目标不变时, 目标模板储存在长时记忆中, 观察者可以自动化地提取刺激反应的联结; 而当搜索目标变化时, 目标模板存储在工作记忆中, 采用图片提示时, 不需要对视觉表征形式进行转换即可与搜索场景画面中的目标物体进行匹配, 而采用文字提示时, 则需要将言语表征转换成视觉的形式才能进行匹配, 因此目标模板表征与搜索画面中目标物体的匹配在图片提示条件下更加容易。搜索场景画面的视觉混乱度对搜索成绩的影响也与目标模板的具体化程度有关:随着搜索场景画面视觉混乱度增加, 文字提示形式较图片提示形式的劣势会减弱。这可能是因为, 文字提示条件下, 目标模板的表征需要转换才能与搜索画面中的目标物体进行匹配。当视觉混乱度较低时, 搜索过程较短, 会凸显出这种表征转换的代价;随着视觉混乱度的增加, 搜索过程变得更长, 这种表征转换的代价就变得不那么明显了。
综合搜索效率的两个指标(RT/FC和RT/SE)发现, 与无负载条件相比, 空间负载会降低真实场景的搜索效率, 而客体负载对真实场景的搜索效率影响不大。这与前人利用传统搜索任务进行的有关搜索效率的研究结果是一致的(Oh & Kim, 2004;Solman et al., 2011; Woodman & Luck, 2004;Woodman et al., 2007; Woodman et al., 2001)。此外,本研究还发现了调节变量之间的交互作用。试次间搜索目标是否变化与目标模板的具体化程度之间会交互影响搜索的效率: 当搜索目标不变时, 搜索效率在两种提示搜索目标的条件之间差异不大; 当搜索目标变化时, 图片提示搜索目标的搜索效率高于文字提示的。搜索场景画面混乱度与目标模板的具体化程度也交互影响搜索的效率: 在两种提示搜索目标的情况下, 搜索画面视觉混乱度高的搜索效率均高于搜索画面视觉混乱度低的搜索效率, 而且这种差异在文字提示搜索目标条件下较图片提示条件更明显。这与调节变量对搜索成绩的影响模式是类似的, 究其原因, 同样可用返回抑制和表征转换的代价来进行解释, 此处不再赘述。
需要指出的是, “视觉混乱度高时的搜索效率高于视觉混乱度低时的搜索效率”与预期不一致。我们推测出现该结果的原因有两种可能性: ①可能是由于实验的要求, 本研究中我们要求被试必须在4秒内搜索到场景中的目标物体, 并且做出恰当的按键反应。如果被试未在该时间内做出反应, 程序会自动进入下一刺激画面, 这就使得被试在完成该任务时有一定的时间压力, 进而导致高混乱度条件下被试的搜索反应时相对于无时间限制情况下的搜索反应时而言偏低, 进而导致搜索效率提高; ②可能是由于对视觉高、低混乱度组的场景图片进行搜索时, 被试的注意资源分配存在差异, 当呈现视觉混乱度高的场景图片时, 被试将更多的注意资源分配到搜索任务上, 将较少的注意资源分配给记忆任务; 而当呈现混乱度较低的场景图片时, 被试将采用相反的分配方案。这种注意资源分配的差异将会使得高视觉混乱度条件下的搜索效率高于低视觉混乱度条件下的搜索效率。如果是第一种原因,那么高混乱度条件下在4秒内未按键反应的次数将明显多于低混乱度条件下的次数; 如果第二种原因,那么高混乱度条件下记忆任务的正确率高于低混乱度条件下的正确率。统计分析发现, 在未按键次数方面, 高混乱度条件下被试的未按键次数明显多于低混乱度条件下的未按键次数(p
< 0.001); 而在记忆任务正确率方面, 高混乱度条件下记忆任务的正确率与低混乱度条件下的记忆任务的正确率无显著差异(p
s > 0.10)。由此可见, 该结果似乎不是由于注意资源分配造成的, 而是当前实验的要求所造成的, 未来研究可通过延长搜索时间的上限来对这一解释做进一步的检验。此外, 本研究并未发现试次间搜索目标是否变化对客体工作记忆负载影响真实场景搜索效率的调节作用。这与前人利用传统视觉搜索任务得出的有关搜索效率的研究结果—— 试次间搜索目标是否变化会调节客体工作记忆对搜索效率的影响——有所不同(Woodman et al, 2001; Woodman et al.,2007)。导致这种差异的原因同样可以用前述的真实场景的复杂性和搜索过程中返回抑制能力逐渐减弱来解释, 此处也不再赘述。
综上所述, 本研究有以下两个方面的重要发现。一方面本研究发现视空工作记忆对真实场景搜索绩效的影响与对传统人工刺激搜索绩效的影响有所不同。主要是空间负载对真实场景搜索成绩产生影响, 而客体负载的影响较小。利用视线追踪技术对搜索过程做进一步的细分发现, 空间负载既影响真实场景搜索过程的扫描阶段, 也影响对目标物体的确认阶段; 而客体负载仅影响真实场景搜索过程的扫描阶段。视空工作记忆负载对真实场景搜索成绩的影响会受到目标模板具体化程度的调节。另一方面本研究还发现视空工作记忆对真实场景搜索效率的影响与对传统人工刺激搜索效率的影响也有所不同。仅空间负载影响真实场景的搜索效率,客体负载则没有影响, 而且空间负载的影响会受到真实场景搜索画面视觉混乱程度的调节。
将来研究还可从以下几个方面进行扩展, 以丰富该领域的研究成果。(1)本研究仅探究了试次间搜索目标是否变化、目标模板的具体化程度和搜索画面的视觉混乱度对“视空工作记忆影响真实场景搜索绩效”的调节作用, 将来的研究还可探查场景情境的重要作用。(2)前人在衡量视觉混乱度是采用FC、SE和边界密度(edge density, ED) 3个指标, 本研究中只采用了前两个指标, 使得研究的结果有一定的局限性, 将来的研究可同时采用3个指标对本研究的结果进行再次检验。(3)本研究仅考察了视空工作记忆负载对真实场景搜索绩效的影响; 将来的研究可以考察执行工作记忆负载对真实场景搜索绩效的影响。此外, 工作记忆容量对传统搜索影响的研究发现, 个体的工作记忆容量越高, 搜索效率越高(Anderson et al., 2013; Poole & Kane,2009; Sobel, Gerrie, Poole, & Kane, 2007), 那么该结论是否也适用于真实场景搜索同样也需要进一步的验证。
视空工作记忆负载对真实场景搜索任务绩效的影响不同于对传统视觉搜索任务绩效的影响, 主要表现在以下两个方面:
(1)空间负载对真实场景搜索成绩的影响较大,既影响搜索过程的扫描阶段, 也影响对目标物体的确认阶段; 而客体负载的影响较小, 仅影响搜索过程的扫描阶段; 视空工作记忆负载对真实场景搜索成绩的影响均受到目标模板具体化程度的调节。
(2)空间负载会降低真实场景搜索的效率, 而客体负载则不会, 且空间负载的影响会受到真实场景搜索画面视觉混乱度的调节。
致谢:感谢审稿专家对本文提出的宝贵意见。感谢中央财经大学汪波博士对本文英文摘要的细致修改。
Anderson, D. E., Vogel, E. K., & Awh, E. (2013). A common discrete resource for visual working memory and visual search.Psychological Science,24
(6), 929–938.Baddeley, A. (2003). Working memory: Looking back and looking forward.Nature Reviews Neuroscience,4
(10),829–839.Baddeley, A. (2012). Working memory: Theories, models, and controversies. In S. T. Fiske, D. L. Schacter, & S. E. Taylor(Eds.),Annual Review of Psychology
(Vol. 63, pp. 1–29).Palo Alto, CA: Annual Reviews.Bravo, M. J., & Farid, H. (2009). The specificity of the search template.Journal of Vision, 9
(1), 34, doi:10.1167/9.1.34Bravo, M. J., & Farid, H. (2012). Task demands determine the specificity of the search template.Attention, Perception, &Psychophysics, 74
(1), 124–131.Brockmole, J. R., Castelhano, M. S., & Henderson, J. M.(2006). Contextual cueing in naturalistic scenes: Global and local contexts.Journal of Experimental Psychology:Learning, Memory, and Cognition, 32
(4), 699–706.Castelhano, M. S., & Henderson, J. M. (2007). Initial scene representations facilitate eye movement guidance in visual search.Journal of Experimental Psychology: Human Perception and Performance,33
(4), 753–763.Castelhano, M. S., & Heaven, C. (2010). The relative contribution of scene context and target features to visual search in scenes.Attention, Perception, & Psychophysics,72
(5), 1283–1297.Castelhano, M. S., Pollatsek, A., & Cave, K. R. (2008).Typicality aids search for an unspecified target, but only in identification and not in attentional guidance.Psychonomic Bulletin & Review, 15
(4), 795–801.Droll, J., & Eckstein, M. (2008). Expected object position of two hundred fifty observers predicts first fixations of seventy seven separate observers during search.Journal of Vision,8
(6), 320, doi:10.1167/8.6.320Eckstein, M. P. (2011). Visual search: A retrospective.Journal of Vision, 11
(5), 14, doi: 10.1167/11.5.14Ehinger, K. A., Hidalgo-Sotelo, B., Torralba, A., & Oliva, A.(2009). Modelling search for people in 900 scenes: A combined source model of eye guidance.Visual Cognition,17
(6–7), 945–978.Emrich, S. M., Al-Aidroos, N., Pratt, J., & Ferber, S. (2010).Finding memory in search: The effect of visual working memory load on visual search.The Quarterly Journal of Experimental Psychology,63
(8), 1457–1466.Goldman-Rakic, P. S. (1996). Regional and cellular fractionation of working memory.Proceedings of the National Academy of Sciences of the United States of America, 93
, 13473–13480.Henderson, J. M., Chanceaux, M., & Smith, T. J. (2009). The influence of clutter on real-world scene search: Evidence from search efficiency and eye movements.Journal of Vision,9
(1), 32, doi: 10.1167/9.1.32Hollingworth, A. (2012). Guidance of visual search by memory and knowledge. In M. D. Dodd & J. H. Flowers(Eds.),The Influence of Attention, Learning, and Motivation on Visual Search, Nebraska Symposium on Motivation
(pp. 63–89). New York: Springer.Hollingworth, A., Matsukura, M., & Luck, S. J. (2013). Visual working memory modulates rapid eye movements to simple onset targets.Psychological Science,24
(5), 790–796.Horowitz, T. S., & Wolfe, J. M. (1998). Visual search has no memory.Nature,394
(6693), 575–577.Hout, M. C., & Goldinger, S. D. (2010). Learning in repeated visual search.Attention, Perception, & Psychophysics,72
(5), 1267–1282.Hout, M. C., & Goldinger, S. D. (2012). Incidental learning speeds visual search by lowering response thresholds, not by improving efficiency: Evidence from eye movements.Journal of Experimental Psychology: Human Perception and Performance,38
(1), 90–112.Howard, C. J., Pharaon, R. G., Körner, C., Smith, A. D., &Gilchrist, I. D. (2011). Visual search in the real world:Evidence for the formation of distractor representations.Perception,40
, 1143–1153.Klauer, K. C., & Zhao, Z. (2004). Double dissociations in visual and spatial short-term memory.Journal of Experimental Psychology: General,133
(3), 355–381.Kristjánsson, Á. (2000). In search of remembrance: Evidence for memory in visual search.Psychological Science, 11
(4),328–332.Kristjánsson, Á., & Campana, G. (2010). Where perception meets memory: A review of repetition priming in visual search tasks.Attention, Perception, & Psychophysics, 72
(1),5–18.Luck, S. J., & Vogel, E. K. (1997). The capacity of visual working memory for features and conjunctions.Nature,390
(6657), 279–281.Malcolm, G. L., & Henderson, J. M. (2009). The effects of target template specificity on visual search in real-world scenes: Evidence from eye movements.Journal of Vision,9
(11), 8, doi:10.1167/9.11.8Malcolm, G. L., & Henderson, J. M. (2010). Combining top-down processes to guide eye movements during real world scene search.Journal of Vision, 10
(2), 4, doi:10.1167/10.2.4Nakayama, K., & Martini, P. (2011). Situating visual search.Vision Research, 51
(13), 1526–1537.Neider, M. B., & Zelinsky, G. J. (2006). Scene context guides eye movements during visual search.Vision Research,46
(5), 614–621.Neider, M. B., & Zelinsky, G. J. (2010). Exploring the perceptual causes of search set-size effects in complex scenes.Perception,39
(6), 780–794.Neider, M. B., & Zelinsky, G. J. (2011). Cutting through the clutter: Searching for targets in evolving complex scenes.Journal of Vision,11
(14), 7, doi: 10.1167/11.14.7Oh, S. H., & Kim, M. S. (2004). The role of spatial working memory in visual search efficiency.Psychonomic Bulletin& Review,11
(2), 275–281.Poole, B. J., & Kane, M. J. (2009). Working-memory capacity predicts the executive control of visual search among distractors: The influences of sustained and selective attention.The Quarterly Journal of Experimental Psychology,62
, 1430–1454.Reeder, R. R., & Peelen, M. V. (2013). The contents of the search template for category-level search in natural scenes.Journal of Vision, 13
(3), 13, doi: 10.1167/13.3.13Rosenholtz, R., Li, Y., & Nakano, L. (2007). Measuring visual clutter.Journal of Vision,7
(2), 17, doi: 10.1167/7.2.17Rossi, A. F., Bichot, N. P., Desimone, R., & Ungerleider, L. G.(2001). Top-down, but not bottom-up: Deficits in target selection in monkeys with prefrontal lesions.Journal of Vision,1
(3), 18, doi: 10.1167/1.3.18Rossi, A. F., Bichot, N. P., Desimone, R., & Ungerleider, L. G.(2007). Top down attentional deficits in macaques with lesions of lateral prefrontal cortex.Journal of Neuroscience,27
(42), 11306–11314.Schmidt, J., & Zelinsky, G. J. (2009). Search guidance is proportional to the categorical specificity of a target cue.The Quarterly Journal of Experimental Psychology, 62
(10),1904–1914.Sobel, K. V., Gerrie, M. P., Poole, B. J., & Kane, M. J. (2007).Individual differences in working memory capacity and visual search: The roles of top-down and bottom-up processing.Psychonomic Bulletin & Review,14
, 840–845.Solman, G. J., & Smilek, D. (2010). Item-specific location memory in visual search.Vision Research,50
(23),2430–2438.Solman, G. J. F., Cheyne, J. A., & Smilek, D. (2011). Memory load affects visual search processes without influencing search efficiency.Vision Research, 51
(10), 1185–1191.Soto, D., & Humphreys, G. W. (2007). Automatic guidance of visual attention from verbal working memory.Journal of Experimental Psychology: Human Perception and
Performance, 33
(3), 730–737.Treisman, A. M., & Gelade, G. (1980). A feature-integration theory of attention.Cognitive Psychology,12
(1), 97–136.Võ, M. L. H., & Henderson, J. M. (2010). The time course of initial scene processing for eye movement guidance in natural scene search.Journal of Vision,10
(3), 14, doi:10.1167/10.3.14Võ, M. L. H., & Wolfe, J. M. (2012). When does repeated search in scenes involve memory? Looking at versus for objects in scenes.Journal of Experimental Psychology:Human Perception and Performance, 38
(1), 23–41.Võ, M. L. H., & Wolfe, J. M. (2013). The interplay of episodic and semantic memory in guiding repeated search in scenes.Cognition, 126
(2), 198−212.Wolfe, J. M., Alvarez, G. A., Rosenholtz, R., Kuzmova, Y. I.,& Sherman, A. M. (2011). Visual search for arbitrary objects in real scenes.Attention, Perception, &Psychophysics,73
(6), 1650–1671.Wolfe, J. M., Horowitz, T. S., Kenner, N., Hyle, M., & Vasan,N. (2004). How fast can you change your mind? The speed of top–down guidance in visual search.Vision Research, 44
,1411–1426.Wolfe, J. M., Võ, M. L. H., Evans, K. K., & Greene, M. R.(2011). Visual search in scenes involves selective and nonselective pathways.Trends in Cognitive Sciences, 15
(2),77–84.Woodman, G. F., & Luck, S. J. (2004). Visual search is slowed when visuospatial working memory is occupied.Psychonomic Bulletin & Review, 11
(2), 269–274.Woodman, G. F., & Luck, S. J. (2010). Why is information displaced from visual working memory during visual search?Visual Cognition,18
(2), 275–295.Woodman, G. F., Luck, S. J., & Schall, J. D. (2007). The role of working memory representations in the control of attention.Cerebral Cortex, 17
(S1), i118–i124.Woodman, G. F., Vogel, E. K., & Luck, S. J. (2001). Visual search remains efficient when visual working memory is full.Psychological Science,12
(3), 219–224.Yang, H., & Zelinsky, G. J. (2009). Visual search is guided to categorically-defined targets.Vision Research,49
(16),2095–2103.Zhang, Y., & Zhang, M. (2011). Spatial working memory load impairs manual but not saccadic inhibition of return.Vision Research,51
(1), 147–153.附录
附表1a 无记忆负载-搜索目标不变条件下搜索绩效和眼动数据统计表
附表1b 无记忆负载-搜索目标改变条件下搜索绩效和眼动数据统计表
附表1c 客体记忆负载-搜索目标不变条件下搜索绩效和眼动数据统计表
附表1d 客体记忆负载-搜索目标改变条件下搜索绩效和眼动数据统计表
附表1e 空间记忆负载-搜索目标不变条件下搜索绩效和眼动数据统计表
附表1f 空间记忆负载-搜索目标改变条件下搜索绩效和眼动数据统计表