葛列众 孙梦丹 王琦君
(浙江理工大学心理系, 杭州 310018)
随着科技水平的不断提高, 人机系统功能日益复杂, 呈现给用户的信息也越来越多, 其中视觉信息占绝大多数, 因此, 解决视觉信息的有效呈现是目前工程心理学研究的核心问题。
为了解决人机界面视觉信息的有效呈现问题,以往的研究者提出了突显技术(Wickens, Ambinder,Alexander, & Martens, 2004; McDougald & Wogalter,2013)、有效布局呈现技术(Altaboli & Lin, 2012)、焦点背景技术(Utting & Yankelovich, 1989; 葛列众,魏欢, 郑燕, 2012)、可视化技术(Fabrikant, Montello,& Mark, 2010)等。这些视觉信息显示的技术可以在一定程度上提高作业绩效。但是这些技术大都是一种静态的信息显示方式, 即界面的显示方式决定于界面初始的设计, 不会根据用户实际的个体差异和交互特性进行相应的即时性变化以满足用户的操作需要, 也无法满足操作者对复杂显示信息进行高效操作的要求。针对这些问题, 近年来人机界面的研究开始考察了一种新的信息显示方式, 即显示界面能根据用户的即时输入或者用户的操作规律和特点改变初始设置的显示内容或方式, 从而满足操作者对复杂信息进行高效操作的要求。本综述将这种在人机交互过程中, 界面能够改变显示内容或者显示方式的信息显示技术统称之为“交互显示” (interactive display)。
交互显示不同于传统的显示方式, 是一种以“人”为中心的新的显示技术, 研究交互显示的特点和规律, 不仅能让我们更加了解显示方式如何影响用户对视觉信息的感知和认知加工能力, 也可以为未来视觉显示界面的设计提供科学的依据。
在这篇综述中, 我们将主要介绍近年来交互显示方面的一些相关研究, 分析交互显示的主要特点, 同时期望能够帮助相关领域的研究者了解交互显示方面的研究, 并最终起到推动这方面研究的作用。
根据界面的显示变化由用户当前的简单操作直接决定或是由系统基于用户多次操作的规律特点得出的算法判断后决定, 我们将交互显示技术分为简单交互显示技术和智能交互显示技术两个大类。在人机交互过程中, 这两种技术都可以改变界面初始设置的显示内容和显示方式以满足用户高效操作的要求, 但是对于简单交互显示技术来说, 这种改变是由用户当前的简单输入操作决定的, 比如, 当用户用鼠标点击特定视觉目标时,计算机系统软件即认为用户当前选择了该目标,因而扩大该视觉目标的显示区域, 而智能交互显示技术对界面的改变是由计算机系统软件设置的特定算法决定的。这种算法是根据用户以往多次操作的规律和特点建立起来的, 例如, 当用户使用鼠标选择某一视觉目标时, 随着光标与视觉目标的距离逐渐缩小, 光标的移动速度和加速度就会由大到小变化。根据这个规律, 研究者可以归纳出用户选择视觉目标时光标移动的规律, 并建立算法。使用智能交互技术时, 当用户使用鼠标靠近特定视觉目标时, 已有的算法就会根据光标的移动方向、移动速度等实时数据判定用户选择了哪个特定目标, 并通过特定的视觉显示技术(如扩大视觉目标对象的显示区域)来适应用户的操作。
简单交互显示技术最典型的代表是Furnas于1981年首次提出的鱼眼技术(Furnas, 1981)。通常,鱼眼技术是一种能同时呈现焦点(focus)区域和背景(context)区域的显示技术。在该视图下, 焦点区域的信息更加详细, 显示尺寸更大, 而背景区域的信息则被压缩显示。系统可根据用户的光标当前位置或点击操作切换焦点和背景区域, 以满足用户变化的需求。
自Furnas之后, 关于鱼眼技术的研究主要集中在阅读和菜单领域中。Hornbæk和Frøkjær (2003)比较了用户在线性、鱼眼和整体细节(overview+detail)这三种显示界面下的阅读绩效。线性界面中,文章的文字尺寸不管其重要性都保持同样的大小。在鱼眼界面下, 文章中重要部分(如段首、小节标题)的文字尺寸与线性界面中相同, 且始终保持不变, 而其他部分的文字在一开始被缩小至用户无法阅读的尺寸, 但用户可在阅读过程中根据自己的需求改变其大小(当用户点击文档的某一部分时, 该部分内容的显示尺寸变大; 再次点击则缩小至初始水平); 整体细节界面结合了线性界面和鱼眼界面的特点, 它分为整体和细节两个窗口, 细节窗口的显示内容和方式与线性界面一致,而整体窗口用来显示缩小版的文章。用户在细节窗口阅读文章的同时, 整体窗口会出现一个矩形框, 标注用户当前阅读的内容在整个文档中所处的位置。在阅读过程中, 用户一旦在整体窗口中用鼠标移动矩形框确定具体的阅读内容后, 细节窗口就会把该内容显示出来。研究者们的实验结果发现, 相比于其他两种界面, 被试在鱼眼界面下的阅读速度快了大约 16%, 但是在阅读之后答对的问题数量更少。整体细节界面在偏好性和满意度评价中均显著优于另两种界面。
与 Hornbæk 和 Frøkjær (2003)的研究不同,Baudisch, Lee和Hanna (2004)将鱼眼技术和整体细节技术应用于网页的浏览, 并采用特定任务来比较线性网页、鱼眼网页和整体细节网页的可用性。三种界面的显示方式与 Hornbæk和 Frøkjær(2003)研究中的设置基本一致, 不同的是在鱼眼网页中, 内容显示尺寸根据光标的移动而即时改变, 而不要求用户进行点击操作。研究者发现, 被试在不同界面下完成任务的时间受到任务要求的影响, 但综合来说, 相较于使用另两种网页, 被试在鱼眼网页下完成任务更快; 而在错误率指标上, 被试在整体细节界面下的错误率最低, 而鱼眼界面的错误率最高。在偏好性评价中, 大多数被试偏好于整体细节界面。
Hornbæk和 Frøkjær (2003)的研究以及 Baudisch等(2004)的研究都表明, 鱼眼界面能提高被试的任务操作速度, 而整体细节界面更有利于被试进行深度加工。但有趣的是, 在主观报告中, 被试对于鱼眼网页的偏好性趋于两极化。有被试认为,鱼眼能使整个网页都显示在同一视野中, 有助于对其的整体加工; 但也有被试表示, 当滑动鼠标来改变焦点区域时很容易找不到当前正在阅读的位置。也有研究证实了这种鱼眼视图存在焦点定位问题, 即当用户在重新定位焦点区域时, 其光标经过区域的显示内容的大小不断改变会导致用户错过目标位置, 并为解决该问题改进了鱼眼技术的算法(Song, Fu, Zhang, & Zhang, 2013)。
鱼眼技术除了在阅读相关设计领域的应用,也有一些研究集中考察了鱼眼菜单的有效性。2000年, Bederson制作了鱼眼菜单(Bederson, 2000)。在该菜单中, 焦点区域内的菜单项目以较大尺寸显示, 而越远离焦点区域的菜单项目, 尺寸越小。用户可上下移动光标位置来改变菜单项目的显示大小。研究结果表明, 被试对于鱼眼菜单的满意度受到任务类型的影响。在目标定位任务中, 层级菜单的满意度略优于鱼眼菜单; 而在浏览任务中,鱼眼菜单是最受被试喜欢的。2007年, Hornbæk和 Hertzum还利用眼动仪, 比较了被试在使用鱼眼菜单和传统的线性菜单时的眼动数据(Hornbæk& Hertzum, 2007)。结果表明, 相比于鱼眼菜单,被试在线性菜单下的注视时间更短, 扫描路径也更短。这一结果说明, 线性菜单的操作对被试的视觉搜索的要求更低。这些国外研究者从用户满意度和眼动指标对鱼眼菜单进行了研究, 结果说明了鱼眼菜单具有一定的优越性。国内的研究者也对鱼眼菜单做了研究。张丽霞, 梁华坤, 傅熠,宋鸿陟(2011)的研究将 Bederson的鱼眼菜单进行了简化和修改, 并且探究了在确定性任务和浏览型任务条件下, 鱼眼、线性和层级等不同菜单结构对被试目标选择操作时间的影响。在确定型任务下, 被试需要找到某个特定的菜单项, 而浏览型任务是让被试在某个范围内自由选择, 如“请在银行类网站中选择一个你喜欢或熟悉的网站”。结果表明, 用户操作鱼眼菜单的正确率总体较差,操作层级菜单的任务用时少于另两种菜单结构;另外, 用户操作鱼眼菜单浏览型任务中的完成时间也少于确定型任务。研究者指出, 鱼眼菜单存在着定位困难问题。宋鸿陟、李安、傅熠和张丽霞(2011)的研究也提出了同样的问题。针对该问题,张丽霞等人(2011)对鱼眼菜单做出了改进, 提出“粘滞式鱼眼菜单”的设计。在粘滞式菜单下, 程序会在用户选择目标菜单项的时候自动进入焦点锁定模式, 从而帮助用户进行目标定位和选择。
除了菜单和阅读方面的应用外, 鱼眼技术还有一些其它的应用, 例如, 1993年 Robertson和Mackinlay提出了基于鱼眼技术的三维显示技术——文档镜头(document lens)技术(Robertson &Mackinlay, 1993)。使用该技术, 用户可以通过鼠标来控制矩形镜头在X轴和Y轴上的运动, 通过键盘控制镜头在Z轴上的运动。该技术实现的显示界面就像是被截去了顶端的金字塔, 焦点区域(矩形镜头内部)的文字被放大, 背景区域的文字被适量地压缩, 但整个文档在界面中都是可见的。相比于二维平面的交互显示技术, 文档镜头技术能更大程度地实现在单个界面中呈现大量文本,同时又保证了不丢失焦点和背景信息。到了 2011年, Jo, Hwang, Park和Ryu还提出了一种基于鱼眼技术的可用于三维显示的周边地图(Aroundplot)技术(Jo, Hwang, Park, & Ryu, 2011)。使用该技术, 图片上背景信息的显示尺寸可以随着用户视图的移动自动放大。但是, 研究者对这些基于鱼眼技术的三维显示技术没有进行相关的实证性研究来考察其可用性, 因此其特点和规律还有待进一步研究。
上述的研究均在 PC端显示界面中展开并以鼠标和键盘为输入方式, 除此之外, 鱼眼技术也被应用于移动电子设备, 如掌上电脑和手机。由于移动电子设备的屏幕空间有限, 鱼眼技术具有更大的发挥空间, 以实现信息的有效呈现。Bederson,Clamage, Czerwinski和Robertson (2004) 在基于触笔的掌上电脑中, 将鱼眼镜头与移动终端的日历应用程序结合, 提出了日历镜头(DateLens)交互技术(图1)。在初始状态, 该日历应用显示较长一段时间内(如, 一个月)用户的日程概况, 每天具有相等大小的显示区域(矩形) (见图1(a))。当用户想要详细查看某一天的日程安排, 则使用触笔点击该天所在区域, 该区域面积扩大, 以列表方式详细显示该天的活动, 而其他区域则被压缩(见图1(b))。研究者将日历镜头和微软掌上电脑 2002的日历进行可用性比较, 结果发现, 在复杂任务下, 日历镜头表现出更大的优势(任务完成时间更短)。
日历镜头技术不仅能改变显示尺寸, 而且在交互过程中改变了显示内容, 因此相比于一般的鱼眼技术, 其智能性有了一定的提高。Ohnishi,Arase, Hara, Uemukai和Nishio (2009)也提出了一种基于手机姿态输入的交互显示技术:相邻预览功能(Adjacent-preview Function) (图2)。该功能根据用户的姿态输入实时改变显示内容。如图2所示, 手机屏幕当前显示的内容为 A0, 若用户向左转动手机, 屏幕的显示内容则会由A0变化为A2;若用户向右转动手机, 屏幕的显示内容则会由A0变化为A4。虽然研究者并未发现用户对该功能的偏好性, 但由于其自然交互的特点, 该功能具有很大的发展潜力。
综上所述, 鱼眼技术主要应用于阅读和菜单界面的改善。另外, 基于鱼眼技术的三维显示的文档镜头和周边地图技术虽然已有应用, 但是缺乏实证的研究。目前的人机界面的研究, 证明了这些简单交互显示技术在一定程度上能够较好地改善用户界面操作的体验(如, Bederson等人(2004)的研究), 但是也有研究表明, 简单交互显示方式并没有明显优于传统的显示方式(如, 在张丽霞等人(2011)的研究), 因此有必要在控制实验变量的基础上, 对简单交互显示方式的操作绩效和特点进行进一步的研究。
图1 日历镜头 a. 初始界面; b. 触笔点击某一日期后的显示界面
图2 相邻预览功能:显示内容随手机姿态的变化而改变
相比简单的交互显示技术, 智能交互显示技术更为复杂和智能。这种技术要求系统基于以往的用户操作行为的特点和规律构建相应的算法,并在具体的人机交互过程中, 根据算法对用户的操作行为判断, 然后改变显示界面的初始内容或形式, 以适应用户的当前操作。
智能交互技术典型的例子包括速率耦合平滑(speed-coupled flattening)技术(Gutwin, 2002), 目标气泡(bubble targets)技术(Cockburn & Firth, 2004)、威力镜头(Power-Lens)技术(Rooney & Ruddle, 2012)以及自适应显示技术(Mäntyjärvi & Seppänen, 2002;郑璐, 2011; 陈肖雅, 2012)。
速率耦合平滑技术是2002年Gutwin基于鱼眼技术提出的一种用来解决鱼眼设计中目标定位困难问题的显示技术(Gutwin, 2002)。该技术可以根据用户移动光标的速度和加速度动态地减小焦点和背景区域的显示尺寸的比值。当光标移动的速度和加速度较大时, 系统算法判断用户的操作处于目标定位的早期阶段, 因而焦点区域和背景区域显示尺寸的比值较小; 当光标速度小于某一阈限值时(或是光标停止时), 系统算法判断用户的操作已接近完成或者已经完成目标定位, 焦点区域和背景区域显示尺寸的比值逐步扩大(或者达到最大)。研究者比较了传统的鱼眼技术和速率耦合平滑技术在指点操作的绩效。实验结果证明,速率耦合平滑技术能显著地减少鼠标定位时间和定位错误率。Appert, Chapuis和Pietriga (2010)的研究也证明了速率耦合平滑技术的有效性。
2002年, McGuffin和Balakrishnan探究了一种可应用于目标选择任务(target selection task)中的目标放大技术(McGuffin & Balakrishnan, 2002)。使用该技术时, 当光标接近目标时, 该目标的面积会自动增大来促进用户的选择该目标的绩效。但是该技术存在一个较大的问题, 它只针对了单个目标的选择情况, 而在实际应用中, 显示界面往往存在多个目标。因此如何确立判断用户行为的算法, 使该交互显示技术在更真实的界面中发挥效果是一个值得探讨的问题。2004年, Cockburn和Firth对McGuffin等人的放大技术做了改进, 提出了目标气泡显示技术(Cockburn & Firth, 2004)。与放大交互显示技术不同的是, 当光标靠近视觉目标时, 视觉目标本身的显示尺寸不变, 但是该视觉目标的实际有效点击区域会发生变化(呈气泡状)。只要操作者的光标落在该有效点击区并进行点击操作, 目标都会被激活。当光标接近视觉目标时, 何时增大有效点击区是由计算机算法控制的。在不同任务的条件下, 研究者对目标气泡技术下被试的操作绩效进行了研究。研究结果显示, 目标气泡技术下被试的操作绩效优于传统方法, 而且被试对该技术的满意度评价很高。2005年, Parker, Mandryk, Nunes和Inkpen也探究了目标放大技术对用户目标选择绩效的影响, 但研究者采用了一种不同于鼠标的新型输入设备, 即牵引光束装置(TractorBeam) (Parker, Mandryk, Nunes,& Inkpen, 2005)。牵引光束是一种基于激光触笔的新型输入技术, 当触笔指向屏幕某处时, 屏幕出现相应的光标, 用户移动触笔直至光标覆盖位置,然后点击触笔上的按钮确认。在该研究的目标放大技术中, 当光标移动了与目标的原始距离的90%时, 目标开始放大, 直至用户选中目标; 移出该区域时则缩小至原来的尺寸。研究结果显示,用户在使用目标放大技术时完成任务的时间更短且错误率更低。
除了在传统显示界面的应用, 研究者还将目标放大技术扩展至其他显示界面, 例如威力墙。威力镜头是一种应用于威力墙(power wall)的交互显示放大技术(Rooney & Ruddle, 2012)。威力镜头是一种矩形的半透明镜头, 它的激活与否依赖于事先设定的算法。当用户准备选择某一个目标时,其操作的光标会向该目标移动, 且移动速度逐渐减小, 通过对用户以往的操作行为的研究可计算得出速度阈值, 当光标移动的速度低于某一阈值时, 威力镜头会由计算机算法自动激活, 矩形镜头覆盖区域的显示尺寸均被放大。然后用户就可以在该区域内进一步移动光标并定位目标(图3)。当用户将光标移出威力镜头覆盖区域时, 威力镜头则会消失。研究的结果表明, 在有限空间内, 该技术可以有效地提高用户与界面的交互效率。
上文介绍的交互显示技术要求系统确立规则对用户的行为作出判断, 但是这些判断算法所考虑的因素较为单一, 例如目标放大技术仅利用对光标和目标的距离这个单一因素就决定目标的面积大小。2002 年, Mäntyjärvi和 Seppänen 介绍了一种更为复杂的可适应环境的手机应用程序(Mäntyjärvi & Seppänen, 2002)。该程序利用传感器接收环境信息(噪音、照明), 判断用户当前的活动(移动、走路、跑步)来调节显示界面的亮度、字体大小以及手机铃声的音量。例如, 当程序判断用户当前的活动强度很小且环境亮度很高时, 则会调小字体的显示尺寸, 并调低界面的亮度。研究者将该程序应用于一个真实的场景, 并采集了真实情景的数据来评估程序的实用性。研究发现,该程序能捕捉并使用环境信息判断用户的行为并在显示界面上做出适应性变化, 例如, 当用户在公车上时, 程序判断用户的活动强度很小, 因此将屏幕字体以最小尺寸显示。
图3 威力镜头:
2011年起, 浙江理工大学心理系开展了一些自适应的交互显示研究, 郑璐等人的研究提出了一种自适应的手机通讯录(郑璐, 2011)。该通讯录界面会随着联系人的拨打频率而改变, 按照拨打电话的频率高低从通讯录的顶端依次向底端排列。实验研究结果表明, 相比于固定界面, 被试在自适应界面下的任务绩效较高。陈肖雅(2012)的研究设计了一种自适应软键盘。该键盘采用了自适应算法, 在被试输入汉字过程中可以根据被试输入的绩效, 不断改变键盘的大小以保证被试能够进行高效输入。实验结果显示, 这种自适应软件盘与固定大小软键盘相比, 被试的绩效较高。
目前, 大多数研究都表明, 智能交互显示技术能提高用户的任务操作绩效, 例如McGuffin和Balakrishnan (2002)的研究表明, 动态放大目标的技术能减少用户选择目标的时间; Rooney和Ruddle (2012)的研究表明, 威力镜头技术能提高用户在移动和调整窗口任务中的操作效率, 而且用户的满意度也较高。
以上文中主要介绍了简单和智能这两类交互显示技术的相关研究, 这些技术具有动态性、即时性和智能性等三个明显的特点。
动态性指的是界面的显示内容或形式会随着计算机和用户的不断交互而发生变化, 以适应用户的操作要求。例如, 在 Bederson (2000)的鱼眼菜单中, 菜单项目的显示大小会从一种尺寸变化至另一种尺寸。
即时性指的是交互显示中, 计算机界面的显示方式和内容随着用户和计算机交互的过程而发生的动态变化是实时进行的。例如, 郑璐的研究(2011)中, 自适应通讯录中, 联系人的排列顺序会随着用户打电话的实际情况而不断发生变化。在一定程度上, 可以说, 即时性是交互显示动态特征的一种补充。
交互显示的第三个特点是智能性, 即智能交互显示技术能够根据特定的算法对用户的操作进行准确判断, 并合理的改变界面的显示内容和方式。例如, Mäntyjärvi等人的手机自适应显示系统(Mäntyjärvi & Seppänen, 2002)。
基于上述这三个特点, 交互显示技术不仅能实现大量信息在有限空间的显示, 而且能根据用户的操作特征改变显示状态和显示内容, 为用户提供一种更加灵活、直观可控的交互方式, 提高阅读、搜索等任务的操作绩效。有不少的研究已经证明了这一点。
但是现有的交互技术还存在以下问题:
首先, 交互显示技术对应于用户操作的界面改变多数是在显示方式上的改变, 例如目标气泡改变的是视觉目标的有效点击区域(Cockburn &Firt, 2004)。目前的文献中, 只有很少有改变显示内容的, 除了Bederson等人(2004)的DateLens交互技术。该技术可以根据用户对确定日期的操作,显示比原有的显示信息更详细的日期信息。此外,还有一些相关的点击增强技术中, 也有类似的交互显示案例。例如, Baudisch等人(2003)提出的拖拉弹出技术(drag-and-pop)。当用户在大屏幕上移动某一个文件图标时, 该技术可以将根据当前文件的性质判断出与其相关的应用程序, 并在指点设备所在区域附近显示相关程序的图标副本。用户只需将文件移动到某个程序图标副本位置上,即可完成使用该程序打开文件的操作。这种技术大大缩短了用户移动指点设备到目标的距离, 提高了用户获取目标的操作绩效。在这个研究中,重点虽然是这种拖弹的技术, 但是在操作过程中,界面显示的内容随着用户的交互操作发生了变化,即在移动特定文件的同时, 界面增加显示了与该特定文件相关的程序的图标副本。可见, 改变显示内容是交互显示技术中一个重要的方面。在以后的交互显示技术研究中, 需要重视开展对应用户操作的界面内容改变方面的研究。
交互显示技术的第二个问题是目前这种技术的交互方式多数是鼠标和键盘。使用这些交互方式很可能会增加用户的负荷, 影响交互显示的效果。因此选择使用一些更自然的交互方式也许是一种更好的选择。例如, Smart Bailando系统能追踪用户的眼动视线并据此来调节界面上文字的呈现速率(Öquist, Björk, & Goldstein, 2002), 但研究结果并没有发现该系统能提高用户的阅读理解绩效(Åkervall & Granath, 2002)。因此, 在交互显示中, 需要重视开展诸如眼动视线定位等自然交互方式的特点和规律方面的研究。
交互显示技术的第三个问题是现有研究中,交互显示技术智能性都不高, 所采用的技术大多是简单交互技术, 即使是智能交互技术, 算法也较为简单, 例如, 郑璐等人(2011)的自适应电话通讯录中仅仅是按照用户使用电话的频次分布来变化通讯录中联系人的排列顺序。因此, 有必要加强用户操作模型的研究, 为建立更复杂的算法打下良好的基础。
在未来视觉界面的研究中, 我们认为应该加强交互显示技术的研究, 重视显示内容变化、交互形式的多样性及其高智能性交互技术等方面的研究。我们相信这些研究的成果将大大推动交互显示技术的不断革新, 从而能够更好的解决视觉界面信息呈现的有效性问题。
陈肖雅. (2012). 用于大触摸屏软键盘的大小自适应研究(硕士学位论文). 浙江理工大学, 杭州.
葛列众, 魏欢, 郑燕. (2012). 焦点-背景技术对学习绩效的影响研究.人类工效学, 18(3), 45–48.
宋鸿陟, 李安, 傅熠, 张丽霞. (2011). 鱼眼视图工具条的可用性研究.第七届和谐人机环境联合学术会议 (HHME2011)论文集. 北京.
郑璐. (2011).手机通讯录自适应与自定义的工效学研究(硕士学位论文). 浙江理工大学, 杭州.
张丽霞, 梁华坤, 傅熠, 宋鸿陟. (2011). 鱼眼菜单可用性研究.计算机工程与设计, 32(2), 706–710.
Altaboli, A., & Lin, Y. (2012). Effects of unity of form and symmetry on visual aesthetics of website interface design.Proceedings of the Human Factors and Ergonomics Society Snnual Meeting, 56(1), 728–732.
Åkervall, P., & Granath, R. (2002).Smart Bailando: Eye controlled RSVP on handhelds(Unpublished master’s thesis). Göteborg University, Sweden.
Appert, C., Chapuis, O., & Pietriga, E. (2010).High-precision magnification lenses. Paper presented at the Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, Atlanta, GA.
Baudisch, P., Cutrell, E., Robbins, D., Czerwinski, M., Tandler,P., Bederson, B., & Zierlinger, A. (2003).Drag-and-pop and drag-and-pick: Techniques for accessing remote screen content on touch-and pen-operated systems. Paper presented at Proceedings of INTERACT, Zurich, Switzerland.
Baudisch, P., Lee, B., & Hanna, L. (2004).Fishnet, a fisheye web browser with search term popouts: A comparative evaluation with overview and linear view. Paper presented at Proceedings of the Working Conference on Advanced Visual Interfaces, Bari, Italy.
Bederson, B. B. (2000).Fisheye menus. Paper presented at Proceedings of the 13th Annual ACM Symposium on User Interface Software and Technology, San Diego, CA.
Bederson, B. B., Clamage, A., Czerwinski, M. P., & Robertson,G. G. (2004). DateLens: A fisheye calendar interface for PDAs.ACM Transactions on Computer-Human Interaction(TOCHI), 11(1), 90–119.
Cockburn, A., & Firth, A. (2004). Improving the acquisition of small targets. InPeople and Computers XVII—Designing for Society(pp. 181–196). London: Springer.
Fabrikant, S. I., Montello, D. R., & Mark, D. M. (2010). The natural landscape metaphor in information visualization:The role of commonsense geomorphology.Journal of the American Society for Information Science and Technology,61(2), 253–270.
Furnas, G. W. (1981). The FISHEYE view: A new look at structured files. InReadings in information visualization:using vision to think(pp. 312–330). San Diego, CA:ACADEMIC Press.
Gutwin, C. (2002).Improving focus targeting in interactive fisheye views. Paper presented at Proceedings of the SIGCHI Conference on Human Factors in Computing Systems,Minneapolis, Minnesota.
Hornbæk, K., & Frøkjær, E. (2003). Reading patterns and usability in visualizations of electronic documents.ACM Transactions on Computer-Human Interaction (TOCHI),10(2), 119–149.
Hornbæk, K., & Hertzum, M. (2007). Untangling the usability of fisheye menus.ACM Transactions on Computer-Human Interaction (TOCHI), 14(2), doi: 10.1145/1275511.1275512.
Jo, H., Hwang, S., Park, H., & Ryu, J. H. (2011). Aroundplot:Focus+ context interface for off-screen objects in 3D environments.Computers & Graphics, 35(4), 841–853.
Mäntyjärvi, J., & Seppänen, T. (2002).Adapting applications in mobile terminals using fuzzy context information. Paper presented at Human Computer Interaction with Mobile Devices, Pisa, Italy.
McDougald, B. R., & Wogalter, M. S. (2013). Facilitating pictorial comprehension with color highlighting.Applied Ergonomics, 45(5), 1285–1290.
McGuffin, M., & Balakrishnan, R. (2002).Acquisition of expanding targets. Paper presented at Proceedings of the SIGCHI conference on Human factors in computing systems(pp. 57–64). Minneapolis, Minnesota.
Ohnishi, K., Arase, Y., Hara, T., Uemukai, T., & Nishio, S.(2009). Preview functions for web browsing using cellular phones. InInternational Conference on Complex, Intelligent and Software Intensive Systems. (pp. 1070–1075). Fukuoka:IEEE.
Öquist, G., Björk, S., & Goldstein, M. (2002). Utilizing gaze detection to simulate the affordances of paper in the Rapid Serial Visual Presentation format. InHuman Computer Interaction with Mobile Devices(pp. 378–382). Berlin,Heidelberg: Springer.
Parker, J. K., Mandryk, R. L., Nunes, M. N., & Inkpen, K. M.(2005). TractorBeam selection aids: Improving target acquisition for pointing input on tabletop displays. InHuman-Computer Interaction-INTERACT 2005(pp. 80–93).Berlin, Heidelberg: Springer.
Robertson, G. G., & Mackinlay, J. D. (1993). The document lens. InProceedings of the 6th annual ACM symposium on User interface software and technology(pp. 101–108). ACM.
Rooney, C., & Ruddle, R. (2012). Improving window manipulation and content interaction on high-resolution,wall-sized displays.International Journal of Human-Computer Interaction, 28(7), 423–432.
Song, H. Z., Fu, Y., Zhang, L., & Zhang, X. L. (2013). Cursor caging: Enhancing focus targeting in interactive fisheye views.Science China Information Sciences, 56(5), 1–16.
Utting, K., & Yankelovich, N. (1989). Context and orientation in hypermedia networks.ACM Transactions on Information Systems (TOIS), 7(1), 58–84.
Wickens, C. D., Ambinder, M. S., Alexander, A. L., & Martens,M. (2004). The role of highlighting in visual search through maps.Spatial Vision, 17, 373–388.