邹 佩
(华东师范大学学前教育与特殊教育学院 上海 200062)
自闭症是一种在婴幼儿时期显示出的广泛性发展障碍,主要表现为社交障碍、语言沟通障碍及刻板重复性行为这三个方面。其中又以社会交往障碍最为突出,表现为交往过程中与他人视线接触缺乏、不能与他人分享自己的情感等特征。作为社会交往的重要组成部分,自闭症的面部表情识别同样存在异常。[1]正常发育的婴儿在出生时就能注意母亲的面部表情,7个月时可辨别母亲的面部表情变化,1岁婴儿表现出对几种基本面部表情的理解力,且随着年龄的增长根据他人的面部表情进行社会判断和交流的能力也随之提高。[2]然而,自闭症却表现出了这种能力发展的落后。虽然有些自闭症发展出了一些补偿策略,使他们能够识别基本的表情,但却普遍存在复杂表情的识别困难,且这种困难直至成年期仍无法改善。[3]
许多研究者对自闭症的面部表情识别缺陷提出不同的理论试图解释。有研究者将其总结归纳为三大理论:一是弱中央统合理论,即认为自闭症在对复杂刺激进行认知时倾向于将其理解为相互分离的部分,而难以整合成有意义的整体,如自闭症过度关注嘴部信息;二是心理理论,即认为自闭症无法读取或认知他人的心理状态,在表情识别上具体表现为由对外部情景引发的简单表情识别较好,但难以识别由信念和愿望引发的面部表情;三是移情——系统化理论,该理论从积极的视角解释自闭症的临床症状,将自闭症异于常人的方面视为一种能力而非障碍,并将这种能力运用于自闭症情绪认知干预训练中。[4]以这些理论为基础,国外许多研究者开展了自闭症面部表情识别的干预研究,取得一定的研究成果。而目前国内在这方面的研究还处于起步阶段,但此领域已得到越来越多的研究者的关注,研究成果也将逐渐丰富起来。
鉴于面部表情识别对自闭症社交能力发展的重要性,国外研究者已探索出众多相应的干预方法,可以将其总结归纳为两大类:一是社交技能课程,即将面部表情识别作为社交技能的一部,通过社交技能训练课程,如角色扮演游戏,改善自闭症面部表情识别能力;二是情绪识别干预技术,即设计专门的情绪识别课程或软件改善自闭症面部表情识别能力。在这些训练方法中,面部表情识别多作为其中的一个重要参数,通常这些方法会兼顾其它方面的训练如面孔身份识别、声音情绪的识别及肢体姿势的识别等。
社交技能课程是传统的自闭症群体情绪认知干预方法,它以行为主义理论为基础,设立会话技巧、角色扮演等社会交往课程,有系统有步骤地教学,强调在社会交往的真实情景中教学情绪辨别能力和社交技巧进行。[5]Janine P. Stichter(2010)对27名高功能自闭症和亚斯伯格综合症儿童进行了为期10周的社交技巧训练,该训练利用放学后的时间将学生集中在学校里,以小组的形式开展。课程包括5个单元,每个单元的实施结构为:复习先前学过的技能且通过教导和小组的形式导入新的技能;技能示范;在机构化和自然活动中实践技能;复习新学的技能。每个单元有不同的主题和目标,如第一阶段的主题为“规则”,具体的课程单元目标则包括:识别面部表情;分享观点;承接对话;识别自己和他人的情绪;问题解决。研究结果得出,干预对象正确识别图片人物的情绪状态能力有了很大的改善,并且通过观察他人的眼部判断他人情绪状态的能力也有提高。[6]Marcus L. Thomeer(2012)对35名高功能自闭症儿童进行了为期5周多的社交技能训练,每次训练时长为70分钟,前20分钟的训练内容为社交技能的教导,采用直接教学法、角色扮演等形式进行,教导的内容为间接语言的解释和面部表情的识别。后50分钟的安排为治疗性的合作活动,目的在于实践和强化所学技能。研究结果得出,家长和教师报告、儿童自评满意度,目标技能均有提高。[7]Christopher Lopata(2012)对12名高功能自闭症儿童进行了为期近11个月的训练,每次训练时长为70分钟,前20分钟为社交技能的教导,后50分钟为实践活动,训练内容包括面部和声音情绪的识别、兴趣拓展等,训练的形式有示范模仿、角色扮演、表现反馈等。结果表明,根据家长和教师的报告,儿童在目标技能上的表现均有改善。[8]
研究者还设计了专门的情绪识别干预技术,此类方法绝大多数是以电脑为辅助技术的训练。有些研究者开发内容丰富的情绪识别软件,以电脑为载体进行训练,此种方法实施方便,只需配有电脑,下载安装软件即可对自闭症展开训练。还有一些则研究者从图库中选取真人表情图片、卡通人物表情图片或一些简笔画为材料,通过电脑呈现材料,对自闭症开展表情识别训练。
1.以专门开发的情绪识别系统为基础的干预
(1)心理认知系统(Mind Reading,MR)
心理认知系统是一个以电脑为载体的高度结构化的多媒体交互系统,由Baron-Cohen创建。[9]该系统包括412种情绪和心理状态,分成24个情绪组和6个发展水平(从4岁到成年)。每个情绪组包括6个无声面部表情视屏、6个声音录音和6个情景故事,这样总共有7416(412×18)个情绪单元供学习者使用。这一情绪库包括三个板块:一是情感图书馆,允许学习者随意浏览不同的情绪组、玩面孔游戏、读故事、添加备注及比较不同的情绪状态等;二是学习中心,以更结构化和直接化的方式如课程、小测验和奖励系统来实施情绪识别教学。情绪合成和测验按等级有序排列,从最初的20种基本情绪一直增加至100种。奖励系统包括大量自闭症儿童可能喜欢的物品,当每一个测验问题首次就回答正确时即可获得奖励;三是游戏中心,包括5类教育性游戏,使学习中在玩游戏的同时能学习识别情绪。整个软件适用于不同功能水平的自闭症儿童和成人。[10]
Ofer Golan采用MR系统做了一系列的研究,证明其对自闭症情绪认知的干预有一定的成效,对自闭症面部表情识别和声音情绪识别能力的提高具有较大的帮助,但其缺点在于自闭症通过此系统习得的能力无法泛化到真实的生活环境中。Golan(2006)以22名高功能自闭症和亚斯伯格综合症者为对象,采用MR系统进行了为期10-15周的训练后,干预组与对照组相比面部表情识别和声音情绪识别能力都有显著提高,但这种提高只是短期的,效果难以维持更长的时间。[11]Golan(2007,2008)还以亚斯伯格综合症者和高功能自闭症成人和儿童为对象,以普通成人和儿童为参照,采用MR系统的子项目如声音情绪识别系统和面部表情识别系统评估他们的情绪识别能力,了解他们能力现状,并提出干预建议。[12][13]同样,,Paul G. Lacava(2010)采用MR系统对4名自闭症男孩进行为期7-10周的干预,结果显示,这四名男孩的情绪识别能力和与同伴的社会交往能力都有提高,但干预的泛化效果也不明显。[14]干预的泛化效果不明显应该是这一系统的主要缺陷。
(2)情绪认知DVD—运输者(Transporters)
“运输者”是一部高质量的3D儿童系列动画,由Baron-Cohen受英国教育部委托开发,目的在于提高3-8岁自闭症儿童的情绪识别和理解能力。每集动画持续5分钟,关注某一种关键的情绪或心理状态。整套动画包括15个关键情绪主题:高兴、悲伤、愤怒、害怕、恶心、惊讶、兴奋、疲劳、不友善、友善、抱歉、自豪、嫉妒、戏谑和害羞,选择这些情绪主题的理由是普通儿童在2-7岁时便能识别和理解这些情绪。在这部动画中包含8个角色,全部都为交通工具,都是作为某个小男孩房间里玩具的一部分而存在,设计这样一个可预测的环境的目的在于使其对自闭症儿童更具吸引力。动画中所有的交通工具都带有真人面孔,鼓励自闭症儿童能更多地关注到面孔。另外,DVD中还包括与动画内容相关的可选择的测验,测验包括三类问题:面孔和面孔匹配、面孔和情绪匹配及情景和情绪匹配,当儿童正确回答完问题后即可获得奖励。[15]
Ofer Golan等人对“运输者”DVD在学龄前自闭症儿童的情绪认知干预的作用进行了研究。Ofer Golan(2009)以20名自闭症儿童为被试,进行为期4周的干预,让儿童每天观看DVD,研究结果显示干预组与对照组相比在所有的任务水平上都得到了显著地改善,与普通儿童对照组表现相当,“运输者”能显著地改善自闭症儿童的情绪认知能力,且泛化效果明显。[16]而Beth T.Williams(2012)以55名低功能自闭症儿童为被试,采用“运输者”DVD进行为期4周的干预,所取得的效果却与Ofer Gola 所做的研究不一致,结果显示:干预组与对照组相比在识别愤怒情绪表现上有改善,但在3个月后再次测试,干预组与对照组相比无改善效果,表明“运输者”对低功能自闭症儿童的效果有限。[17]因而,“运输者”适用对象的范围值得商榷。
(3)让我们面对它(Let’s face it,LF)
LFI由7类交互式的电脑游戏组成,旨在改善的目标技能为:面孔身份识别、面部表情的解释、关注眼神。LFI既包括一系列的诊断评估还包括一系列的训练练习。[18]LFI游戏包括3个层次:第一是强化儿童对面孔的关注;第二是识别面孔身份和面部表情;第三是在社交情景中解释面部表情信息。每一类游戏由图片和音乐组合而成,难度逐渐递增,包括至少24个等级。[19]
James W. Tanaka (2010)在LFI的干预研究中,采用LFI技能组系统对儿童进行前测,测量任务包括:一是变化表情和面孔特征要求对面孔进行匹配;二是区别面孔特征化和结构化的改变;三是识别单独呈现和整体呈现的面孔特征;四是在一项新旧识别任务中识别面孔。只有当儿童面孔加工能力严重受损,符合多项测量指标时才有资格作为干预研究的对象。研究者将符合资格的被试随机分成干预组和对照组,干预组接受2-4个月的LFI干预,治疗结束后,再次采用LFI技能组测试两组儿童表现情况。研究最主要的发现是干预组与对照组相比在分析识别嘴部特征和根据眼部信息整体识别面孔的能力有显著改善。这一结果表明短期的LFI干预能改善自闭症儿童的面孔识别能力,作为一项针对自闭症面孔缺陷的干预措施,LFI具有花费少、适应儿童的特定需要及在家庭和学校环境中都适用的优点。[20]但LFI同样具有局限性,它仅使用静态的训练刺激,且没有纳入被试本人的动态面部表情等。[21]
(4)微笑迷宫(Smile Maze)
“微笑迷宫”将面部表情的表达整合进干预计划中,目的在于改善自闭症的面部表情识别和表达能力。“微笑迷宫”提供的练习要求是玩家在迷宫中成功地航行,同时尽可能地收集糖果。玩家控制一个类似于小精灵的蓝色游戏块,并利用键盘进行导航,用面部表情移动游戏块越过迷宫中的障碍物,玩家需做出与迷宫中一致的面部表情并维持固定的一端时间才能越过障碍物。非正式的实地测试表明自闭症儿童和成人都喜欢玩“微笑迷宫”练习。这一游戏最初设想是引发自闭症自愿表达面部表情。然而,由于游戏极具趣味,在玩游戏过程中,自闭症会自主显露表情。“微笑迷宫”成功将自愿和不自愿的表达行为联系起来,使自闭症学会转换情绪状态。虽然,目前“微笑迷宫”仍处于原型阶段,但试点测试已显示出将情绪表达与干预计划融合对学习者有着莫大的益处。[22]
(5)会说话的面孔(FaceSay)
“会说话的面孔”是一种以电脑为载体的交互式的社会技能干预技术,与其它的以电脑为载体的干预技术不同,它创造了更接近生活环境的项目来训练自闭症面孔和情绪识别能力。它包括三类不同的游戏,且设计了形象逼真的助理帮助儿童学习社会技能,助理可以同儿童交流,这一交互式的系统为儿童提供了应对社交情景的练习机会。游戏的整体目标在于提高儿童对面部运动和特征,尤其是眼部周围信息的关注意识。使用此技术对儿童进行干预时,要求儿童关注到且与助理互动,助理会要求儿童完成特定的活动,如追随眼睛的视线、面孔拼图、匹配和操作面部表情等。[23]
Hopkins(2010)的研究评估了“会说话的面孔”在自闭症社交技能干预中的有效性。该研究以14名低功能自闭症儿童和11名高功能自闭症儿童为对照组,11名低功能自闭症儿童和13名高功能自闭症儿童为控制组,接受“会说话的面孔”这一干预技术的训练。训练在学校里实施,每周两次,每次10-25分钟,整个训练分为12个阶段,总共持续6周。结果显示,低功能自闭症儿童在情绪识别和社会交往两大领域表现了进步,高功能自闭症儿童在面部表情识别、情绪识别、社会交往这三大领域都表现出了进步,且无论是低功能还是高功能自闭症儿童在自然情景中仍表现出了社会交往的进步。[24]这表明,“会说话的面孔”无论对高功能还是低功能自闭症儿童的面部表情识别干预都有效。
(6)3D面部表情动画(3D Animated facial Expression)
Yufang Cheng(2008)创建“3D面部表情动画”作为一种训练自闭症儿童情绪识别和理解的干预技术。“3D面部表情动画”是一种交互式的多媒体系统,该系统的目的在于为自闭症儿童呈现准确表达情感的3D角色,及通过社会故事情节中引发的事件提供自我表达和理解他人情感的练习机会。该系统包括3个阶段:一是3D动画人物的情绪识别,首先单独呈现某一种情绪,要求学习者做出选择,其次告知学习者即将呈现某种情绪,要求其做出选择;二是社会故事内容,在这一阶段要求学习者说明社会故事中由某一事件引发的情绪;三是反向的故事模式,向学习者呈现某种情绪的表达性3D角色,要求学习者选择引起这一情绪的可能事件。
Yufang Cheng(2008)采用此技术对30名自闭症儿童做了初步的实证研究。结果显示,通过此技术的干预,自闭症儿童可能更容易准确地识别情绪,以及社交情景中事件引发何种情绪。[25]因此项研究的数据仍在补充中,所得结果还不能广泛推广,研究者还需做更多的研究分析“3D面部表情动画”技术在自闭症儿童面部表情识别干预中的作用。
2.利用电脑呈现真人、卡通、简笔画等材料的干预
有些研究者从并未针对面部表情的识别创建专门的软件或系统,而是从常用的图库中选取真人表情图片或制作卡通表情图片、简笔画等作为干预材料,通过电脑呈现这些材料,要求儿童完成表情识别和匹配任务来开展训练。
Christian Ryan(2010)以33名自闭症儿童为被试,在训练前采用情绪识别测试(Emotion Recognition Test)和情绪词汇理解测试(Emotion Vocabulary Comprehension Test)收集儿童训练前的测验分数,在训练结束的当周进行后测,在训练结束3个月后由学校心理咨询师对儿童进行追踪测试。情绪识别能力的训练由治疗师实施,每周1次,每次1小时,持续4周。六种核心的面部表情作为训练主题:高兴、生气、悲伤、害怕、惊讶、恶心,训练材料选自NimStim 面部表情图片图库。训练时,先指导儿童通过分析每种情绪的组成部分识别情绪,而后完成一些角色扮演、表情匹配的活动,并布置家庭作业要求儿童完成。研究结果显示,被试后测得分与前测得分相比有明显提高,训练效果显著,且情绪识别能力的提高在追踪研究中也显现出来了。[26]孙广宇(2006)在心理理论的基础上,以一名自闭症儿童为对象,通过对人物表情、卡通图片表情、创设不同情境推断人物可能的情绪反应等训练,提高其对他人情绪的辨别能力。该研究的训练内容包括循序渐进的3个阶段:辨别任务各种表情训练,设计高兴、不高兴、生气、害怕四组真实任务表情的照片,开始以学生父母、老师的表情为切入点,逐步过渡到陌生任务的表情;辨别各种图片任务表情训练,在学生能够从任务相片辨认表情后,接着训练学生从比较抽象的图片中辨认高兴、不高兴、生气、害怕四种面部表情;创设不同情境让学生根据所处环境辨别出应有的情绪,从而推断出人物相应的情绪反应。研究结果显示,通过训练该名儿童在理解图中处境所描写的人物关系和其中人物蕴涵的情绪以及推断人物的情绪反应及感受上有所提高。[27]
虽然已有针对自闭症儿童面部表情识别干预的研究所得结果都证明其对改善自闭症儿童的面部表情识别能力具有一定的成效,但都或多或少地存在自身的局限性。首先,多数研究都选用高功能自闭症儿童或亚斯伯格综合症儿童作为被试,研究结果能否推论到所有自闭症群体中去还值得质疑。虽然低功能自闭症儿童难以理解指令、与他人交流困难增加了实验的难度,但这不应该成为将这一群体排除在外的理由。
其次,虽然多数研究的结果都显示参经过一段时间的干预后,自闭症儿童的面部表情识别能力得到了提高,但对儿童进行追踪研究得出的结果却不尽人意,当脱离实验室设定的环境后,自闭症儿童仍难以准确判断他人的面部表情。对于自闭症儿童的干预而言,如何提高干预的泛化效果是非常关键的问题,面部表情识别的干预也不例外。
另外,越来越多的研究者使用电脑作为辅助技术对自闭儿童开展面部表情识别能力的训练,使用此技术对自闭症儿童进行训练有一定的优点,如自闭症儿童很喜欢电脑创造的可预测、稳定、不需考虑社会准则的环境;在电脑上可以根据儿童的理解水平选择性学习;电脑上的学习内容可以重复,直至完全掌握等。[28]但是,采用以此为基础的干预技术通常将儿童限制在实验室环境中,儿童只需与面前的电脑互动,而不需与社会生活中真正的人沟通,这种干预的生态效果着实令人担忧。
展望未来,解决自闭症儿童面部表情识别干预策略泛化难的问题应该成为研究者继续关注的主题。作为传统的自闭症群体情绪认知干预方法的社交技巧课程,这种方法通常以团体形式开展,强调在真实的社会生活情景中进行情绪认知教学,更为儿童提供多样的实践练习活动,更有利于习得技能的迁移。而以电脑为基础的新兴干预技术对自闭症儿童具有强大的吸引力,且实施方便,儿童能据此快速学会识别他人面部表情,但通过此技术实施的干预往往难以让儿童将所习得的技能迁移到社会生活情景中。在未来的研究中,可以考虑将电脑为基础的干预技术和社交技巧课程结合起来对自闭症儿童实施干预,利用前者短期内提高自闭症儿童面部表情识别能力,结合后者可以提高儿童在社交情景中的情绪识别能力,这种干预技术的结合也许可以解决目前研究中“泛化难”的问题。
[1]连福鑫.自闭症儿童面部表情加工的实验研究[D].华东师范大学,2010.
[2]郭嘉.孤独症谱系障碍的面部表情认知特征研究进展[J].中国循证儿科杂志,2009(6):543-547
[3]Golan O,Ashwin E,Baron-Cohen S,et al.Enhancing Emotion Recognition in Children with Autism Spectrum Conditions:An Intervention Using Animated Vehicles with Real Emotional Faces[J].Journal Of Autism & Developmental Disorders.2010,(3):269-279.
[4][5][9]连福鑫.E-S理论在自闭症情绪认知干预中的应用探讨[J].南特学院学报,2011(1):43-47.
[6]Stichter J,Herzog M,Gage N,et al.Social Competence Intervention for Youth with Asperger Syndrome and High-functioning Autism:An Initial Investigation[J]. Journal Of Autism &Developmental Disorders.2010,40(9):1067-1079.
[7]Thomeer M,Lopata C,Smith R,et al.Randomized Clinical Trial Replication of a Psychosocial Treatment for Children with High-Functioning Autism Spectrum Disorders[J].Psychology In The Schools,2012,(10):942-954.
[8]Lopata C,Thomeer M,Toomey J,et al.Feasibility and Initial Efficacy of a Comprehensive School-Based Intervention for High-Functioning Autism Spectrum Disorders[J].Psychology In The Schools.2012,49(10):963-974.
[10][11]Golan O,Baron-Cohen S.Systemizing empathy:teaching adults with Asperger syndrome or high-functioning autism to recognize complex emotions using interactive multimedia[J].Development And Psychopathology.2006,18(2):591-617.
[12]Golan O,Baron-Cohen S,Hill J,Rutherford M.The ‘Reading the Mind in the Voice’Test-Revised:A Study ofComplex Emotion Recognition in Adults with and Without Autism Spectrum Conditions[J].Journal Of Autism &Developmental Disorders.2007,37(6):1096-1106.
[13]Golan O,Baron-Cohen S,Golan Y.The'Reading the Mind in Films'Task [child version]:complex emotion and mental state recognition in children with and without autism spectrum conditions[J]. Journal Of Autism And Developmental Disorders.2008,38(8):1534-1541.
[14]Lacava P,Rankin A,Mahlios E,Cook K,Simpson R.A Single Case Design Evaluation of a Software and Tutor Intervention Addressing Emotion Recognition and Social Interaction in Four Boys with ASD[J].The International Journal Of Research And Practice.2010;14(3):161-178.
[15][16]Golan O,Ashwin E,Baron-Cohen S,et al.Enhancing Emotion Recognition in Children with Autism Spectrum Conditions:An Intervention Using Animated Vehicles with Real Emotional Faces[J].Journal Of Autism & Developmental Disorders.2010,40(3):269-279.
[17]Williams B,Gray K,Tonge B.Teaching Emotion Recognition Skills to Young Children with Autism:A Randomised Controlled Trial of an Emotion Training Programme[J].Journal Of Child Psychology And Psychiatry,2012,53(12):1268-1276.
[18][21][22]Ockburn,J.,Bartlett,M.,Tanaka,J.Movellan,J.&Schultz,R.(2008).SmileMaze:A tutoring system in real-time facial expression perception and production in children with Autism Spectrum Disorder[Z],Proceedingsf from the IEEE International Conference on Automatic Face&Gesture Recognition?,978-986.
[19][20]Tanaka J,Wolf J,Schultz R,et al.Using computerized games to teach face recognition skills to children with autism spectrum disorder:the Let’s Face It! program[J].Journal Of Child Psychology&Psychiatry,2010,51(8):944-952.
[23][24]Hopkins I,Gower M,Biasini F,et al.Avatar assistant:Improving social skills in students with an ASD through a computer-based intervention[J]. Journal Of Autism And Developmental Disorders.2011;41(11):1543-1555.
[25]Yufang Cheng.3D Animated Facial Expression and Autism in Taiwan[Z].Advanced Learning Technologies,ICALT'08.Eighth IEEE International Conference,Santander,Cantabria,2008.
[26]Williams B,Gray K,Tonge B.Teaching Emotion Recognition Skills to Young Children with Autism:A Randomised Controlled Trial of an Emotion Training Programm[J].Journal Of Child Psychology And Psychiatry,2012,(12):1268-1276.
[27]孙广宇.运用“想法解读”理论提高孤独症学生对他人情绪辨别能力的个案研究[J].中国特殊教育,2006(10),75-78.
[28]Golan O,Baron-Cohen S.Systemizing empathy:teaching adults with Asperger syndrome or high-functioning autism to recognize complex emotions using interactive multimedia[J].Development And Psychopathology,2006,(2):591-617.