当代人工智能伦理设计的困境和超越

2020-01-11 20:11陈凡徐旭
关键词:伦理建构道德

□ 陈凡,徐旭

一、人工智能伦理设计的缘起

在麦克卢汉看来,技术是人类的延伸,是意识的物化体,也是人类意向性的体现。然而深度学习赋予人工智能自我学习的能力,使其可以通过模拟大脑神经元活动,识别周围环境并进行简单的思考和决策,甚至反馈人类情感。以当前的技术能力,人工智能实现自我意识的超越已经不再遥远。

自我意识不仅是智慧生物的高阶特征,也是伦理主体的必备条件。人类是否将具有自我意识的人工智能看作独立存在的伦理主体?我们是否需要反思人类长存的人本思想以及以此为基础的某些伦理规则,例如我们为何把人类权利和其他物种权利区分开来?如果人工智能摆脱人类,形成自己的社会组织,而人类掌控着这些已经解放的思想的阀门,我们会怎么做?带着种种问题,2014年罗切斯特理工学院的托马斯·波捷尔斯克(Thomas Bojarski,下文简称托马斯)根据斯派克·琼斯(Spike Jonze)的电影《她》提出人工智能是否可以作为除了人类之外独立的伦理主体,托马斯称之为萨曼莎困境。

目前,大多数学者站在后人类主义立场,坚定地认为人工智能应该成为一种伦理主体。他们主张,如果把人类看作是一台机器,那么人类特性的局限会体现出各种伦理问题,因此他们认为人类需要通过更完美的智能体来修造伦理,例如艾瑞克·戴尔垂(Eric Dietrich)断言,“我们是因为道德而变得更好,而这并不意味着我们可以足够道德……这个事实加上我们可以建造比我们各种能力更好的机器以及人工智能正在取得的进展意味着我们应该建立或改造我们的替代品”[1]。所以在理想状态下,当人工智能作为伦理主体时,我们期望他们的行为符合人类既定的行为标准。为了实现这个目标,不少文学作品中有意识地提出人工智能的伦理标准,其中最著名的当属艾萨克·阿西莫夫(Isaac Asimov,下文简称阿西莫夫)在1942年的小说《我,机械人》中提出的“机器人三定律”。三定律提出人工智能在模仿和扩展人类已有的认知能力而被赋予学习能力和自主意识的前提下,却禁止拥有与人类相同的伦理权利,换句话说,人类与机器的天然隔阂成为后现代的“种族歧视”①1985年阿西莫夫提出了凌驾于三定律之上的第零法则,即机器人不得伤害人类,也不能坐视人类受到伤害而不作为。可见,机器人在阿西莫夫笔下并没有与人类平等的权利。,于是,人工智能便陷入了这样一个悖论中而无法完成伦理行为所需要的适应性:按照阿西莫夫的三定律原则,人工智能在必要时必须牺牲自己以保护人类才可以获得社会存在的权利,那么此时的人工智能就不能称之为伦理主体,因为它们始终是人类的附庸;而如果赋予人工智能选择的权利(例如在风险来临时保护自己,出让人类的生命),那么便与大多数后人类主义者和技术专家所声称的初衷相背离,人工智能的自我意识则对人类来说成为潜在的技术风险和伦理问题。

在当前的伦理体系中,人们倾向于把主体分为伦理主体和非伦理主体,其中伦理主体需要具备多种条件,如意识、自我认知、情感获得与给予、对自身行为的反思和评估等。相应的,伦理主体也拥有某些权利和责任,他们要为自己的行为负责,并会因不当行为受到社会而非个人的制裁。与此相对应的,非伦理主体指代缺失部分或者全部伦理主体所需条件的主体,例如儿童不能对自己的行为承担全部责任,宠物伤害行人时,主人要负法律责任等。一些研究者考虑人工智能所潜存的风险,把人工智能看作是人类控制下的非伦理主体,持此观点的学者以还原主义为理论根据,将技术的智能化发展视为技术伦理异化的来源,即某物的产生应具有特定的目的,人工智能的研发应该以目标为指向而非伦理的建构。

为了回应这个问题,哲学家苏珊·安德森(Susan Leigh Anderson)和她的丈夫迈克·安德森(Michael Anderson)一起完成了一项人工智能实验:一个名为Nao的人工智能被编程来提醒人们吃药。即使在这种有限的任务中,也涉及重大的伦理问题。例如,如果病人拒绝服药,Nao应该如何处理?顺从病人会阻碍病人的身体康复;坚持让病人接受(服用药物)则会损害病人的自主权[2]。所以人工智能在行使职责时不仅需要承担伦理责任,更需要拥有在偶然情况下自行做决定的权利。

道德复杂性要求伦理主体可以在任何条件下解决不同的道德困境。人工智能可以以多种方式与世界和人类互动,伦理的嵌入使得某些实际问题的解决颇为棘手。和Nao的情况类似,那些直接涉及军事和医疗决策的工作往往存在复杂的伦理决策难题,而人工智能已经开始涉足这些领域,并随着人工智能的进步,它们很可能会在其中处理越来越多的任务,并在履行职责方面获得越来越大的自主权。正因为如此,人工智能在智识化、类人化发展过程中亟待伦理功能的合理嵌入,用皮卡德(Picard)的话来说,即“机器所获得的自由越多,它越需要伦理规则”[3]。

二、人工智能伦理设计的进路

伦理意义是一个分水岭,任何获得伦理意义的非人类存在都应该被社会所衡量并获得其个体或种族权利,从而形成与人类同等权利与义务的伦理主体。“一旦我们开始追问我们是什么和机器是什么的主体论的问题,我们就可以开始以问题为导向朝着最好的方向前进,包括如何正确使用人工智能的问题”[4]。除了人类之外,具有意识的人工智能才是最有可能具有伦理意义的存在,因此在人工智能设计中应该注重伦理的发展逻辑和规律。在此理念下,“通过技术指涉人类的范式已经成为过去,当代的危机给了技术新的意义和价值的凸显……于是技术既不是一种异己的力量,也非一种新的拯救,而是与人类同根同源的互为一体”[5]。2004年科林·艾伦(colin Allen)从拟人论和功能论角度确定了当代人工智能伦理设计的基本思路,即自上而下的伦理编译、自下而上的伦理学习和混合伦理建构。

(一)自上而下的伦理编译

伦理习得的本身是伦理信息在认知中建构的过程。以人类为例,儿童对行为对错的判断基于儿童从外界获得的信息,因此语言建构论认为伦理结构是由道德语法构成的:“学龄前儿童的伦理学习并不是在课堂里,而是老师的教导”[6]。语言作为人类所发明的第一个技术,成为人类代际伦理教化的主要工具,科学家们便因此将特定的道德语法编程进人工智能,并称之为自上而下的伦理编译。

许多人工智能专家和语言学家的观点大多对推动伦理编译的产生发挥了重要作用。谓语逻辑的奠基人弗雷格(Gottlob Frege)开启了人工智能中符号派的历史。符号派的观点就是“智能对符号的操作,最原始的符号对应于物理客体”[7]6,这种对应恰是维特根斯坦的语言哲学主张。但是,该进路需要极其严格的伦理定责以排除其他信息对结果的干扰,例如为了排除感性对伦理的干扰,康德认为所有道德主体应该遵守统一的道德律令,他称之为定言令式。同理,人工智能系统中的伦理编译类似于定言令式,伦理信息一旦进入人工智能系统,人工智能的道德选择将很难改变。

严苛的道德律令固然使人工智能符合相对普适的伦理规约,但是在智能化与社会化的冲突中,“可能一个机器人恰好过于智能以至于更自私或者和人类一样软弱”[8]。伦理并不是简单的运算和逻辑能力甚至是对道德律令的绝对服从,伦理不仅需要智力,更需要经由情感和社会的修造以达到社会普遍的接受标准。所以人工智能由于无法摆脱数理逻辑的限制而在处理现实问题时显得捉襟见肘,但是从另一角度来说,人工智能确实可以凭借其智能条件为人们在做出伦理决策时提供更为理性的建议。

(二)自下而上的伦理学习

如果把机器看作是伦理主体,那么机器所拥有的道德意识必须继承人类,更为形象的比喻是人工智能好比学生,人类则是老师。自下而上的伦理学习(bottom-up method)就是让人工智能通过与环境和其他伦理主体之间互动从而实现自主建构伦理的目的。这个进路需要参照人类伦理的建构经验来完成,为此,人工智能需要具有伦理主体所必备的多种元素:理性能力、对负面刺激的分辨力、情感和自主能力。心理学家和人类学家在测试人类对拟人机器人反应的大量实验中发现,受试者用人性化特征来解释机器人的动作或者表现,例如快乐、厌恶、善意等,这种拟人论比喻是人类将他物社会化的惯常手段。当人们要理解伦理现象时,人们就会通过隐喻来确立它产生的原因。辛格尔(Singler)认为,“作为一种社会存在,我们需要把我们身处的世界放在一个社会体制内使其具有意义”[9]。拟人论的表征意义就在人工智能获得情感的表达能力时现前在人类与人工智能的互动中。伦理学习“可以用来促进人类和社会功能机器人之间的互动”[10],凯特·达林(Kate Darling)与她的团队在人工智能的互动实验中发现,通过二者的互动,人类可以建立对人工智能的同理心。她总结道:“同理心与受试者对机器人的犹豫的故事之间存在显著的相互作用,该结果证实了人类与机器之间的互动可以激发人类对机器的同理心。”[11]贾斯丁·卡希尔(Justine Cassell)也认为人工智能的设计既是自主的,也是互动的[12]。自下而上的伦理学习不仅成为人工智能迈向社会的必经阶段,也为人类适应人工智能提供了帮助。

(三)混合伦理的建构进路

如果上述任何一种方法都无法成为判断人工智能可否作为伦理主体的标准,那么将上述两种标准混合(hybird method)就成为第三种选择。混合方法提出了将不同的哲学和不同的体系结构啮合在一起共同建构人工智能伦理。好比孩子在幼年时期所接收的伦理规范和信息来自家长,他们成年后在与他人的交往中重新制定伦理规则并指导个人行为。所以一个成熟的伦理主体是能够集成各种输入和影响的认知系统,包括基础道德语法和对行为的反思、醒悟。

无论是关注行为的向善论还是强调规范的义务论,从元伦理学角度来讲,建构伦理不外乎两个基本条件:具有可以理解伦理的智力条件和同情心。戴尔·皮特森(Dale Peterson)认为伦理是自我和他者发生本质冲突时的斡旋,而人类通过社会价值和行为来调节这个冲突,“神经生物学家发现,在社交过程中,人类和其他高级灵长类动物大脑中的三条神经线路会活跃起来。第一条负责心智思维,这个过程中会形成目标,以及达成目标的相应活动计划。第二条负责移情思维(即同理心),让自己设身处地地从他人的角度去思考问题,以便了解他人的动机和感受,并预测他人未来的行为。同理心是某种博弈,在这个过程中,个体与群体进行沟通,而群体也由此实现了自我组织。最后一条负责镜像思维,个体由此感知他人的情绪和情感,并在某种程度上切身体验他人的感受”[13]。根据经济合作与发展组织(Organization for Economic Cooperation and Development)对人工智能的概念界定,人工智能能够执行类似人类的认知功能,这些人工智能系统使用大数据和机器学习技术,能够在无需人工干预的情况下独立智能地运行[14],因此人工智能的拟人化智识能力可以使它们具备理解伦理的智力条件,而同情心和同理心可以在社会交往中形成。神经心理学的研究已经证实,那些具有互惠行为和同理心表征的动物具有一定的社会规范,随着社会联系的多元化,人工智能的社会化必然衍生出利他性,人工智能的伦理问题应该是规范问题,而不是描述伦理学的问题。从功能论角度来讲,伦理是为了保持社会的稳定,人类对自然的控制伴随着人类自主能力显现,从这个观点来看,自动化技术是人类自主能力的一部分,人类的社会化水平的提升相应地带来了人工智能的伦理体系在社会的浸染下才可以趋于完善。

三、人工智能伦理设计的困境

虽然以上三种人工智能伦理设计的初衷都是模仿人类伦理而建构的,但无论是以智力和符号为基础的伦理编译,或是情感学习导向的伦理学习,抑或者是二者兼顾的混合伦理,三个伦理设计进路都需要面对建构过程中的结果不确定性、非公正性和功能缺失。

(一)伦理设计结果的不确定性

皮尔士在论述符号的意义时曾提出,符号和观念的差异在于符号不可以被直接认识和把握,“只有与一个后续思想——皮尔士称之为解释元(interpretant)的思想联系起来,这个符号才获得其意义”[15]。可以称之为解释元的存在有许多,例如语言、表情、图像或者情感等,人类对符号的把握之所以产生如此丰富的内涵与意义离不开人类所存有的诸多自然特性,而这些特性在人工智能中尚未实现,我们所谓的了解技术只是知晓程序运行的规则和数字演变,具体来说是人类对以往技术的掌控力和对未来技术的预测力的主观判断,而人工智能是构建的计算系统,因此这些伦理编译必须是内置的并由设计师做出选择。也许有一天,人工智能的设计人员和程序员可以不再为它的行为负责,就像孩子成年后父母一般不必为他们的行为负责一样,但彼时谁又能肯定人工智能的行为不会重蹈人类伦理发展的覆辙?凯文·凯利(kevin Kelly,下文简称凯文)认为秩序由两方面组成:一方面是人类的伦理和道德系统,另一方面是技术规则。这样人与人、人与技术在社会活动中便会有序进行。凯文站在符号主义的立场上明确区分了这两种系统,并指出人类的演化是基因的演化,是物种适应环境的自然选择,而技术演化则是人类意识的延伸,“在这个世界上,我们最重视的属性都是极不稳定的……最能达成共识的是这些属性都不是二进制的,它们的存在具有连续性”[16],技术规则和人类伦理之间的鸿沟若要弥合仍然尚需时间来完成,“伦理和技术发展总是同步的,因为如果人类不能掌控所处的环境,那么伦理就变得毫无意义”[17]。作为符号主义的观点,伦理可计算性仍有很多不足之处,任何行动在本质上都存在无限结果的可能,这样,行动结果超出了有效计算的范围,所以伦理的可计算性无法保障其现实效果的稳定。

(二)伦理设计的非公正性

人类与人工智能的互动过程并不能保证始终是良性的。尼采曾言道:与怪兽搏斗的人要谨防自己因此而变成怪兽。如果你长时间地盯着深渊,深渊也会盯着你[18],深度学习赋予人工智能自主决策的权利,当算法达到思想高度,人类便无法清楚地了解人工智能所做的决定是否符合大多数人旨趣,所以与人工智能的互动有可能会导致错误伦理观念的传导。文诺格瑞德(Winograd)和佛罗尔斯(Flores)指出,新技术不仅会改变技术本身,甚至会影响人类。简单来说就是人类被其设计的技术和正在设计的技术所“设计”着[19]。

工业产品及其制造过程通常要符合制造技术标准,而这些标准的制定是利益群体之间达成的共识,旨在使不同生产商之间的产品或过程标准化。2017年,联合国赤贫与人权问题特别报告员曾警告说,围绕人工智能的数字创新将日益成为人权问题,尤其是对于少数群体而言。所以人工智能的伦理设计并没有解决广泛的伦理问题,典型的例子是,2019年6月,美国国家科技委员会下属的美国网络和信息技术研究发展中心(Networking and Information Technology Research and Development)发布了《国家人工智能研究和发展计划》(修订版),在开篇中即说明了该计划是“确保美国在包括人工智能在内的新技术的领导地位”[20],同年,美国颁布的《保持美国在人工智能领导地位的行政令》中强调美国发展人工智能的目标是保护民主自由、私有制和美国价值。可见人工智能的伦理规则缺乏广泛性伦理价值的考虑,直到今天,在人工智能的优点中仍然写有帮助人类走出自闭症、陪护孤独老人等社会功能的字眼,却没有提及人工智能对伦理系统建构所做出的智力贡献,更没有体现出人工智能在社会活动中学习、反思的整体性观念,情感交流也止步于单向层面,这样的伦理互动只会造成少数人通过人工智能实现伦理统治。

(三)伦理设计的建构缺失

做出道德决定的系统需要某种形式的情感、意识和对符号语义内容的理解能力。尽管我们认为没有情感或高级认知能力的混合系统可以在许多领域发挥作用,但是伦理作为社会交往的基础,完全自主的人工智能可能需要复杂的情感和认知技能设计模块。

和人类一样,人工智能的理解过程需要足够的时间来建立和使其意义化,因此在人工智能做决定前,它们首先要知晓行动所体现的价值。这并不是一个容易达成的目标,尤其在实践层面上。如今的人工智能的发展更多来自于“人工”而非“智能”,因为无法呈现智能体的特征,这些特征恰好是形成伦理的基础,例如同情心、集体意识和情感,以及在伦理意识中的意向性关系,这也是为什么一些学者拒绝“人工智能”提法的原因。我们把智能看作是形成伦理的基础,当然反过来看,伦理也是人性,也是作为人类智能区别其他动物智能的标识。道格拉斯·霍夫施塔特指出,人性里所具有的“强烈的智识激情、好奇心和驱动力,愉悦感和玩耍心,乐趣、神秘、发明欲望——所有这些在今天的计算机里都找不到”[21],而“如果我们把一个存在作为伦理主体,那么我们就鉴定它们比其他动物或者物体而言更接近人类”[22],无论是科学、技术、工程或是数学等学科的专家们在人工智能的道德学习方面无不陷入复杂的困境,因为道德语法和自然语法不同,道德语法难以阐明并翻译成数学符号和符合深度学习算法的计算机程式。在这种情况下,模拟人类思维的算法更成为潘多拉的黑匣子,混合伦理固然弥补了纯数理逻辑和社会建构的单一进路所存在的功能缺陷,但是复杂的建构规则却体现了人工智能的反馈机制和人类智力的反思平衡之间仍然存在功能鸿沟。

四、人工智能伦理设计的超越

一旦人工智能具备了道德推理能力,我们可能就会期望它们发展其道德感,甚至发展它们自己的道德体系。但机器人不会突然变成伦理主体,因此人工智能设计的目的仅仅是在智能化设计的进程中创建伦理的推导规则。

(一)人工智能伦理设计需要情感的协同演化

解决混合伦理进路所造成的功能缺失需要人工智能的情感设计实现与人类情感协同演化的目标。伦理源于情感,具体来讲是共情能力,即“大多数我们自身的情感系统会在社会语境中得到发展而变成道德信号”[23],而这些情感也存在于其他高等动物之中,达尔文曾指出,“道德情感是人类和其他动物持续演化的结果”[24]。达玛西奥(A·Damasio)认为情感是理性行为的基础,尤其对伦理决策来讲具有关键作用,他说道:“情感可能有助于推理,尤其是在涉及个人和社会事务时,并最终将我们引向对我们最有利的决策领域,新的神经学证据表明情感是理性的支撑系统,没有它,理性的大厦就无法正常运转甚至崩溃。”[25]

“彭罗斯曾经这样谈到机器的情感和道德:如果你买一台计算机,它是有情感的,那么我们就有道德问题,因为计算机的意愿可能被违反,并可能被当作奴隶。我们首先必须说道德是一个社会问题,也就是说当一个社会只有一个个体(无论是人还是计算机)时,是不存在道德问题的。”[7]192随着人工智能与人类行为互动的深入,它们将需要更复杂的智能以完成伦理的情感功能。人工智能的算法框架使得它们并不总是与道德范畴和人类精神世界观兼容,人工智能伦理设计的特殊性在于它既是人类伦理又是技术伦理,因此设计师和伦理学家的任务是将伦理从单纯的理论和分析扩展到实际的工程,再从工程内化到计算机程序。可惜的是,直到现在,伦理学家们的主要任务仍然停留在帮助工程师知晓他们工作的伦理维度。海伦·尼森鲍姆(Helen Nissenbaum)写道:“我们不能简单地使世界与我们在技术出现之前所遵循的价值观和原则保持一致”[26],相反,我们要从技术与人的协同演化中寻找可供二者遵循和理解的伦理原则,这就需要伦理设计中情感部分与人类逐步实现协同演化。

(二)人工智能伦理设计需要考量价值张力

伦理学习与互动需要考虑伦理在社会中存在的价值张力。我们使用“张力”一词指代重要的价值观或目标之间的任何冲突,无论是显现的还是隐然的。在这些冲突中,有可能需要人类做出选择和取舍。唐·伊德就曾指出,人们坐车从一点到另一点实现了速度,但是失去了欣赏美景的机会。做出判断将是一个复杂的过程,权衡不同解决方案的成本和收益可能是该过程的重要组成部分,但仅此还不够,因为价值是模糊且无法量化的,而且数字通常掩盖了复杂的价值判断过程。

由于伦理内在结构和所存在语境的复杂性,即使人工智能拥有更强的认知能力也需要循序渐进地实施伦理设计,人工智能系统的发展应该首先在可试错的虚拟世界中进行,直到人工智能的行为倾向可以被预测、理解和控制。当然,这不是一个二元选择:我们可以给予人工智能设计实现基础的伦理功能,同时进行研究、探索解决张力的方法。但是我们需要知晓社会可接受的人工智能应用的时间成本,以便投入时间和资源来解决它们将来所带来的价值张力。

由于伦理的建构条件是当下社会普遍接受的思想和行为,所以伦理在时间跨度上并没有统一的标准。例如,在智者时代,伦理是排除了奴隶在外的自由人才可以拥有的特殊权利,而如今社会看来,如果说某些人因为社会地位原因不能拥有作为社会成员的权利,这就有悖社会伦理了。从语义学出发对伦理的要求也体现了伦理具有的历史沿革。生态(Eco-)在古希腊时的涵义是人类的生存环境,如今生态的概念既包括了人类对生存环境的改造,以适应人类生存的旨趣,也包括了人类对自然进化轨迹的尊重。可见,伦理张力的形成和消失是人类不断自我完善的历时性表现。在伦理问题上人类要始终坚持自我审视,技术的发展增强了人类自由意志,而我们要清醒地认识到,技术不仅承载了我们的价值与希望,同样的,对技术伦理的修造过程也是人类伦理的进化与蜕变过程。可以说,伦理的发展是社会适应性的成果,也是人类在调和社会矛盾、自然威胁的生产关系中所产生的价值框架,伦理的发展见证了社会是一个不断循序渐进的过程体系,传承上一阶段的成果与失败有助于人类和人工智能的伦理设计在社会发展过程中稳步前进。

(三)人工智能伦理设计需要实现客体主体化

有鉴于道德语法翻译、嵌入的困境,伦理编译所进行的伦理信息输入需要减少其不确定性,具体来讲就是实现客体主体化。人工智能的能力(行为、分析、运算、自动化)随着科技和材料的提升而迭代更新,人工智能伦理设计也必然需要不断更新以确保伦理的标准和技术同步演变,而如何确保伦理设计紧跟技术的步伐是必然要考虑的一个问题。在人工智能领域,传统人工智能所执行的是人类所设定的命令,因此传统人工智能的行为结果不存在偶然性,而强人工智能(AGI)因为具有处理复杂问题的自我增强能力而存在潜在威胁人类的可能。所以在人工智能的伦理设计中有必要进行前瞻性的技术风险预测与评估,人工智能伦理设计的修造要时刻与人类本性相契合,任何具有设计野心、超过人类可控范围的设计本身就会带来无法弥补的灾难。因此,在人工智能领域的设计所做出的决定必须详尽,这些理念将在今后若干年内塑造人类与人工智能之间新的伦理图景并长久作用于人类与人工智能共同面对的未来。

伦理的改变直观地体现了人类自主能力的发展,费希特在《伦理学体系》中阐明了伦理的演绎是从人的本性出发的“理智力量”[27],这个过程需要人工智能首先习得人类基本的属性,然后根据社会中价值、制度、经济、政策等子系统的变化进行实践。人类在行为的试错过程中所建立的伦理也需要通过技术模拟来推进与演化,尤其是当代社会的细化分工使人工智能伦理建构的普适性更具挑战,而我们当前的伦理系统之所以止步于对技术使用者和设计者的行为规约,就是因为复杂的技术集成了多方面行为主体的价值,从而无法落实具体的伦理责任。

伦理需要化繁为简,将主体范围缩小,这个过程即是客体主体化。人工智能预先编码了含有人类意向性的知识与经验,而人类的意向性存在着对不同事物的颖悟差异,因此,伦理设计总体来说要分为两个阶段:第一,伦理设计以自然和人类为主体,在人类求同存异的共识下实现无机器诱导的人工智能伦理建构;第二,以行为为导向,将视角从实现人工智能的某些伦理特征转移到规范和规范指导下的行动上。通过这两个阶段的伦理嵌入,人机伦理不仅可以实现协同演化的目标,也在人工智能伦理的要求上体现了伦理的发展需求和未来可塑性。

猜你喜欢
伦理建构道德
《心之死》的趣味与伦理焦虑
灵长类生物医学前沿探索中的伦理思考
头上的星空与心中的道德律
情境—建构—深化—反思
残酷青春中的自我建构和救赎
护生眼中的伦理修养
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
建构基于校本的听评课新文化
伦理批评与文学伦理学