钱 圆 媛
(中共中央党校(国家行政学院) 哲学教研部, 北京 100091)
驾驶不可避免地涉及道德决定,比如,当突遇闯红灯的行人而急刹车时,驾驶员是在作一个道德抉择,将行人的现实风险转移到车内乘客上。以人工智能为核心,被认为应具备感官、认知和决策执行力,最终能像人类一样驾驶的无人驾驶汽车(autonomous vehicles/self-driving automobile),同样需要解决道德决定问题。人们担心无人驾驶汽车在难以避免的情况中会如何选择,是牺牲2名行人还是2名乘客?是撞到墙上还是从装有未知物品的盒子上碾过?进言之,谁来决定?是程序工程师还是公众?抑或通过诸如机器学习解决道德难题是否可能?
上述问题可谓现实版的“电车困境”(trolley dilemma)。对此,麻省理工学院媒体实验室于2014年设计出名为“道德机器”(moral machine)的实验(1)参见http:∥moralmachine.mit.edu。,通过创建一个类似游戏的平台,让公众就无人驾驶汽车应如何在“电车困境”的不同版本中对生命进行优先排序作出决定。
参与者被要求在不可避免的事故场景中,选择牺牲一方以挽救另一方,选项包括:牺牲人或动物、乘客或行人、更多生命或更少生命、男性或女性、青少年或老年、合法或非法穿越马路者、健康或不健康者、较高或较低社会职位者,在一些场景中还添加了罪犯、孕妇、医生等人物。最后的统计数据显示,全球道德偏好倾向于支持无人驾驶汽车损失更少的生命,保护儿童、孕妇,保护健康的人以及医生、运动员、经理等具有较高社会职位者;倾向于牺牲动物、罪犯、老人、不够健康的人或无家可归者[1]。
该实验收集了来自233个国家和地区的数百万人用10种语言作出的4 000万个决定,是关于无人驾驶汽车道德偏好的、迄今最大规模的全球讨论。设计者认为,该统计结果是无人驾驶汽车道德算法设计和政策制定的重要参考,有助于将无人驾驶汽车变为“道德机器”。然而,除了统计样本的不完全之外,该实验仍存在不少问题,很大程度上并不有助于无人驾驶汽车的伦理设计和政策制定[2]。
首先,该实验让公众更多注意到相关现实中的极小概率事件,这可能阻滞使得行车更安全的无人驾驶汽车技术的发展,同时会误导公众,使其对无人驾驶汽车不接受和不信任。其次,收集公众的道德偏好并不意味着我们应该有这样的道德偏好,并据以去设计无人驾驶汽车:许多人可能会反感搭乘和购买被这样编程的无人驾驶汽车,其在危急情况下会“主动瞄准”并撞向老人或貌似的“无家可归者”;许多人类驾驶员可能担心与其一同行驶。另外,基于这些偏好制定公共政策也不可行,而毋宁是,应该用公共政策来规约我们的道德偏好,前提是这些道德偏好的相关论述是可信的[3]。然而,该实验挑选了一些错误的抽象范畴——性别、年龄、社会职位等范畴本身在道德内容上是空洞的,比如一名医生实际上可能是个罪犯,因而无法简单地进行道德优先性排序。这导致该实验带来的一个最大问题,即它的错误设问意味着不可能真正得出可靠的结论;进一步可以说,该实验并非中立,而是在强迫参与者去作出坏的决定,或者说,强迫塑造参与者的道德偏好。这种伴随着有效信息之缺失的强迫选择会带来挫败感,可能让人对该实验的有效性、对无人驾驶汽车在道德算法设计上的预期产生疑问。
在过去的十年中,美国建筑市场涌现一大批优秀的建设项目,充分体现了BIM作为创新技术、优化过程和合作基础的项目交付方式,有效地改进了建筑质量和整体生命周期性能,节省了项目成本与自然资源,同时提高了项目生产效率和行业生产附加值。本文将以2015年AIATAPBIMAward杰出项目交付奖(DeliveryProcessExcellence)项目,特拉华大学跨学科科学与工程实验室(UniversityofDelawareInterdisciplina ryScience&EngineeringLaboratory,ISELab)为案例 5,详细讨论BIM的工程应用与最佳实践。
上述新电车实验可追溯到著名的伦理学“电车难题”(trolley problem)[4-5]:前方刹车失灵的电车即将撞上轨道上的五人,若能按下按钮改变电车轨道,你是否认为,让电车驶入备用轨道撞死一人以挽救五人是道德的?功利主义原则被用来解释多数人的肯定回答;而康德的道义论则常用以解释,为救轨道上的五人而主动从天桥上推落一无辜路人以阻挡电车,为何这却被多数人认为在道德上是错误的。
本研究以同处一地但土地利用形式不同的2个3 m×2 m的坡地径流小区为研究对象,运用适用于历次特定侵蚀事件间隔大约5个月以上的Walling模型来计算各个采样期的坡面土壤侵蚀量,并比较主要降雨期内不同坡地土壤流失的变化特征。
电车难题的不同版本可以进行不同道德原则的解释以及认知科学、心理学等领域的探讨,它常被认为一旦抽掉可能模糊道德判断的干扰因素,就有助于考评不同的道德原则,以期找出一个融贯性的道德原则能解决电车问题,说明人们在不同场景下的、不同道德直觉判断的融贯性理由[6]。
加强质检过程监控,预裂孔造孔过程质检员旁站,监督钻工开孔20cm、60cm、100cm进行3次校钻,终孔时使用有标示的钻杆控制孔深偏差≤5cm,并要求钻工作详细的造孔记录,特别要在记录中说明造孔过程各孔深位置对应的返尘情况;同时,随时检查样架的稳定性,如有问题及时停钻进行处理;钻孔过程中随时检查样架、钻杆的角度及样架与钻机连接的牢固性,钻杆角度采用特制钢量角器测量,当倾角偏差>0.3°、方位角偏差>0.5°或钻机固定卡松动时,必须停钻采取措施纠偏。钻孔完成后,逐孔检查验收,验收标准为倾角偏差≤0.3°、方位角偏差≤0.5°、孔深偏差≤5cm。
发展长江经济带须坚持全流域“一盘棋”的思路,把握好自身发展与协同发展的关系。正在建设中的杭温铁路为温州与上海的进一步协同发展提供了更多可能。目前,温州已着手在产业对接、科技合作、人才交流以及教育、医疗等民生事业方面谋划具体项目与上海对接。而为避免与其他港口形成“同质化”竞争,浙江海港集团也在最新的全省港口发展规划中,将温州港的功能定位调整为区域性大宗散货中转港、产业配套港、集装箱辅枢纽港,以及参与“一带一路”、对台贸易运输的重要港口。“只有把自身发展放到全省港口一体化协同发展的大局之中,才能形成整体合力、共赢发展。”温州港集团董事长汤宝林表示,谋求一体化发展,必须找准自己错位发展的重点方向。
在德性论那里,德性是一系列微妙而让人羡慕的功能如感知、认知或者说实践智慧与行为的综合调谐地实现,而非仅仅依据伦理规则行事。无休止地按照一系列规则行事,并不能使人成为道德上成功的、有洞察力的人。伦理规则和推理需要与德性原型、具体情境相结合,因时因地制宜地进行变通。在亚里士多德那里,伦理规则是大致的,缺乏精确性,且允许例外。道德德性是相对于我们的两种恶即过度和不及的中间;要做到中庸需要在正确的人、程度、时间、目的、方式等方面做到最好;同时具体德性活动的正确或优劣与否不直接依据道德规则来判定。类似地,在神经网络中,道德规则和推理也不直接决定道德行为,而是作为跨状态空间的向量变换,自然地被整合在神经网络中起作用。这些作用包括:第一,审视训练好的原型的输出结果是否需要再调整;第二,提供模糊的规则的引导;第三,在原型发生冲突的时候,反思、修正、协商以达成解决问题的一致意见[24]118-124。可以说,道德意味着一系列感觉、认知、行为等的优秀综合能力,而非纯粹按照道德规则来操作的结果,从而其不是对道德相关信息进行符号化加工,即类似于数字处理那样,根据(符号)程序的指令按顺序生成字符串,对输入的符号进行逻辑运算推导,并输出道德符号结果。德性指向一系列优秀的、进行多向量转换并输出为德性活动的过程和能力,这些向量包括一系列感觉信息、经验、慎思等在神经网络中的不同程度的激活与分级演化;德性可谓是线性和非线性计算的结合[26]275。
这使人反思,该实验本身乃至近代主流伦理学的方法是否真的正确,其可能在最根本的方面,错误地描述了道德的本质——电车实验作为一种类型化的探讨,抽掉了具体细节,若要在其中根据普遍原则进行道德抉择,注定不可能有满意的解决方案。
可以认为,联结主义与德性论都基于一个共同预设,即道德基于心灵/大脑的功能,优秀的心灵/大脑具有能在适当情况下作出适当行为的倾向[16]3,[17]。训练神经网络与培养德性的目的都是出色地、成功地施行功能性活动。研究者还指出了亚里士多德关于如何获得德性与联结主义的更多共鸣或趋同:二者都重视感知、即刻性以及非符号性的方式,都强调通过训练而非教授抽象的理论来进行发展,都强调训练中模仿“榜样”的重要性,同时都是对情境敏感的,都善于把握那些没有清晰的和普遍规则的情境敏感的信息[7]122-123,[18]。
(4) 样本驱动的训练与规则的向量变换
因此,近代以来的主流道德理论即功利论和道义论,当然就成为了人们首选的无人驾驶汽车道德算法的指导性原则。据此,相应的规则体系需要自上而下地转化为算法,或者定义一个明确的价值评价功能,像功利主义那样通过计算正确行为的后果而得出最大化价值的行为选项;或者通过建立一个能进行逻辑推演的“道德专家”系统,并向这个系统提供道德事实以进行类似道义论的伦理推理[10]。然而这样的进路实现起来却有诸多问题。
功利主义的算法本质是算术。其似乎简洁明了、最为“科学”或最易实行,但实际上面临沉重的运算任务,因为其需要计算出选项的几乎所有可能的结果,以便在道德上对行为进行排序。边沁就曾指出进行精确的功利计算的困难,认为诸如恶意伤害在强度和持续性方面确实是未知的,它是不确定的和遥远的,这在一定程度上阻碍了对其后果的计算[11]。就无人驾驶系统而言,其需要计算受一系列可能行为影响的所有个体的预期效用,然后得出正确的道德结论,再选择承诺最大化总效用的行为。但是,该如何确定各种行动过程的后果,如何衡量评估不同个体的各类效用,以及该系统能否获得关于未来后果的足够信息,这都是功利主义进路的无人驾驶系统面临的棘手问题[12-14]。
道义论强调行为的规则而非其后果。它包括如何确定该采用哪些规则,如何建立规则系统,以及如何知道一个预期的行为是否合乎规则。根据康德的道义论,道德的准则必须是能够普遍化的行动准则,这似乎可以通过计算机编程进行道义论逻辑推演而得出:在设定具体激活条件的情况下,最终能通过普遍性测试的准则将是道德上应该的或可允许的,而不能通过普遍性测试或不能与其他普遍性准则相融贯的准则,即是道德上不应该或不允许的。然而困难在于,如何能保证相关准则在特定情况下得到有条件地激活,以及当比如基于定言命令的道德准则相冲突时应该怎么办[7]85-86,[12]。
可以说,自上而下地将规范符号化的设计思路,忽视了道德决定的一个重要特征,即道德理由和范畴可能都是高度情境敏感的,因而可能让人难以接受。实际上道德行为相关的许多细节和具体情境,没法通过普遍的道德原则而进行规范化地解决。在现实中进行道德选择乃至过一种道德生活时,除了原则和规范,我们还重视道德品格、道德情感和欲望以及我们道德生活的整体目的——道德是为了促进我们的善以及美好生活。
与此相对,自下而上的道德设计则强调创造一个环境,让智能体在其中探索自己的行为方式并进行学习,同时在作出好的道德行为时得到奖励[7]80。这一方法推动了AI技术的重要进步并得到广泛运用,但由于在学习中会容许大量试错和失败的数据,为了防止人工智能体学会错误和不道德的行为,亦需要适当的规范性道德理论自上而下的引导和保障,从而形成一种混合进路。
无人驾驶汽车道德设计的混合进路涉及德性伦理学,其采取一种自上而下的道德规范与自下而上的道德学习相结合的混合编程,运用联结主义网络来发展具有良好特质或“德性”的无人汽车计算机系统,这被许多研究者认为是更有可能的进路[7]117-118。
联结主义是认知科学中的一个运动,致力于通过训练人工神经网络(也称为“神经网络”)这一数学模型,主要依据并行分布式处理(PDP)来模拟和展现人的自然认知活动。神经网络是对大脑及其活动方式的简化模拟,由大量类似神经元的输入和输出单元(也叫节点node)以及衡量单元间联结强度的权重(weights)组成。在联结主义看来,认知活动是网络单元激活模式的转换;分层的诸网络单元激发和抑制彼此的不同激活水平,通过不同层级的激活模式的持续置换,直到这组输出单元相应地重置自身,输出适当的结果或行动信号。由于改变权重可以改变所有级别产生的激活模式,联结主义网络正是通过调整权重来进行学习,直到达成预期目的。
德性论与联结主义的结合并不突兀。丘奇兰德(Paul Churchland)就认为,联结主义神经网络的道德问题更适于德性论,从认知的神经网络模型中浮现出来的道德知识的总体画像,已在亚里士多德德性论及其当代拥护者那里得到了积极检验[15]。卡斯比尔(William Casebeer)也认为,联结主义正是一个合适的针对自然化的伦理学的框架体系,道德判断只有在以自然的计算方式进行学习的系统中才是可能的。拥有良好的道德判断相当于能完成使主体满足自身功能性要求的认知任务[16]5。
1980年,我进行了第一次科学大洋钻探。自那时起,我又参加了6次在北大西洋和南极洲威德尔海的探险。在我的实验室里,我和学生们对这些探险活动中获得的岩芯样本进行研究。这些长31英尺、宽3英寸,类似圆柱体的样本就像一本本书,等待着人们解读其中的信息。拿起一块新打开的岩芯,里面充满了来自地球海底的岩石和沉积物,就像打开一个罕见的宝箱,里面记录着地球历史流逝的时光。
这一反思进而引出一种对近代以降主流伦理学的批判性识见。如今的伦理学可谓主要致力于概念分类、思想实验和论证构建。伦理学课程旨在教导学生批判性地检视各种伦理观点和理论,只培养学生智力上的德性,而不是道德德性[8]。在这种思想实验中,不同的规范性道德理论旨在为复杂背景下应如何选择给出最佳理由。学生常被置于一个复杂的道德案例中,教师然后指出康德主义者根据普遍道德律令会怎么做,功利主义者根据最大化的善又将如何,却抽离或无视了与选择紧密相关的情感、欲望等道德心理状态和品格,以及行为主体的整体伦理生活和目标。后者对道德心理学的理解恰是根本性的,并且是当今道德哲学的核心[9]。
一是各地成立由党政领导和植保技术干部组成防控领导小组,进一步细化工作方案,落实专人,负责组织、协调和指导农作物重大病虫的监测与防控工作。二是严格执行工作管理制度,将工作目标量化、细化,将软管理转变到严格执行考核管理。
傣族织锦在长期的历史发展过程中,在纹样的构成上形成了相对固定的形式,并蕴含深厚的文化内涵,而这些纹样构成形式都可以重新提取应用在现代服饰图案设计中。将传统织锦纹样按照新的构思重新组合,或者加入新的时代元素,创造出具有新的内涵的现代图案,以形成全新的视觉效果。其次傣族织锦的创新应用也可以根据自己的意图可结合不同的工艺技法如绣法、针法、线型等装饰工艺进行再整合,或结合不同肌理的面料进行设计,增强服装的层次感,创造出新的服装设计的视觉效果。
这都表明,联结主义关于模拟大脑出色运作的模型和理论,有望与亚里士多德意义上的主体如何在道德上出色行动的说法构成相互支撑和补充,从而使得具有“德性”的无人驾驶计算机系统设计,成为更优的可能选项。
(1) 对预定目的的正确趋向
人们可以发现,已完成的神经网络系统和德性均表现出对预定的功能性活动的正确趋向。德性论认为,道德的最终目的是优秀的行为活动而非正确的道德判断。仅有正确的道德判断不足以作出优秀的道德行为,还需要通过训练培养使之具备实现目的的优秀行为能力。同样,“有道德的”无人驾驶汽车的目的在于输出优秀的道德行为活动,而非输出基于规则的道德判断。正如具有德性意味着通过培养训练而具有特定行为能力并在适当情境下“自然顺畅地”实现出来一样,联结主义神经网络亦表现出一种目的性以及对环境的适应[17],即有能力在其感知到的环境中做正确的事,比如模式识别(pattern recognition)训练会带来对目的模式的“积极”趋向和偏好[19]36-38。这意味着,联结主义的系统具有一种在合适情况下作出适当行为的倾向,从而使人工智能体的道德行为成为可能。
(2) 基于“神经可塑性”的适应性
受训练的神经网络系统有望像德性一样,基于一定程度的“神经可塑性”(neuroplasticity)稳固而灵活地表现出特定倾向的行为。德性来自于习惯化,有证据表明,习惯化训练会强化大脑神经元突触的相关联结能力,使相关行为功能更易于发挥,促进该行为回路在未来良好稳定地表现,并为判断、决策匹配随机情境提供可能[20]。类似地,一个训练好的网络擅长完成其任务或追求其目标,能在面对现实世界的挑战时表现出强大的灵活性。由于神经网络主要基于模拟大脑运作方式的并行分布式处理进行计算,故相较于传统的序列式处理(serial processing)更为快速和强大,同时具有功能上的持久性:即使在有噪音输入、过载或单元破坏的情况下,神经网络也仍然能进行适当回应和较好表现,而不像在经典的符号化计算机系统中那样通常导致灾难性故障。
与人适应情境的能力类似,神经网络通过机器训练不断调整单元联结权重,从而能获得适应情境(新数据)的能力。权重训练越好,模型预测准确性就越高。比如,在卷积神经网络中,由于图像数据与网络拓扑结构契合度高,即使输入较少数据,仍有较好的输出结果。这样的神经网络可以识别出新的人像表情图像,甚至能将被部分遮挡的图像正确识别出来。
尽管网络中单个处理单元的功能结构并不复杂,但通过改变网络结构形式、隐藏层数量以及引入激活函数,神经网络的动态行为却趋向复杂,赋予其从线性不可分到非线性分类等多样化的模型表达能力,对应包含多条件、多因素和模糊性的现实问题。这意味着,神经网络擅长处理非线性困难,尤其适合解决有许多冲突的约束条件并行的问题。这些问题大量存在于实现道德活动所需的对象识别、计划安排、运动协调等认知任务中。相比经典的认知符号理论,由于神经网络是通过基于实际表现与输出目标如何相匹配的反馈而调整行为来学习的,因此用神经网络表示的知识远远超过可用语句公式表示的知识[21]。换言之,神经网络模型提供了更自然而强大的机制来处理上述问题。
将两组患者术后的并发症情况进行对比,实验组并发症发生的概率为6.67%,参照组并发症发生的概率为22.22%,两组患者数据对比分析,χ2=4.405 6,P=0.035 8,差异有统计学意义。
(3) 自然地范畴化与规则整合
神经网络有望自然识别和建构以德性原型为主的范畴,继而可依据原型预测并进行道德输出;同时德性规则和推理还可引导、调整和修正原型的输出结果。
在认知科学那里,范畴化(categorization)是我们建构关于世界的知识的基础,是认知的最基本现象[22]。通过范畴,我们可以迅速理解和应对日常社会生活中遇到的事物。某物之所以成为某一范畴的成员,或者因为它与该范畴的其他成员共享本质特征(古典观点如亚里士多德和本质主义),或者因为它与最能例证该范畴的原型(概率观点如维特根斯坦和原型)具有共同特征。当我们把范畴进行词汇化表达时,就有了概念,概念继而构成命题,乃至图式[23]。
道德认知亦基于范畴化作用,范畴的不同导致行为含义的不同。比起经典的符号主义,神经网络模型尤其能“自然地”识别或构建范畴(原型),无需精确的指导概念或范畴上的指导和编程。通过网络结构和激活函数的相互配合,神经网络能在样本所隐含的统计学特征中发现基本的区别,从而把更高层级的激活空间划分到范畴及子范畴层次结构中,同时反向传播过程稳定缓慢地压缩迫使神经网络对所涉及的范畴变得敏感。比如人脸识别的神经网络训练在中间层自然地展现了“人脸”与“非人脸”的范畴,以及“男性”与“女性”的子范畴等。换言之,神经网络的学习产生了服务于所要求的功能的概念框架或范畴,相互关联的范畴系统的激活是该网络复杂的输入—输出行为的原因。这非常类似于物理大脑的活动引起的心灵认知活动的某些可见特征[19]83。
由于原型代表了一组范例的统计学上的中心趋势,因此神经网络还可以运用循环网络结构来辨识原型的时间性过程序列的实例,并通过辨识过程序列或行为的早期阶段,而能在统计学上预测相关的将来事件或行为的规律性[19]104-106。据此,神经网络在理论上可以预测道德事件的后续情况,而这远不是通过执行道德规则所能达成的。
原型提供了对德性诸概念更整体更动态的范畴化把握。人的道德能力同人的认知能力一样,远超过人用语句来表达的能力。道德情境下对面部表情、声音、情感等的复杂认知就是如此,比如我们对“勇敢”这一德性原型的日常具体把握和回应要远超过“勇敢”的相关语词表达。原型被证明有望更好地把握道德认知中的语言和非语言的要素[21]。原型使我们能合适地应对新的但仍可被分类进已有范畴的范例或样本。在现实中,我们或一个网络系统面对一个新的社会道德环境的反应可能一开始是道德困惑、不知所措,然后通过发现一些背景知识或具体情境信息,突然就能完成从困惑到理解的转变,并将这一新情况整合进已有的熟悉的道德原型中去,从而作出适当应对。这种道德洞察力和灵活性有望通过神经网络的循环网络(RNN)结构来达成,其中,信息从中间层下降循环到感知层,弥补感知输入中的缺失部分,而当循环的系统最终激活了预先习得的相关原型的时候,之前的模糊的认知就突然成功地转变为可理解的了[19]115。
这恰恰不同于对德性伦理学的某些指责,即认为由于其对正确性的解释不是基于规则的,因而缺乏解决道德两难的资源。事实上,德性作为原型,有望提供更多资源来应对并评价道德两难中的行为[26]247。
这种范畴更是“家族相似”或原型意义上的,其代表了一组范例的统计学上的中心趋势或者说最典型的样本特征和特征关联,而非依据必要和充分条件、“如果—那么”等硬性规则作出的定义描述[24]111-113。类似地,诸伦理德性概念尤其适于被理解为“家族相似”的原型[25]。
然而这也昭示了其限度:电车难题受近代以来的主流道德理论影响,强调行为正当即道德优良,进而假设行为的正当性以普遍、抽象的道德原则为依据,而主要的普遍道德原则类型即后果论和道义论。电车难题片面突出了依据上述原则而导致的线性不可解的道德分歧,易使人失察于那些据以进行判断并采取行动的道德细节,从而可能导致对“两难问题”本身的反感。电车难题忽略了道德能力是高度情境敏感的[7]123,同时抽象的道德分歧并非是具体情境下以及非线性不可解的。我们的道德能力并不限于依据抽象原则自上而下地行事,而仅仅依据道德原则也并不能完全决定道德上的对错,更遑论能带来令人满意的道德活动和道德生活。
在智能楼宇个别应用上,目前已具备初步的联动控制,如安防管理方面,火灾系统与广播、视频监控、门禁系统的联动,空调暖通设备与环境传感器的联动实现了楼宇室内空气、温湿度等环境的智能调节。但上述的联动策略是在专业的接口开发基础上完成的,是固化的。用户无法根据实际的系统管理需求和运行场景进行灵活调整,实现联动策略的自定义。
显然,近代以来的主流道德理论影响了构建道德问题的方式,继而影响了对无人驾驶汽车道德算法问题的看法。一般认为,无人驾驶汽车在被迫情境下的选择,依赖复杂算法的预先编程,而这些算法最终建立在我们的道德原则和伦理预设上。对无人驾驶汽车的道德考量之所以催生了新版电车实验,是因为我们可能觉得,只要基于抽象普遍的道德原则,无人驾驶汽车的相关行为在某种程度上就是道德可辩护的,道德问题也有望解决。也即,一旦道德原则能被施以准确的符号化表述,道德地行事就变成了遵守规则的问题;无人驾驶汽车需要做的就是计算其可能的行为是否被规则所允许,以采取行动[7]83。
第二,“互联网+养老”模式有助于实现养老服务的全覆盖和专业化提升。在大数据技术的支持下,“互联网+养老”模式可以针对不同养老需求提供多层次、多样化、个性化的具体服务方式,使“互联网+养老”模式呈现全方位养老服务部署的态势,从而实现养老服务对象、内容、过程和环节的全覆盖。另外,由于大数据技术可以提供精准信息分析,帮助工作人员和机构能够提供更为精确的服务,这也养老服务行业的专业化提升奠定了基础。
其中,K1,2为相互同意度,M为评判者之间一致同意的类目数,N1、N2分别为第一、第二评判者分析的类目数。
在德性的获得问题上,有望通过在以原型训练为核心的神经网络中整合道德规则和推理的方式来实现。德性论认为,德性来自于受榜样影响的习惯化训练,同时还要求发展能因时因地慎思道德目标、推理其实现手段并作决定的实践智慧。与此类似,神经网络的道德学习主要是道德样本驱动的原型训练,以产生有等级的道德原型,最终使系统具有适当的行为倾向和能力[19]146,[24]112。
一般说来,监督学习和无监督学习都用样本进行训练:先随机设定某些权重,然后考察从输入到输出的误差,通过比照完美的样本,运用反向传播方法一层层修改,反复调整权重,直到输入输出的结果尽可能完美地匹配样本,随后冻结权重,训练结束,我们就有了一个初步完成的网络可供测试[19]42-45。正如儿童需要大量故事、家长的言行和评价的榜样来克服错误的榜样影响一样,在训练中还应注意数据的量和质的选取:尽管在理论上,机器学习有望通过海量数据穷举样本从而推动模型趋近完美,但仍需要公平而具有代表性地选取不同类型样本以尽可能避免功能训练上的不全。
要应对可能的道德冲突或困难,除了对诸原型的训练和分级把握之外,如前所述,还需要把道德规则和推理作为向量变换整合进神经网络中以调整、引导原型,而这被证明是有可能的:“精确的逻辑推理和更灵活的模糊推理在必要时都可以在联结主义的网络中进行,从而有望在网络中实现具有完全的复杂性的符号图式”[27]。
也许两个人分布两边,一个带着赖秀金在贴隔壁绿屋夫人门前看橱窗。女孩子看中了买不起的时装,那是随便站多久都行。男朋友等得不耐烦,尽可以背对着橱窗东张西望。
在建构“有德性的”无人驾驶系统的探索中,有研究者指出,适合的目标德性应该包括正义、仁善和勇敢[28]。正义意味着守法,其可以从无人汽车的驾驶技巧训练开始,把交通规则和相关法律法规引入操作系统,学习比如按法规要求保持车道、限速内行驶、规范变道和超车等。仁善意味着无人驾驶汽车应促进相关的人的善,包括乘客、行人及其他道路使用者等。无人驾驶汽车要学习诸如既给予乘客和车主以优先权,又不剥夺其他车辆和行人的通行权的行为。勇敢则涉及应对危险,即发展对驾驶过程中的风险的正确评估和应对行为。决定一个适应交通状况的安全速度就可谓勇敢的表现之一,同时在紧急情况下,作出最优的碰撞决策并有效实施,或者寻求对问题的创造性解决方案而非遵循一个保守的规则也可被理解为勇敢。
要习得和发展这些德性及其行为,有望在一个结合了自下而上的机器学习与自上而下的符号推理的神经—符号(neural-symbolic)统一体中来实现。其中,符号性的道德知识首先被转译到神经网络中,然后与经由该网络进行的德性样本及其范畴的学习形成双向反馈并对诸范畴执行自动化推理,进而激活并输出相应的行为模式。最终,可以从该网络中抽取符号化的道德知识并与初始输入的道德知识形成反馈的循环闭环以供解释、验证和修正系统。采用这一架构的NSCA(神经符号认知行为体)系统已被成功地用来训练和评估驾驶行为,包括车辆控制、经济性驾驶、交通流、社会—安全驾驶等,并能结合推理与学习,在模拟器上完成诸如“经十字路口让行右方道路来车”等较复杂的驾驶行为[29]。
对于被转译到网络中的基于规则的初始道德知识,有研究者认为,它们应该是公开、透明和得到广泛认同的,比如在不可避免的碰撞情境下,需设定“人身伤害比死亡更可取”,“财产损害相较人身伤害更可取”,“优先保护易受伤用户”等规则。在规则无法涵盖的情境、规则间冲突或道德行动不能被确定的情况下,车辆都应该首先被设计为刹车或规避[30]。
上述神经—符号系统还可以结合遗传算法来优化:即以一组被广泛认可的初始行为和道德规则作为“初始种群”,根据“适者生存、适者繁衍、有性重组和变异”的原则,不断产生出新一代种群(即后续的行为和原则),直到找到最优的问题解决方案[31]。这种方法能促使神经网络有效地“习得”和改进一套道德习惯,其中,习得的道德行为的各方面特征可以重新组合甚至被部分地消除,以达到最优解。
需要指出的是,这些“习得”的品格及其相应行为的展现并非是一直持续输出的,而是通过在神经网络中与自下而上的情境约束以及自上而下的高级认知约束的动态整合实现出来。有研究者以一个包含勇敢、正直等相关品格的通用神经网络为例,说明了这些品格力量如何与上述约束通过多层神经网络动态地结合,从而在条件达到时输出适当的道德行为。在这一框架中,经由外在传感的“线索层”和“高阶认知层”(包括目标任务、基于规则的道德知识等)输入的不同信息,各自依据不同权重而被双向传导至中间层的“道德相关的情境信息层”和“品格力量层”,继而激发或抑制其中的范畴性节点如“自身风险”“伤害他人的机率”“公正”“对内/外组织的忠诚”“勇敢”“正直”,再双向传导至“行为范畴层”,激发或抑制该层相应的范畴性节点,以输出相应类别的行为,包括“不行动”“救援”“照料”等[32]。为训练这些品格,还需建立相关的案例库,除运用现实的道德行为样本外,还可运用虚拟的、来自大众媒体的影音样本、游戏样本以及模拟对抗性训练等。
各受热面吸热量变化规律与各受热面传热系数变化规律相同。烟气流速比从0.6提高到1.4,分隔屏和后屏受热面吸热量均略微增加;对于对流受热面,烟气流速每提高10%,高温过热器吸热量增长1.90%,省煤器吸热量增长5.31%。具体结果见图2和图3。
最后,有效的道德决策和行为作为无人驾驶系统程序的一部分,离不开高质量的外部输入系统和高效的执行系统。无人驾驶汽车需要与其他车辆、制造商服务(如软件更新系统)、智能交通系统、智慧城市、物联网连接起来,结合来自车内的数据与来自环境(如其他车辆、道路、标志、云服务)的外部数据以便决策和行动[33]。
对于理想化的“不可解”的电车问题而言,其工程学的求解意味着在无人驾驶汽车上实现这样一个过程:无人驾驶汽车从环境认知开始,运用多种传感器探测并获取障碍物的详细信息(如人、动物或建筑),利用外部系统(如GPS、地图、街道标志等)或本身可得的信息(如速度、方向等)探查车辆的当前状况和情境,然后计算机程序计算解决方案并选择后果最优的方案,接下来汽车执行计算后的行为,最后重复整个过程。在一个复杂的无人驾驶系统中,该系统的各部分及其构造方式都会对决策和执行产生关键性的影响,涉及诸如传感器的质量、代码(包括道德代码)和测试等重要方面,可以说,无人驾驶系统的有效道德决策和行为有赖于整体系统的多功能融合。
正如AlphaGo基于神经网络学习围棋并变得“聪明”一样,无人驾驶汽车在未来的行车上可能比我们做得更好。每个系统都会收集梳理经验教训并始终如一地应用,同时能与其他无人驾驶汽车和外部系统保持联系并分享。无人驾驶汽车是机器人,它们只有我们给予的目标。因此在需要的时候,它们会立即采取行动保护人类生命,不考虑自我保存或经济成本,不受任何困扰人类的意志和情感的影响。
在对无人驾驶汽车的训练上,最好使用模糊的引导和调整规则以及神经网络,而不是用一套过于规定性的规则来规定其道德选择。它们最终能根据对经验细节的敏感性和对可能性的评估作出判断并表现出道德行为,而这很大程度上是任何软件工程师都无法事先预测或事后复制的。
同时,就无人驾驶汽车的道德设计带来的对伦理学的反思和新认识而言,我们最好不要忽视伯纳德·威廉姆斯曾说的:“我的结论毋宁是,现代世界对伦理思想的要求是前所未有的,而大多数当代道德哲学所体现的理性思想不能满足这些要求; 但是,古代思想的某种延伸,若经过很大的修改,也许能够做到这一点”[34]。