潘宇翔
2017年12月24日,第四届全国赛博伦理学暨人工智能伦理学研讨会在湖南长沙召开。本次会议由中国自然辩证法研究会科学技术与工程伦理专业委员会、国家社科基金重大项目“大数据环境下信息价值开发的伦理约束机制研究”课题组、湖南师范大学公共管理学院、湖南师范大学人工智能道德决策研究所、教育部人文社科重点研究基地湖南师范大学道德文化研究中心和《伦理学研究》杂志社联合举办。来自中国科学院、上海交通大学、国防科技大学、华东师范大学、华南理工大学、中南大学、湖南师范大学、杭州涂子沛数据科技咨询有限公司和红网等高校、企业和媒体五十多名代表参加了会议。大会围绕“大数据时代的信息伦理与人工智能伦理”这一主题,探讨人工智能的道德哲学、道德算法、设计伦理和社会伦理等问题。
国家社科基金重大项目“大数据环境下信息价值开发的伦理约束机制研究”课题组首席专家、湖南师范大学人工智能道德决策研究所所长李伦教授简要介绍了该所的发展历程、宗旨和任务、研究团队和在研项目、学科和研发平台等,并做了题为“人工智能伦理研究的四大板块”的报告。他根据人工智能的特征及其与社会的关联,以及目前全球人工智能伦理研究的状况和趋势,认为人工智能伦理研究可概括为四大板块:人工智能道德哲学、人工智能道德算法、人工智能设计伦理和人工智能社会伦理。这些板块相互关联,又拥有相对独立的讨论域。人工智能道德哲学主要探讨传统道德哲学如何面对人工智能的挑战以及人工智能如何促进道德哲学的发展;人工智能道德算法主要研究如何开发道德算法并将其植入人工智能,使人工智能能够做出合乎道德的决策;人工智能设计伦理主要关注人工智能设计和制造的伦理准则,使人工智能的设计与人类价值保持一致;人工智能社会伦理主要探讨人工智能应用的社会后果,探讨如何善用和阻止恶用人工智能,使人工智能造福于人类。
颜青山认为,人工智能的道德地位问题是一个真正新的道德难题,它可表述为“我们如何确定人工智能是或不是一个人格实体?”解决这个难题涉及“他心难题”及其变种“机心难题”。解决他心难题的方案对人工智能都可能是失效的。机心难题本质上是一个元伦理学或道德形而上学问题,但这个在元伦理学层次无法解决的问题可以在规范伦理学的层次上得到解决。他根据人格伦理学和手段伦理学的规则提出对待人工智能的原则——“选言命令式”:一个实体及其运行,要么冒犯了人,要么尊重了人。应该将一个冒犯人的实体看作既非目的也非手段的实体:当它是心灵实体时,限制其自由;当它是非心灵实体时中止其运行。应当尊重一个尊重你的实体的运行规则:当它是心灵实体时,尊重其本身;当它是一个非心灵实体时,尊重制造它的人。
卢卡斯-彭罗斯论证是指“利用哥德尔不完全性定理可以得出人心胜过机器(图灵机),心灵是不可计算的。”费弗曼指出彭罗斯论证的疏忽,试图调和机械论和反机械论的完全对立,并提出开放模式的公理系统表示心灵的数学能力。刘大为认为,卢卡斯-彭罗斯论证需要加上一些理想化的假设,尤其应该对彭罗斯论证中“F是健全的”这一断言予以澄清和补充,并在借鉴卢卡斯-彭罗斯论证和费弗曼论证的基础上,考虑数学理解力和环境的重要性,尝试提出基于完全开放的数学形式系统的心灵模型。
李熙通过“无免费午餐定理”说明机器学习为了获得通用性为什么必须诉诸形而上的“善”,但仅有形而上的基本“善”远不能保证智能体的行为符合人类的主流价值观,为确保人类利益,还需要为机器赋予人类的价值观,最直接的方式是为机器赋予符合人类利益的效用函数,但智能体在计算期望效用最大化、以追逐功利主义的“善”的过程中,不可避免地会侵占人类的资源。为了让机器符合人类利益,保留关机中断权,把风险降到最低限度,需要巧妙融合形而上的“善”与功利主义的“善”,进行“先验”与“效用”的转化,并灵活运用逆强化学习或价值强化学习。
张含认为,延展心智论题近年来在认知科学与心智哲学领域获得了广泛的关注与讨论。按照延展心智论题,作为心智重要组成部分的信念、欲求等心理状态并非局限于人类生理系统的界限之内,在某些情况下它们还可以由外部物理载体所实现。延展心智论题一经提出就挑起了一场旷日持久的“心智边界之争”。哲学家、认知科学家理查德·赫斯明克将“心智边界之争”推进至“自我边界之争”,主张颅骨体肤并非自我与世界的固定边界,自我与心智同样可以延展于世界之中。张含对所谓“延展自我”进行批判性分析,捍卫自我的传统边界。
孙保学认为,人工智能算法伦理研究的内涵即为算法在道德上的可接受性问题。这种可接受性的价值导向会使研究者的兴趣和关注点主要聚焦于以下两类算法:人类很难预测其行为后果的算法,以及算法造成的事实背后的决策逻辑难以解释的算法。算法所引起的伦理问题与其他技术引起的伦理问题具有明显的不同。算法伦理的问题域需要从算法的自主性特征、应用性场景和归责性困境三个方面来划定,并以此为基础对算法的伦理风险进行分析。
张卫认为,随着自动驾驶汽车的出现,“电车难题”呈现出新的特点。传统“电车难题”中的道德决策者是人,而自动驾驶情景中的道德决策者是安装在汽车之中的人工智能系统。传统“电车难题”中的决策者自身不是决策结果的直接利益相关者,而在自动驾驶情景中,购买和使用自动驾驶汽车的车主既是事件的决策者,也是事件的直接利益相关者。
余露以罗尔斯式算法为例讨论自动驾驶汽车的伦理算法及其限度。她认为罗尔斯式的算法在自动驾驶汽车应用中可能面临三个方面的异议:一是生存与生存价值何者更为重要;二是会带来反向不公,安全系数较高的自动驾驶汽车将成为“目标”;三是这是反直觉的。因此,我们需要重新认识罗尔斯“最大化最小规则”。最大化最小规则并非不确定性选择的可靠指导,它仅在某些境况下有效,而且它还有一些限制条件,如正义的主题是社会的基本结构,自由具有优先性,公平的机会优先于差别原则。
李杨从实验伦理的角度谈论了自动驾驶汽车,并对人工智能道德决策提出了建议。他调研的结果显示:第一,人们对人工智能抱有高度期望。第二,人们将道德责任转向其他不在场的人而非人工智能。第三,在人工智能的伦理研究中采用实验和调查的方法能够为我们提供充分的数据资源,可以根据人们对待人工智能的态度构建人工智能的道德体系,使其做出符合公众期望的道德决策,由此谋划出一套适应于公众道德意识的人工智能的道德规范和道德决策程序。
王淑庆认为,要使人工智能体的行动符合相关伦理规范,最好使其具有道德决策的能力,可设想的必要工作之一是把伦理原则或规则形式化。尽管形式伦理学的初衷并不是面向人工智能,但其做法却适用于人工智能。伦理规范的形式表达必须基于某种逻辑语言及其推理规则,而经典逻辑是不够的,所以有必要发展与行动、道德相关的逻辑来适应形式伦理学的需求。从单主体的角度看,能动性逻辑是形式伦理表达最为合适的逻辑。人工智能体之间或人机之间要实现协作行动,目前最为可行的逻辑基础是多语境系统。
闫坤如从如下方面讨论了智能机器人的设计伦理。第一,从机器人设计目的上明确机器人用途,使智能机器人的种类高度专业化,减少“万事通”型机器人,做到专机专用。第二,机器人设计应以安全性为目标,不得利用机器人的法律真空做出逾越法律的事情。第三,机器人的设计者要对可能出现的伦理问题做出足够的论证,使机器人的设计有益于人类。第四,机器人的设计要关注公平和正义,避免扩大主体间权力、地位上的差距。
文贤庆认为,人工智能作为一种技术必然带有价值偏好。首先,技术出现其中的社会体制、实践和态度已经预先存在社会价值;其次,技术本身是有条件的;最后,技术使用环境中总会出现突发情形。也就是说,人工智能的设计不可能是价值中立的,它总是受到个人主观意图和社会价值的左右。如果说设计伦理还只是揭示了人工智能作为技术不可避免地带有价值偏好,必然导致伦理问题,那么人工智能带来的应用伦理问题将会把这些具体问题进一步展开。
董军以关注隐性知识的心血管疾病分析为实例,认为人工智能经过六十多年的成长,基本观念似已“飞入寻常百姓家”,而其进步依然有待宏观的方法论指导和微观的认知神经科学结论的支撑。从智能模拟的核心是思维模拟出发,问题之一是长期积累的经验中的难以言表的隐性知识的挖掘与刻画,包括对象特征识别、推理规则精化等,需要机器学习和逻辑推理的融合。
陈自富针对历史上人工智能研究纲领若干经典的冲突,从科学研究纲领方法论的问题转换角度指出,作为技术科学的人工智能理论的多元化竞争格局将长期存在,科学和技术实践对经验上的反常具有较强的解释能力和容忍度,很难从个别的判决性实验出发实现研究纲领退化的问题转换。我们应基于这些特点,对人工智能理论的未来发展做出更加全面的预测或判断。
孙伟平认为,人工智能具有积极的社会效应,但由于人们思想观念滞后,政策取向不清晰,伦理规制缺失,法律法规不健全,人工智能使人类面临巨大的不确定性和风险,造成诸多社会价值冲突和伦理困境,如挑战人的本质和人类的道德权威,冲击传统的伦理关系,造成数字鸿沟,解构社会。我们必须对人工智能及其应用后果进行全方位的价值反思,制定智能社会的价值原则与综合对策,立足“可能性”审慎地决定“应该”怎么办,确立不容逾越的基本价值原则,启动“兴利除弊”的社会系统工程,将人工智能纳入健康发展的轨道。
童光政指出,大数据时代的信息伦理与人工智能伦理问题是不可回避的重大问题。人工智能对个人隐私、经济安全、就业结构和社会稳定具有多重影响,对现行法律和社会伦理构成挑战。面对这些新问题和新挑战,我们必须深入讨论并提出一套具有技术操控性和价值合理性的规范体系,如秩序、安全、平等、正义、高效等价值,在此基础上提出人工智能在各领域应用中的具体规范,确保人工智能安全、可靠、可控的发展。
杜严勇认为,无论人工智能是否会超越人类智能,人工智能的安全问题都是人工智能社会伦理的核心问题。他认为解决安全问题至少有内部、外部两种进路。从内部进路来看,需要对人工智能产品进行伦理设计,对一些发展尚不成熟、容易引起安全问题与社会争议的技术的应用范围进行限定,限制人工智能的自主程度和智能水平,建立人工智能安全标准与规范。从外部进路来看,要增强科学家的社会责任意识,调整公众的接纳度和观念,加强人工智能安全评估与管理。
石海明认为,在人工智能社会,军事的时代意蕴将发生重大变革。从自然观与战争观来看科技正在颠覆思想,人工智能是导向后人类战争的桥梁,后人类战争正在崛起,后人类时代再次开启了人类进化之路。我们必须对这些变革保持敏感,并做出及时的反应。
张煌认为,随着无人机系统智能化水平和自治能力的不断提高,原来作为纯粹作战手段的武器逐渐成为战争主体。无人作战条件下人机集成共同扮演主体角色,冲击正义战争理论关于责任主体与责任分配的固有认识,导致无人机的责任分配困境和责任转嫁等问题。具有智能化特征的无人机成为战争责任的主体,还可能削弱定义军人职责的道德根基。
涂子沛回顾了人工智能发展的三个阶段,认为每一次发展的背后都是计算能力和数据容量的突破,计算能力和数据容量的突破就有深刻伦理意蕴。在第一阶段,人工智能是在人赋予其知识之后来执行推理和分析的任务;人工智能发展到第二阶段后,人类赋予人工智能知识;第三阶段是机器学习。他对图像人脸识别、语音识别等迅速发展的技术进行了讨论,认为人与技术之间的关系呈现出一种异化,人越来越像机器,机器愈发具有自主性,这些问题需要社会各界进行深入讨论。
(潘宇翔,湖南师范大学人工智能道德决策研究所研究生)