杜严勇
随着人工智能科技与产业的快速发展,人工智能引发的伦理问题日益突出,引起了国际组织、各国政府、学术界及社会公众的高度关注。在世界各国竞相加大人工智能科研投入的历史背景中,的确应该加强对人工智能的伦理反思。只有从伦理、法律等角度对人工智能科技进行合理的引导与规范,才能使其真正给人类带来福祉而不是威胁与伤害,其重要性并不亚于人工智能科技本身的发展。
人工智能伦理风险及其防范研究既有来自人工智能、机器人学、计算机科学、认知科学等领域的科学家与工程师,也有来自未来学、科技哲学、科技伦理、公共管理、法学、社会学等领域的人文学者,研究人员的学术背景、研究目标与思维方式等方面的差异使得相应的研究侧重点及学术观点存在一定差别。因此,本文尝试就人工智能伦理风险防范研究的“现状与前景、战略目标聚焦与当前主要任务”等若干基础性问题做出初步探讨,以期引起更多的讨论,从而在一定程度上凝聚共识、形成合力,切实推动人工智能伦理风险防范研究走向深入。
人工智能伦理问题很早就得到学术界的关注。图灵(Alan Turing)于20 世纪50 年代曾多次论及人们对机器智能的发展可能产生的焦虑与担忧。①Jack Copeland,The Essential Turing:Seminal Writings in Computing,Logic,Philosophy,Artificial Intelligence,and Artificial Life, Oxford:Oxford University Press,2004,p.485.20 世纪60 年代,美国哲学家普特南(Hilary Putnam)撰文讨论人类应该如何看待机器人的生命与权利等问题。①Hilary Putnam,Robots:Machines or Artificially Created Life?,The Journal of Philosophy,1964,Vol.61,No.21,pp.668-691.20 世纪80 年代,就有美国学者开始较为全面地讨论人工智能伦理问题,包括建构人工智能是否合乎伦理,人工智能是否拥有权利、情感,是否可以进行道德判断等问题,②Michael LaChat,Artificial Intelligence and Ethics:An Exercise in the Moral Imagination,The AI Magazine,1986,Vol.7,No.2,pp.70-79.等等。但总地来说为数较少,也没有产生较大的影响。
人工智能伦理引起西方学术界的普遍关注是从2004 年开始的,其标志性事件是于2004 年1 月在意大利圣雷莫召开的第一届机器人伦理学国际研讨会,会上正式提出了“机器人伦理学(Roboethics)”这个术语。机器人是人工智能研究的一个重要分支学科,在许多讨论人工智能的著作与论文中都有涉及机器人的内容。这两个概念当然是有区别的,但从科技伦理研究的角度看,机器人伦理与人工智能伦理的基本观点、理论与方法在很大程度上是通用的。此后,机器人与人工智能伦理研究很快得到越来越多的学者的关注。许多英文期刊如《IEEE 智能系统》(IEEE Intelligent Systems)、《信息技术与伦理》(Ethics and Information Technology)、《人工智能与社会》(AI &Society)、《心灵与机器》(Minds and Machines)等刊载人工智能伦理研究论文,或者出版专刊。《心灵与机器》2017 年、2021 年开辟“人工智能与机器人伦理”专刊,《信息技术与伦理》在2010 年、2012 年、2013 年、2016 年、2017 年、2018 年、2020 年和2021 年,开辟专刊讨论机器人与人工智能伦理问题。在谷歌学术中搜索“artificial intelligence ethics”,可以找到近百万条结果,西方学术界对相关研究之关注可见一斑。
中国政府与学术界同样高度重视人工智能伦理研究。早在1992 年,杨通进、张业清在《科学与道德》第五章《机器人计算机伦理问题分析》中就探讨了机器人与计算机可能引发的伦理问题。③杨通进、张业清:《科学与道德》,太原:山西教育出版社,1992 年,第128—147 页。之后中国学者对包括计算机在内的信息技术伦理研究关注较多,而对机器人与人工智能伦理却涉及较少。中国学者主要从2013 年开始发表人工智能伦理的研究成果,从2017 年起论文数量大幅增长,其中中国知网上能够查到的2020、2021 两年中发表的期刊论文题名中含有“人工智能+伦理”的论文就有两百余篇,实际相关论文显然更多。许多学术期刊纷纷开设关于人工智能伦理研究的专刊与专栏,相关的著作亦大幅增长。可见,近几年来人工智能伦理迅速成为中国科技伦理研究中的热门话题。
从人工智能伦理研究内容的角度看,可以从宏观上将其大致分为伦理风险(问题)研究与伦理风险防范研究两个方面。伦理风险是指在人与人、人与社会、人与自然、人与自身的伦理关系方面由于正面或负面影响可能产生不确定事件或条件,尤指其产生的不确定的伦理负效应,诸如伦理关系失调、社会失序、机制失控、人们行为失范、心理失衡等。④陈爱华:《高技术的伦理风险及其应对》,《伦理学研究》2006 年第4 期。综览相关研究成果,早期人工智能伦理研究论著,大多数主要聚焦于澄清伦理问题、剖析伦理风险,虽然不少论著或多或少地都涉及伦理风险防范的内容,但总地来看风险防范问题不是学界关注的重点。
随着人工智能伦理风险研究的深入,特别是一些现实伦理风险的凸显,人们愈加重视伦理风险防范研究,而且不仅仅局限于理论探讨,而是逐渐落实到社会政策、规章制度等更具体更现实的方面。近五年来,无论是联合国与各国政府,还是各类学术团体与企业,都热衷于制定、发布涉及人工智能伦理风险防范的各类规划、宣言与报告。据不完全统计,相关材料有近百种之多。也就是说,人工智能伦理风险防范的学术研究与政策制定,是在人工智能伦理风险研究产生一定影响之后,才引起较多关注的。需要注意的是,法学家对包括伦理风险在内的人工智能风险防范研究比哲学家更为重视。人工智能风险防范研究的论文有相当一部分发表在法学类期刊而非哲学类期刊,即是明证。不过,从总体上看,对于如何对人工智能进行科学有效的伦理风险防范,包括具体的防范目标、进路、机制与策略等,相关的研究与实践尚处于初创阶段。
尽管相关研究才刚刚起步,但其具有极为重要的社会意义。可以看到,很多国家都发布了国家层面的人工智能发展规划,而且绝大多数都强调要重视对人工智能伦理风险的防范与治理。中国政府同样高度重视相关问题,在2017 年7 月国务院发布的《新一代人工智能发展规划》中,对于人工智能伦理风险防范亦提出了具体的要求。2018 年10 月,习近平总书记在中共十九届中央政治局第九次集体学习时指出:“人工智能技术发展和其他技术进步一样,也是一把‘双刃剑’。由于技术的不确定性和应用的广泛性,人工智能发展可能带来改变就业结构、冲击法律和社会伦理、侵犯个人隐私、挑战国际准则等问题。……我们要未雨绸缪,加强战略研判,确保人工智能安全、可靠、可控。”①中共中央党史和文献研究院:《习近平关于防范风险挑战、应对突发事件论述摘编》,北京:中央文献出版社,2020 年,第79 页。
政府层面的高度重视既彰显了相关问题的重要性与紧迫性,也为相应的学术研究提供了强有力的政策支持与资源保障。另外,人工智能伦理风险防范研究在学术探讨的交叉性与直接的社会效益两方面发挥的重要功能,也可以证明其具有的光明前景。
从学术研究交叉性的角度看。相关研究可以搭建人工智能科技工作者与人文学者的合作平台,促进科学文化与人文文化的融合。人工智能伦理风险防范需要相关领域的科学家、工程师、政府管理人员、人文学者与社会公众积极对话与合作,才能真正解决问题,任何一方的缺席都可能导致伦理风险防范的失败。腾讯研究院院长司晓等人认为:“尽管人们对人工智能未来将走向何方众说纷纭,但对人工智能加以伦理规制,已经成为一个基本共识。”②司晓、马永武:《科技向善》,杭州:浙江大学出版社,2020 年,第6 页。不过,尽管人工智能科学家、工程师与企业家等已经认识到了人工智能伦理风险防范的重要性,但在伦理思想资源与方法应用等方面亟待人文学者的支持与配合。目前,人们已经开始尝试通过建设人工智能联合实验室、学术论坛等多种形式进行合作与对话,已经取得初步成效。随着人工智能伦理风险防范研究的深入,所有利益相关者的对话、合作与交流都将成为常态,特别是科学家、企业家与哲学家的对话与合作将打破文化间的隔阂,实现多种文化的有机融合。
从人工智能伦理风险防范研究可能产生的直接社会效益来看。相关研究可以引导公众克服人工智能科技排斥与恐惧思想,进而全面客观认识人工智能的社会影响,使公众理性接纳人工智能产品。由于媒体对超级智能、通用人工智能思想的宣传,以及对当前人工智能技术的某些夸大性报道,加上部分科幻文学与影视作品的影响,导致了人工智能威胁论的广泛流行,使得不少公众对人工智能产生了一定程度的排斥甚至是恐惧心理,认为人工智能会很快影响社会就业结构,导致普遍失业与社会不公,甚至会影响人类整体的生存与发展。因此,理性批判人工智能威胁论,全面澄清人工智能伦理风险,提出切实可行的防范措施,并在现实社会中产生实际影响,有助于公众增强人类有效控制人工智能技术的信心,从而克服对人工智能科技与产品的排斥与恐惧心理。人工智能科技要得到长时期的快速发展,智能产品的产业化是一个关键因素。全面深入的人工智能伦理风险研究,可以帮助公众客观理性地认识人工智能的社会影响,并为将来的生活提前做好某些准备。人工智能伦理风险防范研究在深入探讨影响人们接受人工智能产品的各种不利因素的基础上,提出人工智能技术接受模型,从而引导公众合理接受人工智能产品,避免人工智能时代的数字鸿沟,使人工智能更好地服务于人类社会。
当然,与人工智能伦理风险防范研究的光明前景相伴随的是相关研究的动态性、长期性与复杂性。人工智能伦理风险防范绝不可能是毕其功于一役的任务,而是一项长期任务。从科技本身内在的不确定性角度看,人工智能的科技基础、管理政策、应用范围、使用效果等各个方面均存在不确定性,这些不确定性伴随着人工智能科技的所有方面,也是产生伦理风险的根源,而且不确定性的表现会随着人工智能科技的发展而不断演变。因此,人工智能伦理风险防范的目的,不是去消除人工智能内在的不确定性,事实上这也是不可能做到的,而是通过一套能够动态调整的风险防范机制,将不确定性控制在一定的可接受范围之内,与之共存,使人工智能科技与风险防范措施共同发展进步。同时,智能社会的快速发展也要求社会公众在伦理观念方面的进化与变革,人类的哪些伦理观念、道德规范应该调整,又如何调整,这同样也是一个长期性的复杂问题。因而,应该在科技与社会共同发展进化中对人工智能进行伦理规制,客观认识相关研究的灵活性、动态性、长期性与复杂性。
毋庸置疑,人工智能伦理风险防范研究对于智能时代的社会发展将发挥重要的支撑作用。在强调以下四点的基础上能够进一步凝练人工智能伦理风险防范研究的战略目标,并将相关研究与实践尽可能服务于这一战略目标。
人们通常按智能水平的高低把人工智能分为弱人工智能、强人工智能、通用人工智能以及超级智能等不同类别。尽管关于强、弱人工智能的区分存在一定争议,但两者之间有着本质性的区别这一点是公认的。有些学者认为强人工智能、通用人工智能或超级智能在不久的将来即可实现,而且可能对人类社会产生本质性的改变,比较有代表性的就是库兹韦尔(Ray Kurzweil)的奇点理论与波斯特洛姆(Nick Bostrom)的超级智能理论。但是,学术界对奇点理论远未达成共识。或许因为奇点理论在学术界受到较多的批判,加上研究人员学术观点的转变,位于美国加州的“奇点研究院(Singularity Institute)”于2013 年2 月正式更名为“机器智能研究院(Machine Intelligence Research Institute)”。近些年来,在相关的英文学术论著中,已很少有学者提及奇点概念与理论。
目前,不少学者将人工智能伦理风险防范研究的对象要么定位于通用人工智能或超级智能,要么对弱人工智能与强人工智能并未进行明确区分,这种研究对象定位的局限性是不言而喻的。定位于强人工智能、超级智能方面的风险防范研究一方面容易产生恐慌效应,造成不必要的误解,另一方面也脱离了人工智能科技与产业发展的现状,仅仅停留于理论探讨的层面,而对现实中已经产生或即将产生的问题不够重视。正如博登(Margaret Boden)所言,人类水平的强人工智能的前景看起来黯淡无光①博登:《人工智能的本质与未来》,孙诗惠译,北京:中国人民大学出版社,2017 年,第180 页。,她呼吁人工智能研究团体、政策制定者和普通老百姓更多地关注一些切实存在的危险②博登:《人工智能的本质与未来》,孙诗惠译,第197 页。。考虑到学术界对“强/弱人工智能”并未形成共识,因此,人工智能伦理风险防范研究对象应该明确定位于“现阶段人工智能”,重点关注人工智能已经和即将产生的伦理风险,同时兼顾人工智能未来的发展趋势。至于人工智能对人类的生存性威胁等较长期的风险,当然可以进行理论探讨,但不应该成为伦理风险防范研究的核心内容。
从现代科技发展与伦理法律的密切关系及其相互作用的角度来看,恰当的伦理规约并不会阻碍科学技术的发展,反而会产生积极的推动作用。相反,如果只拥有强大的人工智能科技与智能产品,而对伦理方面的内容考虑不够,很可能会导致公众对智能产品产生排斥现象,进而影响人工智能科技与产业的发展。正如上海交通大学人工智能研究院首席顾问李仁涵教授指出的那样:“AI 的前期研发主要是由其技术属性推动,大规模嵌入到社会与经济领域时,其社会属性有可能决定AI 应用的成败。”③李仁涵:《人工智能技术属性及其社会属性》,《上海交通大学学报(哲学社会科学版)》2020 年第4 期。谷歌眼镜是一款增强现实型穿戴式智能眼镜,曾经名噪一时,但由于其引发人们对某些伦理风险与负面影响的普遍担忧,最终被迫暂时停售。④Jonathan Roberge,Louis Melancon,Being the King Kong of Algorithmic Culture is a Tough Job after all:Google’s Regimes of Justification and the Meanings of Glass,Convergence,2017,Vol.23,No.3,pp.306-324.因此,应该努力从伦理风险防范的角度,为中国人工智能发展提供道德哲学基础与伦理战略支持,保证人工智能在快速发展的同时,尽可能规避伦理风险。
而且,相对于法律的“刚性”监管,从伦理的角度对人工智能科技进行“软治理”,具有十分重要的理论与现实意义。众所周知,目前世界各国都在加快人工智能科技发展的步伐,抢占人工智能发展高地,争做人工智能科技的领导者,因此人们普遍担心严格的管理措施会影响人工智能科技的发展。中国作为世界上最大的发展中国家,科技毫无疑问是保障社会发展的重要支撑力量。正如习近平总书记指出的那样:“人工智能、大数据、量子信息、生物技术等新一轮科技革命和产业革命正在积聚力量,催生大量新产业、新业态、新模式,给全球发展和人类生产生活带来翻天覆地的变化。我们要抓住这个重大机遇,推动新兴市场国家和发展中国家实现跨越式发展。”①习近平:《习近平谈治国理政》(第3 卷),北京:外文出版社,2020 年,第444—445 页。中国人工智能科技虽然近些年来发展迅猛,但整体上与西方发达国家仍存在一定的差距。除了一些特殊领域或问题之外,当前中国人工智能伦理风险防范并不需要广泛的严格监管,而应该更多地注重软性约束与道德自律。因此,人工智能伦理风险防范研究绝对不是要去阻碍科技的发展进步,事实上任何人都做不到这一点,而是要为中国人工智能快速健康发展提供伦理战略与伦理支持。
关于人工智能伦理风险防范研究,国外研究虽然开展得相对较早,但中国的相关研究也并未滞后太长时间,这就为中国在相关研究领域与国外学者共同竞争、进行国际对话提供了可能。人工智能如何发展、如何防范风险是一个全球性问题,中国作为世界上最大的发展中国家,必须在人工智能的全球治理中掌握必要的话语权。习近平总书记曾强调:“我们应该共同探讨建立面向新科技革命和产业变革的政策制度体系,营造国际合作环境,让科技创新成果为更多国家和人民所及、所享、所用。……变革过程应该体现平等、开放、透明、包容精神,提高发展中国家代表性和发言权。”②习近平:《习近平谈治国理政》(第3 卷),第459 页。
近几年来,美国、欧盟等的许多学术团体与科研机构竞相加大对人工智能伦理风险防范研究的投入力度,试图占据该研究领域的主导地位,掌握相应的话语权。如果中国研究进展缓慢,很可能与国外学者逐渐拉开差距,从而在某些方面陷入被动。特别是许多国家与机构争相发布各类人工智能伦理原则与伦理指南,而包括中国在内的发展中国家对此问题重视不够。当下,必须高度重视创建并发布具有中国特色的人工智能伦理原则,并对其进行详细解释,防止发达国家利用中国在此方面的不足,将某些不合伦理的研究转移给我们。③吴红、杜严勇:《人工智能伦理治理:从原则到行动》,《自然辩证法研究》2021 年第4 期。另一方面,不同的文化传统使得不同民族的伦理观念与思维方式存在明显差异,相同的人工智能技术引发的伦理风险在不同的社会环境中亦会有不同的表现形式,因而需要结合中国的实际情况,对国外的伦理风险防范经验进行批判性分析。只有形成具有中国特色的人工智能伦理风险防范研究成果,才能真正在人工智能的现实应用环境中产生实效,并在人工智能国际治理中贡献中国智慧。目前,人类命运共同体研究受到学术界的高度重视,但鲜见将其与科技发展联系起来的理论探讨。基于此,就应以人工智能伦理风险的国际治理为着力点,从建构人类命运共同体的战略高度,研究人工智能伦理风险防范的普遍性与特殊性规律,由此才能争取相应研究的主动性与话语权。
国内外目前相关研究成果,既有从宏观上探讨人工智能伦理风险防范的原则与思路,也有从伦理治理、责任创新、技术标准、治理模型等角度分析人工智能伦理风险防范的具体途径,还有对包括隐私风险、歧视与偏见等具体细致的伦理风险防范进路的探讨,内容非常丰富和全面。不过,现有的人工智能伦理风险防范研究虽然涉及面广,但主要以理论探讨为主,实践性较弱。许多国际组织与学术团体大多偏向提出某些人工智能伦理原则与伦理指南,但这些原则如何贯彻实施,却并没有具体的执行机制与监管措施。不过,令人倍感振奋的是,不少科技工作者已经充分认识到了相关工作的重要性。中国计算机学会名誉理事长李国杰院士强调:“人工智能伦理和人工智能监管是我国明显的短板,应立即加强有关布局和规划。”④李国杰:《有关人工智能的若干认识问题》,《中国计算机学会通讯》2021 年第7 期。有科技工作者的大力支持,人工智能伦理风险防范研究的落地便指日可待。
2021 年12 月17 日,习近平总书记主持召开中央全面深化改革委员会第二十三次会议,审议通过了《关于加强科技伦理治理的指导意见》,2022 年3 月20 日,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》。《意见》的出台充分彰显了中国政府对包括人工智能在内的新兴科技伦理风险防范的高度重视,主要目的就在于进一步加强科技伦理治理,有效防范科技创新可能带来的伦理风险,推动科技向善。人工智能伦理风险防范研究应该以《意见》为研究纲领,在理论探讨的基础上,紧密结合人工智能科技研究与产业发展,建立健全具有中国特色的人工智能伦理治理体系。对人文学者来说,不能仅仅局限于撰写学术论文,而是应该主动到人工智能实验室与生产企业中去,深入了解人工智能产品研发现状与当前伦理风险防范举措的成效及不足,与科学家、企业家共同努力解决具体的现实问题。
总地来说,人工智能伦理风险防范研究的战略目标是,在澄清不同种类、不同阶段伦理风险的基础上,采取灵活多样的柔性措施防范伦理风险,高度重视理论研究成果的可操作性,积极参与人工智能国际治理,引导与规范人工智能科技与产业发展,实现人工智能与社会共同发展进步的最终目标。
结合目前国内外人工智能伦理研究现状,针对上述提及的战略目标,可以从以下五个方面展开深入细致的研究工作。
古今中外有大量伦理学的经典著作,也有各种不同的学术流派提出了风格各异的伦理思想理论。近几十年来,学术界关于新兴技术的伦理反思亦积累了大量的研究成果。只有在充分吸取各类理论资源的基础上,把相关问题置于广阔的伦理思想史的学术背景之中,才能在人工智能伦理研究中做到从容不迫、游刃有余。因此,需要结合人工智能科技的特点,挖掘已有的经典伦理学说与科技伦理思想中可以应用于人工智能伦理风险防范研究的理论资源,充分对比各自的异同,深入研究不同学说的合理性与局限性,分析其适用的具体问题与社会环境。
人工智能发展的伦理支持,关键在于伦理规制和伦理观念创新的学理支撑①王天恩:《论人工智能发展的伦理支持》,《思想理论教育》2019 年第4 期。,可以采用发展伦理、美德伦理、底线伦理、商谈伦理、技术建构主义、风险社会、利益相关者理论、行动者网络理论以及建设性后现代等理论资源考察人工智能伦理风险,丰富人工智能风险防范的方法论与工具库,进一步拓展人工智能伦理风险防范研究的理论基础,进而实现相关研究的理论基础创新。比如,发展伦理学不仅是一种“评价论”,更是一种“选择论”,发展伦理学的核心目标是“选择”更加合理的发展目标、发展手段与发展模式。②陈忠:《发展伦理研究》,北京:北京师范大学出版集团,2013 年,第29 页。人工智能伦理风险防范研究的本质就是要为人工智能科技“选择”更加合理的发展道路与发展模式,理应吸取发展伦理学的理论资源。又如,风险社会学认为,相比于其他个别因素,技术可能性的巨大扩展对吸引公众关注风险的贡献更大③[德]卢曼:《风险社会学》,孙一洲译,南宁:广西人民出版社,2020 年,第127 页。,风险社会学的理论与实践有助于更全面地认识与防范人工智能的伦理风险,等等。总之,宽阔的学术视野与理论基础有利于在人工智能伦理风险防范研究中争取更大的主动性、灵活性与话语权。
首先,人工智能科技已经产生或即将产生各种伦理风险,对这些客观存在的伦理风险,需要伦理学家与科学家、工程师密切合作,正确把握人工智能科技与产业发展现状,克服片面乐观与盲目悲观的倾向,全面评估伦理风险。其次,人工智能伦理风险既有客观性的成分,也受人类不同个体与群体主观认知的影响。特别是部分伦理风险极可能通过媒体、网络等渠道被歪曲或放大,甚至产生严重的误导现象。全面客观地评价伦理风险,准确认识公众对伦理风险的认知模式,系统梳理伦理风险的传播与放大途径,是实现有效风险防范的前提性与基础性工作。因此,不仅需要重视客观的人工智能伦理风险,还要重点研究不同群体对人工智能伦理风险的评价与认知的问题,深入分析如何通过伦理评估与伦理参与等合理的方式,引导公众理性认识人工智能的伦理风险。正如段伟文所指出的,促进开发者和使用者切实认知人工智能伦理风险的关键在于:一方面技术监管者应该要求企业对技术应用在相关群体中造成的负面影响展开预见性的伦理评估,另一方面应该通过建设性与参与性的伦理评估,使利益相关者参与到相关环节之中。①段伟文:《信息文明的伦理基础》,上海:上海人民出版社,2020 年,第256 页。
人工智能伦理风险种类繁多,涉及人们工作生活的方方面面。但是,只要抓住若干核心伦理风险,其他许多风险可能就迎刃而解了。就目前人工智能科技水平及社会影响现状而言,最核心的伦理风险可能是安全风险与公正风险。世界经济论坛创始人兼执行主席施瓦布(Klaus Schwab)认为:“第四次工业革命在带来巨大好处的同时,也会带来巨大挑战,其中不平等现象的加剧尤其令人担忧。”②[德]施瓦布:《第四次工业革命》,李菁译,北京:中信出版社,2016 年,第9 页。李开复亦担心,利用人工智能获取巨大利益会产生显著不平等,同时也导致社会的不稳定。③李开复:《AI·未来》,杭州:浙江人民出版社,2018 年,第194 页。
就安全风险而言,从技术角度看,可以借鉴人工智能哲学、认知科学与哲学等研究成果,增强人工智能理解人类常识的能力,减轻人工智能技术可能出现的“人工愚蠢”,实现人工智能系统的稳健性、可靠性;从使用者的角度看,目前人们普遍关注的是隐私风险等问题,如人脸识别技术已经引发了广泛的争议,社会各界迫切希望能够切实加强个人隐私的保护。就公正风险而言,人们较为关注人工智能系统已经和可能出现的各种歧视与偏见,即算法霸权、数字鸿沟与信息垄断,以及人工智能对就业与教育的影响等问题。另外,值得一提的是,需要特别关注人工智能与环境正义问题,系统研究人工智能科技对可持续发展的正面与负面影响。
无论是未来学家,还是人文学者、科技工作者,大家几乎一致认为,应该将人类的价值规范嵌入人工智能系统,使之做出符合人类伦理道德的判断与行为,这是从根本上防范人工智能伦理风险的重要手段,但哲学界与科技界对于伦理原则的选择、伦理设计的过程与伦理设计结果的评价等各个环节均存在不同意见。笔者认为,人工智能伦理设计是实现伦理风险防范有效性、长效化的根本保障,必须予以高度重视,伦理设计应该是哲学家与科学家、工程师进行有效合作的最佳领域。目前,需要全面对比不同学者、不同学科关于人工智能伦理设计的理论探索与实践成果,同时通过建设联合实验室等手段搭建与科技工作者对话合作的平台,根据当前中国人工智能科技研发现状,总结提炼出人工智能伦理设计的基本原则、程序与评价标准,并在人工智能技术研发中进行实际应用并反复完善改进,确保从技术层面实现人工智能向善。
人工智能伦理风险防范涉及宏观层面(国际组织与国家)、中观层面(企业、科研机构与学术团体等)以及微观层面(用户与受众)等多种防范主体,需要针对不同层面的防范主体选择恰当的伦理风险防范工具,同时各种防范工具不可避免地会涉及多种防范主体。应该针对不同层面的防范主体,重点研究包括科技政策、伦理原则、责任机制与职业规范等在内的各种防范工具的适用范围、具体内涵、操作流程、预期目标与评估模式,从而建构起一整套覆盖全面、运作灵活、切实有效的伦理风险防范工具库。综上可见,第三、四、五方面的研究明确体现了人工智能伦理风险防范注重实践维度的重要特征,因为具有可操作性与现实针对性的研究成果才能规避各种伦理风险。
目前人工智能伦理风险防范进路研究大多偏向于某一方面,如科学家偏向于重视“物”,即重视人工智能技术的稳健性、可靠性,哲学家则重点关注“人”,即从伦理原则、责任机制、职业规范等角度规范人的行为。人工智能伦理风险防范研究需要全方位、多层次展开,注重“见物又见人”的研究思路,从“技术、制度与人”三个层面入手,建构全面系统的伦理风险防范体系。首先,重视技术本身的因素,从伦理设计、稳健性、人性化等角度强化人工智能技术本身,实现从源头上防范伦理风险;其次,高度重视人的因素,从风险认知、伦理参与、道德想象力、道德责任以及知情选择等角度突出人的能动性、选择性来防范伦理风险;再次,亦强调制度、文化的重要功能,从科技政策、科学文化的角度营造良好的伦理风险认知与防范氛围,从而建构起全面系统的人工智能伦理风险防范框架体系,等等。
本文的论证试图表明,人工智能伦理风险防范研究应该以建构友好的、可信任、可持续的人工智能科技为目标,以现阶段人工智能为主要研究对象,同时兼顾人工智能未来发展趋势,在对人工智能伦理风险形成全面、客观认识的基础上,提出一系列具有可操作性、能够产生实效的伦理风险防范机制与工具,从而为中国人工智能科技健康快速发展提供伦理战略与伦理支持,并为中国争取人工智能国际治理的话语权提供理论依据与实践智慧。1950 年,图灵在《计算机器与智能》论文中的最后一句话指出,我们只能向前看到一小段距离,但即使如此我们在这段可见视域内仍有大量工作要做。①AlanTuring,Computing Machinery and Intelligence,Mind,1950,Vol.59,No.236,pp.433-460.在当前人工智能伦理风险防范研究中,有很多艰苦细致的工作需要哲学工作者贡献智慧与汗水。