信息技术问题的道德治理

2022-11-24 09:07曾建平黄以胜
关键词:伦理主体道德

曾建平 黄以胜

新一代信息技术的加速发展,正在深刻影响和改变着人类社会生活。习近平总书记指出:“当前,以互联网、大数据、人工智能为代表的新一代信息技术日新月异,给各国经济社会发展、国家管理、社会治理、人民生活带来重大而深远的影响。”(1)中共中央党史和文献研究院编:《习近平关于网络强国论述摘编》,北京:中央文献出版社,2021 年,第164 页。信息技术在促进经济发展、推动社会建设、提升国家核心竞争力等方面起着独特的、不可替代的引领作用。与此同时,信息技术发展的不确定性所带来的伦理问题也引起了世界各国的普遍关注。早在20 世纪40 年代,伯特兰·罗素(Bertrand Russell)就曾经预言:“在人类的历史上,我们第一次达到了这样一个时刻:人类种族的绵亘已经开始取决于人类能够学到的为伦理思考所支配的程度。如果我们继续允许发挥破坏性的激情,我们日益发展起来的技能就势必会给所有人带来灾难”(2)[ 英 ]伯特兰·罗素:《伦理学和政治学中的人类社会》,肖巍译,北京:中国社会科学出版社,1992 年,第159 页。。如今,信息技术带来的新的伦理问题,如算法歧视妨碍社会公正、网络霸权挑战网络主权、技术异化威胁人类文明等,足以成为影响人类可持续生存与发展的梦魇,又一次考验着人类为伦理思考的能力及其程度。

一 信息技术带来的伦理变革

意大利旅英信息哲学家卢恰诺·弗洛里迪(Luciano Floridi)在《第四次革命:人工智能如何重塑人类现实》 中阐述了人类历史中的四次科技革命。从科技—伦理角度来看,每次科技革命都是一次社会变迁、伦理变革、道德革新。首次的哥白尼日心说,尽管可能并未直接颠覆中世纪以来占统治地位的人类中心主义,但无疑间接引发人们对人类中心主义的质疑;第二次的达尔文进化论,不仅让人类认识到自身与其他动物没有本质区别,而且使人开始萌生自然中心主义思想;第三次的弗洛伊德精神分析学,不仅撼动了人类理性的地位以及控制自我意识的能力,而且从道德心理层面审视了人的自身行为发生的深层次原因;而第四次革命就是当前正在发生的图灵革命,不仅有力挑战了人类智能这个人类引以为豪的特质的唯一性,而且将动摇人类的道德主体地位。与前三次科技革命不同,图灵革命由于分享着人性,它将解构传统伦理精神和道德观念生成、依存的物质根基,使人类面临伦理关系的革命性变革,其所引发的伦理问题是根本性的,由此带来的伦理风险具有颠覆性。

(一)传统人伦关系的重构

传统的伦理问题主要涉及人与人的关系问题,而信息时代的伦理问题不再纯粹是人与人的关系问题,它还包括人与机器人、人工智能之间的关系问题。信息时代的到来,正在改变或即将颠覆传统的人伦关系,创构人们的道德认知和道德实践。信息时代的道德问题,无非是两个方面:一方面是信息技术所涉及的人与人之间的道德问题,如互联网作为工具性意义存在的媒介,这一端虽然仍然属于传统伦理问题,但已有信息化的新特点;另一方面是信息技术所涉及的“机类”带来的人类道德问题,如人工智能作为价值性意义存在的行动者,这一端则是全新性的问题,他们重构人伦关系基点,对人类提出了新的挑战:智能机器人能否成为道德主体或行动者(moral agent;moral actor)和道德责任者?

从伦理关系看,信息技术的独特之处在于,它属于人创制的,但却有着自身的运转规律,而且这种规律不同于过去的自然规律,也不同于人的规律,可以说是第三种规律。作为主体的人与作为类主体的人工智能机器,最本质的区别是什么?人具有自主意识、自由思想、自在精神、自觉境界、自然情感,是感性与理性交融的主体,是学识与经验交互的结果,是理论与实践交合的产物。而人工智能创造物,尽管具有了某些属人的特性,比如深度学习能力、模仿人类感情、超强操作本领,但不管他们的智能如何高级,某些方面如何“类人”,他们与人类之间可能存在着、必然存在着,也必须存在着不可逾越的楚河汉界。但这种区别却不是人类可以人为控制的,这就是问题的根源。

(二)传统主客体关系的演变

自近代笛卡尔(Rene Descartes)最早提出主客二元论的哲学思想以来,自然界等外物都是围绕人这个主体而存在的,从而构成了传统意义上人与物之间的主客体关系。在抗击新冠肺炎疫情中,智能机器作为强有力的“助手”与“伙伴”帮助人类有效提升了防控成效。人工智能创造物也展示了具有类似甚至超越人类思维的能力。那么智能机器是否真的能与人同群?“这个问题是前所未有的,与原有人机关系存在着根本不同:自然人和智能机的关系还是人机关系,还是主体和客体(对象)、中介(工具)之间的关系,自然人和机器人的关系则是主体和主体的关系,这种新型主体关系既不同于任何主客体关系,也不同于现有人与人之间的主体间关系,可以称为跨人际主体间关系。”(3)程广云:《从人机关系到跨人际主体间关系—人工智能的定义和策略》,《自然辩证法通讯》 2019 年第1 期,第12 页。人与人工智能创造物的关系从传统的主客体关系,转变成了主体与类主体的关系,或者说是跨人际主体间关系。人类与信息技术的关系,主要经历了三个阶段:第一阶段是计算机时代,计算机仍然是人类处理问题的工具,在这种人与机器的关系中,人是主体,机器是客体的关系并没有任何改变,人与人的关系秩序也没有任何裂变;第二阶段是互联网时代,互联网联通的不仅仅是信息、数据,而是直接改变了人与人的关系,人们的身份在虚拟世界开始漂流,互相之间的性别、年龄、身份、职业、阶层的秩序瞬间完全“虚拟”,传统的人伦关系开始出现模糊、变化,人在虚拟世界中完全可以从“自我”捏造为“他我”;第三阶段是人工智能时代,由于智能机器具有深度学习能力,会独立应对问题,过去属于人的创新创造被颠覆。某种意义上,人工智能机器人具有了人的一些特质,尽管人类一再担忧、甚至恐惧以拒绝他们成为人类中平等的一员,但他们毫无疑问将成为“类主体”。

随着人工智能的发展,人与机器的关系既不是那种主体—客体之间的关系,也不是主体间的关系,变成了一种主体与类主体之间的关系。面对这种新型的关系,伦理学应该如何确立我与他之间的“伦”与“理”?如何以道德的方式与其相处?人类若要不失去自身的伦理地位和道德主人的身份,唯有倍加呵护自身独有的主体尊严和本质,倍加守护属于人性独有的情感和能力。

当自然界衍生出来人类,而人类又成为自然的主人之后,人类已经从自然之子变成了地球之王。面对自然这个诞生人类的母体,人类曾经也有反抗心态,但又不得不保持敬畏之心。而在面对人类创造物时,人类从来就具有一种君临天下的威严和自我崇拜的心态,因为它们始终被置于人类的掌控之中。人类与自然的原始关系不时地提醒着人类的本然之心。因而,当人工智能机器人具有与人类类似的主体性反应—会思维、有情感、能创造时,人类就不可能再像过去对待那些人造物那样处之泰然、淡定自若了,我们担心“他们”与我们一样平起平坐,甚至恐惧“他们”哪一天从属人物变成了统治者。从伦理学角度看,正是人类与造物主之间关系的根本转变,开始了人类作为主体伦理叙事的历史,这是传统伦理延续至今的内在力量。当大数据和人工智能的发展完全改变甚至颠倒了人类活动的地位时,传统伦理必然发生解构,那种人类作为主体地位的伦理时代必将结束,必将迎来一个从传统文明时代转向信息文明时代的开始。

(三)技术化生存的悖论

较之于自然化生存和机械化生存,技术化生存给人类生产、生活带来了革命性变化,其影响的力度、广度、深度可以说是史无前例的。新一代信息技术促使人类能够进一步把“潜藏”的巨大物质、信息、技术等各方面的资源广泛利用起来,前所未有地改变了人们的学习、工作、生活及交往方式。从“后疫情时代”“云课堂”“云办公”“云健身”“云点餐”等“云”模式的兴起,到登机、支付、取件、考勤等“一刷到底”“刷脸时代”的到来,信息技术打破时空藩篱、线上线下隔阂,让人民群众在政务、教育、医疗等领域享受到了智能化升级红利。

然而,依赖新一代信息技术的技术化生存在给人类带来空前资源及技术红利、创造繁荣文明图景的同时,也可能加深技术化生存困境。虽然谁也无法否认技术化生存是人类片刻不离的根本性存在方式,但这并不意味着技术化生存与人类福祉必然存在正向关系。如在“刷脸时代”,“刷脸”泛滥大大增加了人脸信息泄露、被滥用或盗用等安全风险,你的脸可能不再属于你。(4)2020 年,“人脸识别第一案”一审落槌、“戴着头盔看房”短视频引发网民热议,这些都反映出社会对人脸识别技术可能的滥用及其风险的担忧。我们需要确保技术化生存真正朝着实现人类解放与自由的进程发展,以避免造成人的物化及非人化。正如马克思所担心的:“甚至科学的纯洁光辉仿佛也只能在愚昧无知的黑暗背景上闪耀。我们的一切发明和进步,似乎结果是使物质力量成为有智慧的生命,而人的生命则化为愚钝的物质力量。”(5)《马克思恩格斯文集》第1 卷,北京:人民出版社,2009 年,第580 页。如何在推动信息技术发展中破解技术化生存的悖论,以技术人性化实现人的解放与自由,成为信息时代必须应对的伦理

问题。

二 信息时代的伦理挑战

借助大数据、人工智能、云计算等数字技术,迁徙大数据平台、5G 热成像人体测温系统、“健康码”等大显身手,抗疫机器人更是在消毒、检测、远程辅诊等方面表现抢眼。信息技术不仅提供新的工作方式,更为重要的是,它正在重塑生产力、生产关系、生产方式,重构社会关系、生活方式、国家治理体系,进一步挑战及影响我们现存的法律、传统的道德甚至社会的各个方面,带来具有挑战性的道德治理难题。虽然信息技术的传播是无国界的,但是信息技术的运用毫无疑问是有界限的,而伦理道德也是有底线的。信息时代的道德问题,既有传统意义上的,也有现代意义上的;既有工具理性意义上的,也有价值意义上的。

(一)算法歧视妨碍社会公正

习近平总书记强调:“我们要随时随刻倾听人民呼声、回应人民期待,保证人民平等参与、平等发展权利,维护社会公平正义,……使发展成果更多更公平惠及全体人民。”(6)中共中央文献研究室编:《十八大以来重要文献选编》(上),北京:中央文献出版社,2014 年,第236 页。可以说,公平正义不仅仅是普通百姓普遍关注的民生诉求,而且是人类孜孜以求的社会理想,更是道德治理的核心要义。

大数据、深度学习及其智能算法等技术的突破性进展,为人人平等获取、共享信息及数据资源提供了便利化的技术支撑。智能算法的推广应用,既要通过建立算法的权威性,进而取得公众的普遍信任,又要通过“算法正义”提升“用户体验”。作为一种数学表达的算法似乎摒弃了人的情绪、意图、偏见,消除了各种外部因素的影响,从而得出了完全“客观”的数据。然而,看似理性的算法,在算法程序设计、数据挖掘等过程中难免“嵌入”人的偏见,算法设计者也不可能完全把既有法律规定、道德规范、技术要求等完整地写入算法程序。因此,无论是哪种算法,都终究逃脱不了人的干预,很有可能只是披着“客观中立”的美丽技术外衣而已。除了数据采集和算法设计中的人为主观因素之外,原始数据的质量、偏见性等往往会影响中立性,正所谓“偏见进,则偏见出”,进而妨碍社会公正。无论是芝加哥法院使用的犯罪风险评估算法COMPAS,还是谷歌的广告系统及自动图像标记软件,抑或是微软推出少女聊天机器人Tay,还有“大数据杀熟”,这些智能算法背后往往潜藏了偏见、甚至是被放大了的偏见。算法技术的专业性、复杂性及不透明性,强化了信息不对称的“马太效应”。算法和数据的偏见犹如暗网,一般人难以知晓或触及。因而,把错误的、易出错的、不完整的原始数据输入到带有偏见的智能算法中,必然导致算法歧视现象,甚至造成算法歧视的恶性循环或代际传递。“算法中立”的表象只是掩盖了现有偏见和差异的“不中立”真相。可以说,信息时代不同出身、性别、种族、国家、地区、受教育背景、消费层次等的人(群体)获取数据信息或技术红利的差异,可能比现实世界的差异还要大。而信息时代的缺席者一般难以有效表达其价值诉求,从而难以进入道德治理的决策视野。如何更好地缩小数字鸿沟以保障社会公平、推进人类整体福祉,这是一个具有世界性、人类性的价值伦理难题,也是推进道德治理需要面对的现实性难题。

(二)网络霸权挑战网络主权

关于网络主权,存在着网络无国界和网络虽无国界但有主权两种争论。网络主权是国家主权在网络空间的自然延伸。国家主权已经从传统意义上的经济、政治的领域扩展至信息网络领域,同时也意味着国家的“绝对主权”时代的终结。网络主权在国家主权中的地位和作用越来越凸显。尊重网络主权是主权平等原则的题中应有之义。

信息技术的交互性、便捷性、集成性,大大打破了国与国、虚与实的边界,甚至模糊了是与非、真与假、好与坏、善与恶、美与丑、强与弱等的界限。“信息技术在加速大数据传播、搜集、共享的同时,也为一些国家或组织利用网络霸权干涉别国内政或实施网络攻击提供了漏洞和暗网,严重威胁国家主权和安全。”(7)曾建平:《信息时代的伦理审视》,《人民日报》 2019 年7 月12 日,第9 版。从全球范围看,无论是东欧中亚国家的“颜色革命”,还是中东北非地区的“阿拉伯之春”,还是乌克兰、委内瑞拉的政治危机,其背后都有一种强大的网络“公共外交”在发挥“潜在”作用。剑桥分析公司数据丑闻、“棱镜门”事件、谷歌事件等,充分暴露了西方国家侵犯他国网络主权、实施网络攻击的野蛮行径,暴露了西方“网络自由”的网络霸权主义本质。长期以来,美国凭借技术优势占据了互联网领域的领导权、控制权、话语权。互联网已经成为美国实施对外干涉、颠覆渗透和谋求世界霸权的“先声夺人”“利器”。据《2020 年我国互联网网络安全态势综述》 报告显示,美国在恶意程序传播源境外分布情况、控制我国境内主机的境外计算机恶意程序控制服务器数量分布、控制我国境内主机数量 TOP10 的国家或地区等多项指标中均排在首位。号称监控帝国的美国,却大力鼓吹“网络自由”,为其网络霸权“开道”,竭力打造以美国主导的数据主权规则体系。时至今日,美国仍深陷网络霸权的“毒瘾”,发起针对中国的“清洁网络”计划,粗暴打压、野蛮封杀中国科技公司。美国的网络霸权行径,严重挑战了世界各国的网络主权,让更多的人越来越认清其真实面目和虚伪本质。2020 年9 月,中国在发起的《全球数据安全倡议》 中提出,反对滥用信息技术大规模监控他国。因此,防范网络霸权是信息时代维护网络主权的迫切要求和重要内容。

(三)技术异化威胁人类文明

信息技术同样无法回避技术的“双刃剑”属性所带来的负效应。太阳微计算公司首席科学家比尔·乔伊(Bill Joy)认为,机器人、基因工程和纳米技术等技术在21 世纪可能让人类面临种族灭绝的威胁。埃隆·马斯克(Elon Musk)则把人工智能看成我们人类文明面临的最大风险。事实上,以上两位学者的忧虑绝不是杞人忧天。早在2013 年,联合国人权理事会就紧急叫停美、韩、俄、英、德、日等国研发“自动杀人机器人”的军备竞赛。2017 年,马斯克等116 名全球人工智能和机器人公司创始人发布联名公开信,呼吁联合国采取行动禁止“杀手机器人”扩散。2018 年,超过 50 位人工智能领域的专家联名抵制韩国科学技术高级研究院( KAIST) 开发“杀人机器人”。然而,2019 年波士顿动力晒出堪比“美国大兵”的杀手机器人,俄罗斯则将外形如魔鬼终结者杀手机器人送上了太空。技术异化所带来的安全隐患、道德争议等问题,引起了全球各国的广泛关注。人们不仅要问:技术的边界和底线在哪里?如何构建技术发展的正义逻辑?

面对开发“杀人机器人”等技术异化所带来的威胁,人类如何能确保技术的安全性、可控性与人性化?进而言之,这个问题意味着:从短期看,人类在多大程度上掌控了人工智能所具有的巨大理性行动能力;从长期看,人工智能系统是否会发展成为一种不受人类控制的自主性力量,进而威胁到人类的生存境遇。1988 年发生的海湾空难、2008 年发生“剑”式地面作战机器人将枪口对着人类指挥官等事件都表明,人工智能的失控与反叛将对人类文明构成重大威胁。由此可见,无论信息技术强大到何种程度,人类恐怕都不能完全将该由人类承担的最终决策任务托付给它。这也许也是有效防范潜在风险的唯一办法。为了避免技术异化或失控的危险及其对人类文明的威胁,伦理道德如何才能更好地发挥底线伦理的内在约束作用?人类如何在前进的道路上保持对技术的控制,以免对人类文明造成重大的威胁,这是新一代信息技术发展必须正视的重大伦理问题。

三 信息技术问题道德治理的实现路径

信息技术的迅猛发展可能会超出人们的想象,更超出人们运用法律、道德、社会政策为他们设计规范、科学、有效发展的准备。国家治理离不开道德力量,而道德治理又是国家治理的重要维度。党中央提出“推进国家治理体系和治理能力现代化”为道德治理提供了实践境遇。信息技术问题的道德治理,要以“关心人的本身”实现人的主体性回归,以价值敏感性设计保障科技向善,以前瞻性道德责任构建信息时代的责任伦理,进而为新一代信息技术的整体性、长远性和应用性发展创设公认的、共同的、全面的道德构架。

(一)“关心人的本身”:从人的主体性消解到主体性回归

信息技术是“人为”的产物,无论是其前期的技术研发设计,还是中期的技术运用,抑或是后期的技术评价,都离不开人的主体性的发挥。没有人的主动性创新与创造,就难以有技术的迭代与突破。然而,这种“人为”产物却未必时时都是“为人”的。1931 年,爱因斯坦在对加利福尼亚理工学院学生发表的题为《要使科学造福于人类,而不成为祸害》 的讲话中,提出“关心人的本身,应当始终成为一切技术上奋斗的主要目标”(8)《爱因斯坦文集》第3 卷,许良英等编译,北京:商务印书馆,1979 年,第73 页。。而当前信息技术所带来的种种伦理风险,却是对人的主体性的消解和“人的本身”的背离。“关心人的本身”,既是推动信息技术持续健康发展的必然要求,同时更是实现从人的主体性消解到主体性回归的根本方向。

人的异化自然意味着人的主体性的消解。马克思曾对资本主义社会劳动条件特别是机器采用后对人的异化进行了深刻分析与批判,指出“机器劳动极度地损害了神经系统,同时它又压抑肌肉的多方面运动,夺去身体上和精神上的一切自由活动。甚至减轻劳动也成了折磨人的手段,因为机器不是使工人摆脱劳动,而是使工人的劳动毫无内容。一切资本主义生产既然不仅是劳动过程,而且同时是资本的增殖过程,就有一个共同点,即不是工人使用劳动条件,相反地,而是劳动条件使用工人”(9)《马克思恩格斯文集》第5 卷,北京:人民出版社,2009 年,第486—487 页。。在马克思看来,资本主义生产中,劳动条件的异化造成工人不再是生产活动的主体,而是沦为机器的“奴隶”和流水线上的“需要救济的贫民”。信息技术的发展在给人类带来技术红利、生活便利的同时,也正在全方位地改变“人”。在人工智能领域,从护理机器人带来的孝养分离难题,到社交机器人拟人化的“欺骗”悖论,再到养老机器人可能对老人尊严的侵害,均引发对“机器代人”伦理风险的担忧。在大数据领域,数据主义以数据的深度挖掘、数据的倾向性预测、数据的全面监控带来隐私泄露、信息污染、“数字鸿沟”等问题,严重阻碍人的本质的确证。在互联网领域,信息的多元化和碎片化消解了主流的意识形态及价值观,所谓的“网络大V”、网络意见领袖等时常左右着网络主体的自由意志,网络道德虚无主义、泛道德化、泛娱乐化等更是使人类失去自我反思与超越的理性自觉。由此可见,人对技术的过度依赖甚至滥用,必将导致人的自我异化,进而造成人的主体性的消解。

正如马克思所揭示的,在其现实性上,人的本质是一切社会关系的总和,人的存在是一种社会性的存在。无疑,在人与技术的关系中,人是当然的主体,技术则是客体;人是目的,而技术则是实现目的工具而已。美国著名科幻作家艾·阿西莫夫(Isaac Asimov)曾提出“机器人学三定律”及“第零法则”,把不伤害人类视为底线伦理。然而在实践的过程中,往往会出现人的指向性不明确、情境变化增加判断的复杂性等问题,造成机器人难以遵从人的指令,实时做出正确的判断。虽然该定律具有明显的人类中心主义色彩,但是其蕴含的遵从人的主体性原则可以说具有普遍而广泛的价值意义。“机器文明的一切机制都必须服从人的目的,人的需求。”(10)[ 美 ]刘易斯·芒福德:《技术与文明》,陈允明等译,北京:中国建筑工业出版社,2009 年,第377 页。如何避免人类对技术或智能机器人的过度依赖?人类该如何在诸多方面超越自己的智能机器人面前保持自身的主体性,而不沦为技术的“奴隶”?因而,任何信息技术,特别是智能机器人即具有自主性意识的技术应该持有与人类相同的基本价值观,遵循服务于人的原则,确保人类始终处于主体地位,把人类的造物始终置于人类的可控制之中,避免人类利益受到损害,有效应对可能的伦理风险。无论是系统设计还是具体应用,这种技术都应该具有风险意识、具备相应的防范措施,充分考虑人的行为习惯、心理特征、伦理诉求、社会偏好等,确保技术及其产品始终“关心人的本身”。“任何解放都是使人的世界即各种关系回归于人自身。”(11)《马克思恩格斯文集》第1 卷,北京:人民出版社,2009 年,第46 页。因此,技术发展的伦理旨趣应当是在尊重人的尊严、保障人的自由意志的同时,更好地增进个人的幸福、提升人类的福祉,决不是要把技术恐惧、“技术拜物教”推向极致。

(二)价值敏感性设计:从技术异化到科技向善

技术的出发点本来是“为己”的,但因技术的异化而蜕变成“异己”的力量。信息技术能否实现如亚里士多德(Aristotle)所愿的“人的每种实践都以某种善为目的”的目标?信息技术的快速发展,很容易使全社会陷入追求速度与效率的“技术的统治”中,往往忽视了对技术目的及价值的伦理追问。而事实上,无论技术的自主性程度再高,它也根本不可能成为“中立的工具”。信息技术越是发展、越是强大、越是动力支撑,技术设计价值考量的重要性就愈加凸显。而从伦理学的视角而言,技术设计价值考量的最高原则无疑就是科技向善。没有科技向善,人就难以确保人之为人的应有价值地位。退而言之,即使人类目前暂未能充分论证信息技术对自身可能危害的因果关系,我们仍然有充分理由对技术理性保持足够的警惕和严谨的审视,把人类价值“嵌入”到设计、开发、应用的全过程,使其具有与人类匹配的价值观,从而更有可能规避霍金、马斯克等人所描绘的科幻式的噩梦,实现从技术异化到科技向善的转变。

正是因为技术承载了人的欲望、情感,甚至是愿景,技术设计阶段的价值立场和伦理取向就显得尤为重要。美国学者巴提雅·弗里德曼(Batya Friedman)与同事于1992 年提出“价值敏感性设计”(Value Sensitive Design)理念,提出在技术设计阶段就要全面性、系统性地考量人类价值并将其“嵌入”技术系统中。“价值敏感设计是一种基于理论的技术设计方法,在整个设计过程中以一种原则和全面的方式考虑人类价值”(12)转引自闫坤如:《人工智能设计的道德意蕴探析》,《云南社会科学》 2021 年第5 期,第30 页。。具体而言,首要的是对人类价值进行哲学反思,列出人类价值清单及价值排序,以便为价值敏感性设计提供价值考量。这些价值必须融合传统的伦理道德规范和技术层面的非传统价值诉求,以便为技术理性提供基本的伦理原则和内在伦理规约。其二,通过多学科的调查分析,特别是针对社会现实中的“技术拜物教”、技术“越轨”案例,如“杀人机器人”违背人类向善本能、数据主义造成数据鸿沟、网络霸权危及政治安全等,综合考量、全面权衡人类价值与技术可用性,力求做到设计目的与社会需求的无偏差对接,实现物性与德性、技术与道德的有机融合,使技术更加人性化,打造道德化的技术。其三,将经过价值考量、实践检验的治理经验运用到技术设计中,以确保创造的技术或智能机器人合乎伦理道德规范的要求。

价值敏感设计为信息技术问题的道德治理提供了新视角。在具体“情境”中,价值敏感性设计应坚持安全性、可靠性和公开透明原则。技术价值中立论认为技术不涉及善恶问题。然而在技术开发、运用中不可避免会“嵌入”人的意图。若没有伦理道德的考量与约束,技术“越轨”、技术“暴力”、被技术渗透等“技术与人类和人类社会之间的反身性互动”(13)李恒威、王昊晟:《后人类社会图景与人工智能》,《华东师范大学学报(哲学社会科学版)》 2020 年第5 期,第82 页。就在所难免。当然,科技向善不是、也不应该成为科技创新的障碍,而是要为科技活动提供伦理价值向导。这就必须建立起以安全性为核心的事前预防、事中监管、事后评价关联互动科技伦理治理机制,对科技活动的全过程进行伦理考量与伦理调适,构建以忧患意识及风险研判为基础的底线伦理,才能有效防止“AI 换脸”“大数据杀熟”等技术异化风险。受信息不对称因素的影响,再加上人类理性的有限性,不可避免造成对信息技术道德风险认知及应对的滞后性,带来诸多“不对称风险”。信息技术的开发、设计不应只是企业的秘密行为。信息技术的设计研发主体,要构建具有正当性、伦理性的程序设计,及时向用户提供完整、易于理解的关于目的、功能、限制等技术参数及信息和算法规则,保障和鼓励公众行使参与权利,增强公众对信息技术及系统的信任,进而通过技术程序的正当性、伦理性来保障智能算法的透明性和技术运用结果的公平性。唯有在开发、设计过程中向智能机器提供实时、准确、完整、不带偏见的信息及数据,用人类普遍认可的道德及价值观约束开发、使用者,才能尽最大可能保障技术正义。

(三)前瞻性道德责任:从责任困境到信息时代责任伦理的构建

责任追究是任何一个领域都面对的现实难题。在信息技术问题的道德治理中,责任伦理也是不可或缺的视角。对于责任主体的界定,国内外学界关于技术人造物如智能机器人能否作为道德行为体展开了研究与争论。有学者认为,智能机器人可以作为道德行为体,并进而承担一定的道德责任。也有学者鉴于智能机器人没有自我意识,认为其不可能具备责任承担能力,反对将其作为道德行为体。退而言之,即使智能机器人具备一定的责任承担能力,作为技术的设计者和使用者的人或者相关组织仍是主要的、最大的乃至是唯一的责任主体。

传统的责任模式一般是对个体行为的事后责任。换言之,这种模式是基于过去某种行为后果的消极性的责任追究,而非积极性的责任伦理构建。然而,信息技术内在机制的复杂性、不透明性及其影响的深度风险性,决定了传统“追溯性责任”时常陷入“鞭长莫及”“无能为力”的窘境。在伦理学界,汉斯·约纳斯(Hans Jonas)基于人类社会进入技术时代后技术对社会影响的全面性、深刻性,较早地提出了前瞻性道德责任的理念。约纳斯认为,“并非只有当技术恶意地滥用,即滥用于恶的意图时,即便当它被善意地用到它本来的和最合法的目的时,技术仍有其危险的、能够长期起决定作用的一面。”(14)[ 德 ]汉斯·约纳斯:《技术、医学与伦理学:责任原理的实践》,张荣译,上海:上海译文出版社,2008 年,译序第4 页。信息时代的到来,使得人类的责任“负担”比以往任何时候都重。“科林格里奇困境”( Collingridge’s Dilemma)导致的控制困境,更加彰显远距离的、前瞻性、整体性的未来责任的重要性。

前瞻性道德责任对于责任主体有着新的更高要求。这种责任伦理要求相关主体对技术研发的动机、目的以及可能产生的后果等有着比较完整与全面、清晰与清醒的认识和把握。技术设计者无疑要首当其冲担负起这种责任。因为技术人造物如智能机器人仅仅是执行设计者所设定的技术程序或算法,即充当了执行人的意志或者意图的工具,而非其自身自主意志或愿望的智能表达。人类如何看待智能机器人并处理好人机(技)关系?技术人造物应该“嵌入”何种伦理系统?设计者在设计、使用者在使用过程应该分别遵循哪些基本的伦理准则?是否意味着已“嵌入”预计能做出符合人类预期道德判断的机器人可以让人无忧?这些既需要技术设计者有求真求善的科学精神,同时也需要他们具有卓越的道德“远见”。因而,技术设计者要在坚持基本价值准则的基础上,强化科研伦理和敬畏意识,系统厘清具体相关科技活动的伦理风险,把伦理要求内化为自身的自觉行动,避免技术被资本“绑架”,积极主动开展负责任的科学研究及技术应用。特别是要划定技术禁区、“技术红线”,如不得从事“杀人机器人”的开发、不得利用网络霸权危害他国政治安全等,在源头上为“科技始终向善”划定道德边界,以道德化的技术和道德算法把人类的根本利益和价值诉求落到实处。诚然,人类也不能奢望前瞻性道德责任能穷尽所有的技术漏洞及安全风险,并作出准确的道德评估和到位的伦理应对,但其所赋予道德主体的道德自觉、道德信念、道德“远见”,最起码可以让人类在信息技术瞬息万变中多一份道德自信,增加伦理抉择的主动性,不至于因措手不及而陷入“道德困境”中。

此外,前瞻性的道德责任还要求实现多元主体协同、多学科渗透、多手段并用。因为任何单一的责任主体,即便是政府,都不可能拥有足够的权力、资源、能力独自解决所有的道德治理难题。信息技术的深入发展,打破了传统时代的信息垄断、信息壁垒,便于社会主体实时获取海量的信息及数据资源,便于他们全面了解整个社会的道德生活全貌,为各类主体有效参与道德治理创造了良好的条件。同样,任何单一的治理手段,即便是法律手段,也不可能具有包揽治理所有社会治理难题的效力。信息技术的发展及运用也是建立在法学、社会学、数学等多学科渗透及交叉的基础之上的。习近平总书记强调:“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”(15)《加强领导做好规划明确任务夯实基础 推动我国新一代人工智能健康发展》,《人民日报》 2018 年11 月1 日,第1 版。推进多元主体协同、多学科渗透、多手段并用,有利于更好破解“技术鸿沟”和“碎片化”困境等伦理风险。面对信息技术更迭的加速度及其影响的深层性,任何一个主体、任何一个学科、任何一个治理手段都不适合做“盘观者”“局外人”,都是道德生活与道德治理的“参与者”“行动者”。唯此,才有可能避免“有组织的不负责任”,构建立足信息时代的技术天性与道德人性双向互动的责任伦理。

猜你喜欢
伦理主体道德
强化述职评议 落实主体责任
《心之死》的趣味与伦理焦虑
论碳审计主体
头上的星空与心中的道德律
《白噪音》中后现代声景的死亡伦理思考
何谓“主体间性”
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
伦理批评与文学伦理学
略论意象间的主体构架