人工智能嵌入政府治理的伦理风险及其防控

2021-03-30 06:51谭九生杨建武
探索 2021年2期
关键词:伦理人工智能算法

谭九生,杨建武

(湘潭大学 公共管理学院,湖南 湘潭 411105)

人工智能技术以其颠覆性、革命性发展正引领人类迈向智能时代。人工智能是建立在现代算法基础上,以数据为支撑而形成的具有感知、推理、学习、决策等思维活动并能够按照一定目标完成相应行为的计算系统[1]。人工智能的本质是依据深度学习对海量数据进行统计分析与行为模仿的人造智能,数据、算法与算力构成了人工智能的技术核心。人工智能发展为提升政府治理能力带来新契机,政府应用人工智能提升治理效能,是更好满足人民美好生活需要和夯实政府治理正当性的基础。然而,人工智能技术的不确定性、政府治理结构的复杂性以及技术应用不当等因素,也会触发诸如算法歧视、隐私安全、自主性弱化、参与极化、责任模糊等伦理风险。这些问题影响公众对政府治理价值的认知,削弱政府治理的正当性,反而可能成为政府治理现代化的阻滞因素。习近平指出:“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。”[2]因此,研究人工智能嵌入政府治理的伦理风险及其防范,对发挥人工智能的价值、建设人民满意的服务型政府具有重要的理论和现实意义。

随着人工智能技术的突破性发展,目前学界针对人工智能及其伦理风险已有所研究。一是研究人工智能的伦理风险。西方学界主要集中关注智能机器道德性及其实现[3],机器设计[4]1-7、应用以及与人类相处等智能责任问题[5]ⅶ-ⅷ,由此也引发对智能技术使用中存在的公平正义[6]171-182以及隐私的关注[7]101-128。国内学者聚焦人工智能如何导致伦理风险:数据自身偏见、大小样本的地位悬殊、敏感属性都会导致算法歧视[8];机器人没有能力承担全部道德责任[9],引发人工智能的责任归属与隐私安全问题[10]。二是研究人工智能嵌入政府治理的伦理风险。西方学者重点从隐私安全[11]187-201、社会公平[12]等层面探究人工智能引发的政府治理伦理风险。国内学界主要从政府合法性、政府信息安全、公共责任界定等方面,探讨人工智能嵌入政府治理的伦理风险。比如,人工智能回应公民政务咨询将挑战政府权威性和合法性[13],人工智能的嵌入可能引发新的政府信息安全问题[14],政府公共行政过程中人工智能难以确立主体地位[15]。

从已有研究来看,一方面没有明确区分人工智能嵌入政府治理伦理风险的指涉对象,即行政伦理或社会伦理;另一方面缺乏对人工智能嵌入政府治理的伦理风险生成机理的探析。鉴于此,本文着重探讨两个问题:一是人工智能嵌入政府治理会产生何种伦理风险,二是人工智能嵌入政府治理的伦理风险是如何生成的。本文的核心关注点在于从技术理性与价值理性二元互动视角,诠释人工智能嵌入政府治理的伦理风险样态、生成机理以及防范策略。

1 技术、价值与实践:人工智能嵌入政府治理的内在逻辑

随着大数据、云计算、物联网、机器学习等核心技术的蓬勃发展,人工智能实现从简单逻辑推理向自主性、智能化的快速转换。而智能技术群创新的整体推进,推动着政府治理日益智能化。技术的更新迭代为人工智能嵌入政府治理提供了可能,而政府为维护其合法性、改善其功能需求必须吸纳人工智能技术,从而满足人民美好生活需要。从应然与实然角度来看,政府治理与技术吸纳实质是一种双向互动关系,这构成了人工智能嵌入政府治理的内在逻辑(如图1所示)。

图1 人工智能嵌入政府治理的内在逻辑

1.1 从网络连接到智能融合的技术逻辑

技术作为生产力中最为活跃的要素,持续推进的技术变革不断推动生产力发展,继而引起社会生产关系与经济基础的大变革。从人类对技术运用的逻辑来看,在某一技术的发展初期,人类习惯基于传统理念与方式对其加以理解与运用,但随着对技术本质与特点的理解加深,人们能在融合传统技术基础上创造出全新载体。人工智能嵌入政府治理的实质是政府运用人工智能,在大数据、算法以及算力等核心技术的帮助下,简化治理复杂性,从网络连接走向智能融合的过程。简而言之,智能时代政府治理范式逐渐由“数据+算法+算力”模式全新定义,以数据连接的高速率化解政府治理压力,提高治理能力。其一,基于数据集成的网络连接从最初的机器与设备之间的连接,到纵向上突破政府不同层级间的物理阻隔,横向上实现各职能部门的机构调整,形成互联互通的网络社会,有效解决政府信息连接问题。数据如同奔流在信息高速公路上的车辆,极大提高政府公共服务传递效率。其二,人工智能所拥有的机器模型、云计算、神经网络等技术,为处理政务大数据提供技术可能,能将非结构化数据转换为结构化数据,并借助于算法与算力分析不同数据间的关系,将公共领域海量化、碎片化的数据进行智能融合,并转换为可以进行预测以及探寻规律的规则、关系和模式等资料,以技术体系的解构与分化重塑政府治理方式。其三,算力则为数据整理与算法运行提供硬件支撑。近年来,以图形处理器、云计算、泛在计算等为代表的并行式计算模式与系统相继出现,有效满足快速高效的获取数据能力、云端推理与训练等特定计算需要。

1.2 推进政府治理现代化的实践逻辑

政府治理是源于对公共问题的回应与解决而形成的行动网络。处于大变革时代的政府,面对日趋繁重的治理压力和风起云涌的技术革命,其信息处理能力与数据爆炸、公共服务能力与公共需求之间的张力日渐明显。而全能政府模式所推崇的管理艺术与统治机制,使其对社会的影响力与控制力存在明显局限性。面对更为繁重的治理压力,传统的管理与治理技术已无法满足治理需要。正如吉登斯所言:“传统国家本质上是裂变性的,其国家机器可以维持的行政权威相当有限。传统国家有边陲(包括次位聚落边陲)而无国界,这一事实表明其体系整合的水平相对有限。”[16]63因此,政府寄希望于不断吸纳先进技术革新治理方式,补齐治理短板。政府治理现代化就是要通过运用科学方法改善治理体系,本质上提升政府治理能力,而人工智能技术的革命性发展提供了难得机遇。一方面,政府通过运用先进工具收集政务数据,并分类分配至各下级部门,以智能化方式给政府治理提供最新数据支撑,快速解决问题,从而提高治理效能。另一方面,通过运用先进算法以及云计算等工具,研判政务数据中隐藏的民意和趋势,以此分析民众关切点、预测民众诉求,为政府决策与政策执行提供精准化引导。如近年来出现的杭州城市大脑系统和厦门“i厦门”智慧门户,实现了政府治理从人工治理转向智能治理,从单向管理转向协同治理,从模糊治理走向精准治理。

1.3 以人民为中心的价值逻辑

正如休谟所言,任何学科最终都要回归到人性问题[17]2。人类为了改善自身生存状况,实现美好生活需要而借助技术展开的行政集体活动,创造了一个集价值、制度与行为于一体的人化世界——公共行政。但公共行政不仅仅是一种理论与现实的准则供给,更应关注人的问题,回到“公共行政学本质上是对人的行为的研究”这一核心议题。无疑,人的关怀是公共行政的伦理价值依归。人类创造技术的目的在于将人从繁重的体力劳动中解放出来,使人能在更多自由时间里享受美好生活。作为对公共价值权威性分配的政府,其目标在于实现善治,以满足社会需求,服务于人民大众,以维护政治合法性。因此,满足人民美好生活需要成为技术与政治共同的价值追求。人工智能规模化嵌入使政府治理能力增强得以可能,为满足美好生活需要提供了技术支持。然而,善治不只是意味着公共秩序的稳定维护、公共物品的有效供给,更需要一种实现人的自由全面发展的价值指引,主要体现为以人民为中心。从应然角度视之,无论人工智能如何影响政府治理,其价值归依始终是促进人类迈向美好生活。因此,从行政价值关系的主体与客体结构出发,立足于新时代我国社会主要矛盾转换的现实国情,政府应革新政府治理价值观念,扬弃技术决定论,从人民的生存需要、发展需要、幸福需要等方面,将人工智能视为助力公共服务、促进公平正义等公共“至善”的器物形态工具,这便是人工智能嵌入政府治理的价值逻辑。

2 人工智能嵌入政府治理的伦理风险样态

人工智能在嵌入政府治理过程中可能因为失去伦理管控,陷入智能技术偏轨的泥潭。从本质来看,风险是潜在损益的可能性,具有客观属性,而伦理是处理人与人、人与社会等关系时的道德准则。因此,伦理风险实质是某种价值减损的可能性。人工智能嵌入政府治理的伦理风险,指人工智能嵌入政府治理的过程和活动给社会带来的不确定的伦理负效应。人的尊严是人机关系中的最高伦理价值,在政府治理的具体实践中,抽象的人的尊严可具象化为安全、公平、责任、民主等伦理价值。政府治理行为的公共性决定了其主要指涉对象是社会伦理,而非职业伦理。这种社会伦理可分为安全、公平、责任、自主以及民主风险范畴,且在具体情境中又有不同的表现形式,构成了动态分层的伦理风险体系。

2.1 隐私侵犯:安全风险的聚焦点

一般而言,安全是人在获得或维护权利过程中心理与身体不受侵犯的状态。当前,安全已成为公民个体基本生活价值诉求,也是政府治理的重要目标。为提高治理能力,政府愈发引入人工智能。如面对日益繁重的治安防控压力,南京、杭州等地区公安机关着力打造“智慧警务”。也有诸多政府打造智慧政务,将政务服务数据化,并借助人脸识别等技术实现“无人干预自动审批”。但应看到,在具体治理实践中人工智能是建立在海量数据之上,既需收集电话号码、精准位置、个人爱好等个人社交数据,也需收集人脸、声音、虹膜等生物识别数据。由于数据采集不当、数据存储不安全、算法安全漏洞、智能平台技术短板等原因,这些数据容易遭到泄露、篡改,给个人隐私、人身、财产、就业等造成安全风险。据媒体报道,主研人脸识别布控系统且与多个地方政府、公安部门开展智能安全合作的深圳深网视界公司,在2019年2月发生超过250万人的数据可被获取、680万条记录泄露的大规模数据泄露事件,其中涵盖了诸多身份证信息、人脸识别图像及捕捉地点等极其隐私的数据[18]。2019年5月,美国巴尔的摩市政系统遭到黑客攻击长达数周而未恢复,黑客通过勒索软件直接绑架市政系统,并要求政府提供相应赎金,否则让系统内所有数据永远丢失,而在美国联邦调查局官员卡尔·加塔斯看来政府越来越过分依赖人工智能机器学习,而又疏于安全风险防范,才造成如此安全事故[19]。

2.2 公正损益:公平风险的引爆点

在伦理层面公平主要蕴含平等和均衡之义,强调无排他性的分配与认可,公平始终是人类社会发展的永恒价值追求。然而,人工智能嵌入政府治理可能造成公平的损益。一是算法歧视。开发者潜在的价值偏见,加上智能算法规则存在的程序、过程的不透明、不公开等技术黑箱缺陷,对社会公平形成挑战[20]。汉娜·弗莱(Hannah Fry)认为,算法是一种新的理解人与机器之间的关系,她通过分析社会生活中的案例,发现社会日益依赖算法带来的重大决策自动化,并揭示了算法偏见是如何嵌入代码中及其对人类社会伦理产生的负面影响[21]73-90。英国杜伦郡警察和计算机科学学者一直在运用人工智能系统开发危害评估风险工具“HART”,以预测嫌疑人继续犯罪的风险。然而,警方在开发此工具时,将邮政编码作为其建构风险预测的因子,区别对待穷人、富人,“涉嫌”歧视穷人[22]。这一算法黑箱所引致的种族、阶层等歧视,对社会公平造成一定破坏。二是阶层分化。智能革命革新政府治理理念与方式,也改变人类生活方式,将个人不断拉进智能化社会,塑造数字自我。然而,智能时代公众得以参与政府治理的数据权利并非人人拥有。根据第45次《中国互联网络发展状况统计报告》显示,截至2020年3月,我国网民规模为9.04亿,互联网普及率为64.5%[23]。以此视之,我国仍有接近5亿民众没有接触网络,即使算是已有的9亿多人也不能保证能有足够的资源或技能了解和运用人工智能。事实上,智能科技巨头几乎拥有与政府相同甚至更强大的数据收集与处理能力。这些有影响力的智能科技寡头可能会阻碍本已稀缺的数据权利流向普通阶层,使双方在发展能力、资源占有程度与社会影响力等方面存在巨大差距。这种不平等与不对称加大了不同层级间的失衡[24]31,造成“智能鸿沟”,形成新智能权利的“富人”与“穷人”。

2.3 责任模糊:责任风险的凸显点

责任是伦理的本质所在,主要强调个体分内应做的事情,并对自己行为负责。公共行政之维的责任是指因身份或职位而被赋予的职责。人工智能在实现政府治理的责任时存在的责任风险也是其所面临的伦理困境之一。一是责任主体模糊。人工智能时代,表征为过失责任追究的传统机械式责任伦理规则,无法有效应对人工智能技术模糊性带来的责任伦理划分[25]。巴特亚·弗里德曼(Batya Friedman)认为,尽管大多数研究者意识到计算机的识别算法和确定性性质缺乏相应的“人”意志,但仍约有20%的研究将责任归咎于机器的错误[26]。人工智能嵌入政府治理涉及设计者、使用者,加之人工智能本身具有模糊性,倘若使用过程中造成隐私数据泄露乃至财产损失,确定责任主体存在较大困难。比如,运用人工智能辅助政府决策,但决策并非单个个体行为,而是多重合力作用下的结果,权力转移中出现的裂缝使得归责与问责愈发困难。二是责任边界模糊。维护公共秩序、提供公共产品、满足人民需要是政府治理的本职所在,而在弱人工智能阶段,人工智能仅是政府治理的辅助手段而不是治理主体。因此,政府与人工智能间应达成“政府的归政府,技术的归技术”和谐关系,不可出现责任越位、转让等现象。然而,在实践中二者的责任边界往往纠缠不清。2019年,美国加州议会通过议案禁止警方在人体摄像头上使用面部识别技术,此举在力图减少执法歧视问题外,还意在提醒警方智能技术仅用于缩小嫌疑人范围而不是自行决定逮捕谁[27]。

2.4 技术依赖:自主风险的诱发点

从伦理视角来看,人的自主性强调人是具有自我价值判断和自主选择的道德主体。人工智能的显著特点是机器的自主学习,能模拟或替代政府行为,使政府治理从经验向数字、从被动向自主模式转变。然而,人工智能技术在优化政府治理时又使得公务人员形成技术依赖,阻碍自主人格形成。一是技术依赖损害决策自主性。越来越多的政府正不断升级识别技术,将智能识别机器广泛用于维护公共安全,试图以技术性思维取代制度性思维,使行政人员成为依附于智能机器的齿轮,等待技术提供“最优决策”,而不是思考应遵循何种价值观与程序决策。二是“技术和技术平台的确能够以‘跃进’的方式提升体制效率和体制韧性,但是这种提升效应是短期的,不仅难以持续,而且还会造成体制的长期固化”[28]。政府通过不断增设专门机构吸纳人工智能嵌入,试图在短期内大幅提升治理能力,但层层增设机构使“组织变成一个巨大的机器,缓慢且笨重地在最初确定的方向上蹒跚前进”[29]130,反而制约了行政人员管理与组织的自主性。三是技术依赖影响自主性行政人格的形成。人工智能技术嵌入政府治理在一定程度上将行政人员从事无巨细的繁重工作中解放出来,并创造出某种“舒适区域”。但这如同温水煮青蛙,造成众多行政人员逐渐将自己与数据和算法捆绑,过分依赖人工智能技术,挤兑行政自主的空间与基础,抑制从政府治理实践中获得进化的能力,遇事先求助于智能技术,而非主动思考解决。

2.5 参与弱势:民主风险的关键点

在理论层面民主更多被阐释为一种制度安排和政治体制。在价值层面,民主主要强调公平,有机会参与决策。政府治理是一个科学化、民主化过程,而民主正是其本质特征所在。政府运用人工智能解构政府与社会的传统关系,拓宽了民主的广度、深度、幅度。然而也存在民主风险。一是技术主导下的公民参与弱化、分化。受晦涩难懂的专业知识限制,人工智能技术始终被少数具有专业知识的专家所掌握,并形成技术精英群体。技术精英群体了解人工智能技术,更易接近政府权力中心,凭借专业知识拥有对政府治理的强大话语权,容易使政府治理不建立在“普通公民”基础之上[30]307。而因知识与经验等差异,碎片化的普通民众甚至无法理解何为智能技术,更遑论参与治理对政府决策施加影响。如此一来,反而变相提高了参与门槛,导致公民参与弱化、分化。二是治理权力技术化、资本化催生“超级权力”。面对不断增加的治理压力以及对智能技术的不熟悉,政府愈发依赖甚至不得不将部分特定治理权力让渡于优势企业,而人工智能的复杂性以及科技企业的优势,使得企业在部分技术治理标准制定中拥有绝对话语权[31]。更可怕的是,这些优势企业凭借对智能技术创新的垄断地位,能保持对智能技术的持续扩张,不断强化其垄断地位,逐渐形成能操纵政府治理的“超级权力”,这实则是反民主的表现。

3 人工智能嵌入政府治理伦理风险的生成机理

揭示人工智能嵌入政府治理的伦理风险生成机理,在很大程度上能有效解释伦理风险为何以及如何生成的演化逻辑,这也是风险防控的枢纽。人工智能嵌入政府治理的伦理风险是一个有机系统,其生成是多重因素共同作用的结果,除了系统内的源发性和触发性等基本因素外,还包括行政生态环境等系统外的其他要件,系统内外各要素在政府治理实践中互动耦合,最终导致伦理风险生成(如图2所示)。

图2 人工智能嵌入政府治理的伦理风险生成机理

3.1 路径界定:风险的实践生成论

马克思主义认为人类社会生产的本质是实践性的。实践构成了人的生存与发展的基本形式,具有主观与客观、价值与事实相统一的特性,既受到人的理智制约,也易被欲望、情感等非理性因素所干扰。实践的二重性特点决定了只要有实践活动就必然无法回避风险。可见,人工智能嵌入政府治理伦理风险不是人为想象的,而是产生于“个体的与社会的、传统的与现在、事实的与价值的、经验的与规范的多重视角之间互相转换与不断融合”[32]的实践过程之中。因此,将实践作为风险的本质契合了人工智能嵌入政府治理伦理风险的生成根源。

从生成性视角来看,政府治理本身是一种实践生成过程,是特定时期内政府行为的集合。在政府变革治理模式,获取社会支持与资源供给过程中政府治理已不是封闭的体系,而是一个与社会各要素不断交互的开放大系统。然而,在交互过程中实践活动的扩展将自然运动后果与人类社会生活紧密联系,使人类面临超出传统自然的风险,而这种风险来源于人类治理实践。引入人工智能是政府治理适应时代发展要求之选择,但相关标准和价值准则处于动态演变中,且囿于人工智能的不确定性、主体认知结构的局限性,这一过程超出了政府治理活动的理性边界,极易诱发伦理风险。

从政府治理的价值层面来看,一方面,政府治理强调运用相关工具与方法进行公共治理,满足社会需求。因此,公平正义、秩序稳定、社会和谐等均是政府治理的核心价值追求。然而,这些价值追求本质上是相互独立,且无法优先排序,一旦相互冲突政府便陷入伦理两难境地。着眼于此,政府希望借助人工智能的理性算法为其提供清晰的价值最优解,但这一解答无法保证结果是至善的,易陷入技术至上主义漩涡。另一方面,其他治理主体有着不同的价值追求,如科技企业主动融入政府治理中,主要目的是获取发展资源而实现组织扩展;公众则期望政府通过引入人工智能以满足其需求和保障权益。因此,实践过程中利益主体间关系错综复杂和行动偏好迥异成为伦理风险生成的重要因素。

3.2 风险生成:多重因素的互动耦合

政府治理系统可分为内部和外部两大系统。由于技术治理不可避免地受政府科层系统规定和制约[33],因此,内部系统自然是剖析人工智能嵌入政府治理伦理风险生成的核心。但政府治理是“由环境包裹着的行为系统”[34]325,并且在人工智能技术的加持下政府治理更加呈现出系统协同性、主体多元性、过程动态性,其实质是主体、客体、环境以及智能工具等内外因素间互动合作行动的动态治理过程[35]。伦理风险并非伦理自身的风险,而是一种伦理建构中的风险表现,与人类社会具有紧密关系。因此,探索人工智能嵌入政府治理的伦理风险生成,不能割裂系统内外间的相互关系。

从系统内部来看,伦理风险生成遵循着“因素集聚—因素扩散—后果生成”的过程。一是风险因素集聚。伦理风险因素主要包括人工智能技术的不确定性,如算法安全漏洞、算法歧视、数据共享能力弱、数据使用违规等;政府治理结构的不完善,主要包括组织结构匹配性弱、AI与决策机制难兼容、AI监管制度不健全、AI应用追责机制局限等;公众伦理风险感知,如伦理关心程度差异、利益趋向性选择、对AI和政府系统不信任等。整体而言,这些因素可以分为客观存在的源发性和主观判断的触发性两种因素,这些因素是伦理风险生成的根源,且使得伦理风险具有不确定性和实践性特点。但源发性与触发性两类因素本身并不会主动造成风险,在伦理风险发生之前二者只是潜在风险因素,处于隐匿状态,更不会对社会价值造成损益,此时社会公众也无法感知风险。二是风险因素扩散。风险因素是事实存在且处于不断聚集状态,多种因素互动耦合所形成的风险合力能否导致最终的伦理风险生成,取决于是否有具体行为超出对风险合力的控制范围。随着外部环境日益复杂化,特别是传统整体性治理模式已难以产生持续的治理动能,政府必须吸纳人工智能以缓解治理压力,提高治理效能。但囿于政府治理结构、理念等不健全,政府引入人工智能用于具体治理实践时,易对社会价值造成事实上的损害。此时,政府治理活动便成为扣动伦理风险生成的开关。三是风险后果生成。政府的价值损益行为刺激社会公众的风险感知觉醒,促使源发性与触发性因素耦合形成合力,而主观与客观条件互动加速风险因素扩散,此时隐匿风险便转化为外显风险并传递至全社会,风险因素开始转化为风险事件,从而造成伦理价值损失。如现在诸多城市正重点开发的“重点人群身份识别系统”功能在于秩序管控,但由于算法安全漏洞、数据使用违规、政府人工智能监管制度不健全、政府职能边界与人工智能融合矛盾等原因,造成对安全、公平、责任、自主以及民主等价值损益,使得社会公众逐渐对人工智能、政府治理系统产生不信任。同时,社会公众会依据价值损失进行利益权衡,当价值损益超过容忍界限,将寻求制度性的利益诉求以维护自身权益。一旦利益诉求无法满足时,社会公众就会转向非制度性的表达渠道,在系统内部聚集伦理风险,此时伦理负效应便开始显现,造成伦理风险后果。反之,当价值损益仍在容忍范围之内时,伦理负效应则仍处于隐匿状态。

从系统外部来看,人工智能嵌入政府治理涉及AI研发企业、第三方机构评估、媒体介入、社会伦理文化等具体环境要素,这些因素是伦理风险生成的诱发传导变量,推动风险因素及风险后果的“集聚-扩散”。研发企业拥有对人工智能的解释话语权,如果其滥用数据,且不注重解决算法的安全性与解释性困境,则会成为风险因素集聚的主体。同时,第三方机构评估本应发挥着诊断与阻隔风险的功能,但由于利益诱导、监督机制缺失等原因,其存在权力寻租,导致不负责的行为丛生,可能将已知的风险因素视而不见,任其绵延至政府治理中,放大伦理风险。在信息爆炸时代,当伦理风险因素出现时,媒体的介入成为分水岭,如果能及时向社会宣传、发布关于人工智能的科学知识与积极信息,则能消解社会紧张感,不会点燃社会情绪。如果发布不实信息,不负责任地将社会舆论引向政治化与复杂化,将降低社会对政府与人工智能的信任感,成为风险酝酿、发酵、扩散的重要推手。而这一重要推手成为激活消极社会伦理文化的关键,推动消极社会伦理文化迅速蔓延,并逐渐瓦解社会伦理信任体系。这些外部要素具有不同的文化背景、认知维度、历史视界,体现出特定目的性行动,故会基于不同标准把握认知对象,导致事实与价值之间的张力不断扩大,在系统外衍生出机构、文化等新问题,使得政府治理行为存在异化风险,刺激伦理风险产生。

当伦理风险仅在系统内生成时,政府可通过相关途径在机制上防止风险演化,但如果系统外衍生出其他风险,加剧风险因素的集聚、扩散,且使得伦理风险在社会群体中不断传导,伦理风险就难以避免。可见,人工智能嵌入政府治理的伦理风险是内外多重因素互动耦合的结果,二者以政府治理实践过程为主线,形成了“内部系统风险内生—外部系统风险衍生—社会群体风险传导”的伦理风险生成路径。

4 人工智能嵌入政府治理的伦理风险防控策略

人工智能技术群的突破性发展,使政府治理难以拒绝智能技术及其使用。然而,这一吸纳过程所产生的伦理风险是复杂的,专注于某一节点、某一因素的碎片化防控举措,无法有效应对伦理风险对政府治理价值的损益。科学在于求真,而伦理在于求善。因此,需要以维护人民安全为宗旨,实施“监管智能技术-优化政府治理结构-提升公众风险感知能力”三要素协同的伦理风险防控策略。

4.1 强化负责任人工智能技术的突围

当前,人工智能正成为撬动政府治理精细化、智能化的杠杆。传统观点认为,人类对自我创造的技术产品最为熟知,“非常清晰清楚怎样将东西转配在一起以及怎样将它们拆开”[36]21。然而,人工智能作为一项具有广阔运用前景的技术,同时也是一项充满挑战的颠覆性技术,指令代码的晦涩难懂、算法的涌现性和自主性等带来的技术黑箱,使得人工智能发展已超越社会系统的适应能力,它将诸多不确定性风险带入政府治理中,成为诱发伦理风险的基础性因素。可见,加快人工智能核心技术突围,以负责任态度确保技术安全,是解决其嵌入政府治理产生的伦理风险难题的关键。

其一,加强人工智能核心技术的突破创新。相较于目前已知的其他科技,人工智能技术复杂的交互程度、研发的分散程度,使得人类目前对其了解仍处于初步状态,特别是作为人工智能核心的算法,在其嵌入政府治理中可能由于透明度、解释度不够导致使用者无法理解其运行原理,也就无法有效管控其风险。因此,我国应抓住人工智能技术发展的战略机遇期,加强人工智能核心技术的突破创新。如增强算法透明度,可在不涉及核心机密以及所有者权益基础上,适度公开算法准则、操作标准;增强算法解释度,以有效避免算法决策错误和歧视而造成的伦理价值损益。

其二,强化人工智能创新主体的责任意识。人工智能的核心技术算法是由技术开发者、设计者所掌握,因此其发展如何与技术创造主体密不可分。然而,一旦技术创新主体将带有偏见、歧视等错误价值植入算法中,并带入政府治理中极其容易诱发伦理风险。正如爱因斯坦所言,使用科学技术“究竟是给人类带来幸福还是带来灾难,全取决于人自己,而不取决于工具”[37]56。而相比于法律规制的滞后性,责任意识监管更具前瞻性。因此,必须强化人工智能创新主体的责任意识,将其转化为创新主体易于理解与接受的代码植入人工智能设计中,使其接受责任伦理,并内化为道德自律,实现伦理规制与技术创新的融合。

其三,完善人工智能技术风险的评估机制。若要减少因技术漏洞而导致的伦理风险,完善的风险评估机制必不可少。尤其是对于尚存在技术黑箱的人工智能而言,一方面须从算法容错设计、技术漏洞检查和修复等[38]方面加强监管与评估,对存在算法黑箱的人工智能技术,应禁止运用于安全责任要求较高的政府治理领域;另一方面要创新风险评估机制,加快推行用户参与式、体验式风险评估。避免“技术先行”策略,在人工智能投入政府治理前可在一定范围内进行适应性论证使用,根据用户体验实际情况评估技术风险,以提高风险评估的科学性。

4.2 完善政府治理结构

人工智能嵌入政府治理引发的伦理风险是在治理实践中生成的,而治理结构的动态调整与适应是保障政府治理有效实现的关键之一。完整合理的政府治理结构能配合人工智能技术的高效识别、智能处理,合理分配公共权力和权威,保障政府计划以及职责的充分运行。而传统政府治理结构遭遇人工智能时将面临着惯性束缚,无法有效回应治理诉求。一方面,治理结构的层级节制与人工智能开放性、政府职能边界与人工智能融合矛盾,使得组织结构匹配性弱。另一方面,经验决策、信息孤岛、人工智能人才缺失、平台建设滞后等,导致人工智能与政府治理决策机制难兼容。加之人工智能应用追责机制局限,极易触发责任伦理风险。再一方面,目前我国针对人工智能安全标准、应用安全评估、漏洞监测披露等监管制度不健全,落后于智能技术的迭代更新,关键性制度缺失造成政府治理结构割裂。因此,“应当创设和完善相关治理机制,以此来承接人工智能技术的道德承诺、责任规则以及实践规范”[39],形成对接人工智能技术的政府治理结构,以降低伦理风险可能性。

其一,完善政府组织结构以匹配智能技术。传统“条块”分割式的政府组织结构随着智能时代的到来,面临治理碎片化、数据信息无法共享、权责关系不清等弊病,无法适应人工智能时代的扁平化结构要求。因此,一方面要重塑各级组织结构,搭建人工智能运行监管机构与数据共享平台,及时管控人工智能嵌入政府治理过程存在的风险;要明确组织职能边界,构建责任清晰的政府治理决策机制;要实现跨部门信息资源交换与共享,以推动建立公共数据演练数据库,增强数据安全性。另一方面要构建以政府为主导的对话与合作平台,围绕人工智能发展、规划以及运用场景等议题,加强与科技企业、社会力量的沟通与合作,以增强对系统外风险诱发因素的引导能力。

其二,加快相关制度体系建设。“伦理责任的实现不仅依靠内在的道德力量,而且必须将这种力量外化为一种制度安排,这样才能使道德之花结出丰硕的技术‘善’果。”[40]173人工智能嵌入政府治理需要建立与之相适应的制度体系,以弥补制度缺失带来的裂痕。目前我国个人隐私数据保护、责任追究、算法歧视规制、人工智能第三方评估机构监管、技术容错纠错等制度滞后于人工智能发展,且尚无科学、完整的事先伦理审查机制,无法有效应对人工智能嵌入政府治理中带来的伦理价值损益。另外,要加强对媒体的监督,抑制伦理风险在媒体传导中不断扩散。

4.3 提高公众伦理风险感知能力

某种事物之所以产生风险,除了其本身存在的不确定性与复杂性外,主观感知也是重要因素。伦理风险作为风险的重要议题是主观与客观相结合的结果。当风险因素通过各种中介传递之后,个体能从价值、心理和文化等方面感知风险因素,形成风险判断,放大或缩小伦理风险,最终形成公众伦理风险感知。从人工智能嵌入政府治理来看,个体对伦理关心程度差异、公众对人工智能与政府系统不信任、公众对政府运用人工智能带来的利益趋向性选择、信息丰富性程度等,是公众伦理风险感知触发伦理风险的重要因素。当个体对伦理关心程度较高时,其伦理风险感知就越高,反之亦然。当公众对人工智能、政府系统越信任,则越能减低伦理风险感知,反之如无法兑现政府价值承诺、否认专家权威,则更易引发公众对政府系统不信任、心理恐慌以及技术担忧。公众的伦理风险感知还深受风险信息获取多寡等影响。可见,风险感知是伦理风险因素转化为伦理风险的中介机制。

其一,加强公众伦理风险教育。伦理风险素养影响公众伦理风险感知水平,倘若公众对伦理风险认知较少甚至存在盲区,则可能会产生技术恐慌,甚至可能夸大伦理风险。作为新兴技术,一些公众对人工智能一知半解,当看到大量智能机器取代人工劳动时,更容易加剧公众对人工智能技术的担忧与恐惧。因此,加强人工智能技术及其嵌入政府治理的教育,帮助公众知晓科技伦理与道德标准,从而充分了解人工智能技术风险及其伦理负效应,有助于提升公众的伦理风险认知能力。

其二,扩大公众的技术决策参与。加强公众伦理风险教育,增强公众的伦理风险认知有助于减小技术恐惧感,但仍难以摆脱专家至上思想的桎梏。引入人工智能的本意在于提高政府治理能力,但假如这一过程缺乏公众参与,遮蔽公众对政府引入人工智能目的的知情权,将加剧公众对人工智能、政府系统的不信任。因此,要搭建专家与公众的交流对话平台,拓宽公众参与渠道,优化参与形式,提高公众的技术决策参与意识,增进公众对技术嵌入政府治理的接受度、信任度,在政府治理与公众利益间寻找最佳利益契合点,疏导公众对人工智能的焦虑。

其三,强化政府信息公开。在某种程度上而言,风险是以个人日常生活信息为依据构建的。在智能信息时代,个人对伦理风险的感知在一定程度上是对所获取信息的甄别与选择过程,信息的多寡深刻影响公众的伦理风险感知能力。因此,信息公开是伦理风险感知的现实需要,其对规避伦理风险走向实体化发挥着重要作用。一方面,在运用人工智能过程中,政府需在保护商业隐私前提下,依据《政府信息公开条例》向社会公众及时披露技术运用合理性、潜在风险、对个体心理与利益的损益程度,尤其是可能对个人伦理价值造成危害的重要信息。另一方面,要向社会公众告知政府运用人工智能的具体形式、伦理标准、操作流程,并充分保障老年人等特殊人群的智能技术知情权,实现政府信息公开与社会信息传递的互动。如此,既保障公民知情权,也增强对人工智能技术和政府系统的信任和信心。

5 结语

当前人工智能的快速发展势不可挡,为政府治理提供了崭新工具。“数据+算法+算力”所全新定义的智能政府治理模式,实现从网络连接到智能融合的技术跃进,在分析、诊断、预测以及决策等层面提升政府治理能力,推进政府治理现代化。然而,在人工智能嵌入政府治理过程中可能失去伦理管控而出现伦理风险。作为一种价值减损的可能性,伦理风险在政府治理实践中呈现出安全、公平、责任自主以及民主等样态。从政府治理实践过程来看,人工智能嵌入政府治理中的伦理风险是多重因素互动耦合的结果,剖析生成机理有助于有效防控化解伦理风险,充分发挥人工智能在助力政府治理能力提升中的积极作用。诚然,人工智能还存在着“算法黑箱”等不足,嵌入政府治理引发伦理风险也不可避免。但不必过分夸大伦理风险,也不必悲观否定其价值,社会仍能形成合力,最大限度降低伦理风险,推动人工智能与政府治理同频共振,实现人民美好生活需要。当然,人工智能技术更新仍处于进行时,在未来人工智能将发展成何种状态,政府治理又将如何适应,这一问题值得学界持续关注。

猜你喜欢
伦理人工智能算法
《心之死》的趣味与伦理焦虑
灵长类生物医学前沿探索中的伦理思考
哪种算法简便
护生眼中的伦理修养
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
根据问题 确定算法
人工智能与就业
伦理批评与文学伦理学