人工智能伦理制度化:影响因素与生成逻辑
——基于扎根理论的政策文本分析

2023-10-17 12:42赵丽英
黑龙江社会科学 2023年5期
关键词:制度化伦理人工智能

白 彬,赵丽英

(山西财经大学 公共管理学院,太原 030006)

作为新一轮科技革命的核心驱动力,人工智能技术在其研发与应用的过程中,不可避免地会涉及一系列复杂性与动态性并存的伦理问题,仅凭个人自省、伦理道德等单向面的应对措施,难以应对潜在的人工智能伦理风险[1]。在此背景下,各国政府和组织开始积极寻求并制定人工智能伦理的价值原则、行动指南和制度规范,通过推进人工智能伦理制度化建设来提升实际的伦理规范效力,这成为加强人工智能伦理治理的新的着力点[2]。2021年初,《网络安全标准实践指南——人工智能伦理安全风险防范指引》的颁布,为我国人工智能伦理规范的初步建构奠定了重要基础[3]。同年9月,《新一代人工智能伦理规范》的制定实施又极大地推进了我国人工智能伦理制度化进程。但我们也应当明晰,目前我国暂未制定专门的人工智能伦理规范制度,绝大部分人工智能伦理的准则、规范和制度仍呈碎片化状态分布于不同政策及法律文件之中。这一方面暴露出新时代我国人工智能伦理体系建构的缺位与不足,另一方面也为我国人工智能伦理制度化建设的发展和完善提供了良好的契机。据此,探索人工智能伦理制度化的影响因素和生成逻辑,对加快我国人工智能伦理制度化建设进程,长效推进我国人工智能治理工作具有重要意义。

一、研究回顾

人工智能伦理(ethics of Artificial Intelligence)属于科技伦理的范畴[4],是对人工智能伦理问题及其生成风险进行伦理思考的新兴研究领域[5],主要包括对人工智能相关的伦理理论、指导方针、原则、规则和法规,以及如何遵循伦理规范来设计与运行人工智能的探索[6]。联合国教科文组织在《人工智能伦理问题建议书》中,将人工智能伦理定义为“对人工智能技术进行规范性评估和指导的动态管制基础”[7]。在人工智能和大数据技术迅猛发展的叠加效应下,学界和业界对人工智能伦理风险及其治理的关注度日渐提升,经历了从人工智能伦理价值到伦理风险规制策略研究的逐步深入[8-12]。但由于人工智能伦理的治理本身兼具公共性与复杂性,单一强调人工智能伦理的价值认同和“发现问题—分析成因—提出对策”的线性框架思路,仍然难以通过当下严峻复杂的现代性风险考验,因此还需构建可信、可行的人工智能伦理亟需的规则制度,以推进人工智能伦理的制度化建设。

制度化是从规则到行为等一系列范畴和现象规范化、普遍化的过程,主要包括规制型制度化、契约型制度化和建构型制度化三种类型[13]。人工智能伦理制度化是将人工智能伦理的价值与要求转化为国家规范化、常态化的正式性行动原则、集体规约与管理制度的过程。根据制度化的分类,可将人工智能伦理制度化大致分为三类:人工智能伦理治理适用的法律法规、管理办法、框架协议等强制性制度化,以伦理道德为基础的权责划分、行为准则等约束性制度化,受文化环境和个人观念影响的共同行为逻辑。目前,学界在人工智能伦理制度化方面展开了较为丰富的研究,主要可分为以下三方面:一是问题指向方面,认为人工智能伦理制度的落后会加剧人工智能的伦理风险[14],并从制度规范层面的人工智能伦理规范缺失、伦理监管机制不完善等方面分析了人工智能伦理问题的成因[15];二是实践路径方面,要求政府主体根据技术使用的不同场景,制定指导性和规范性的人工智能伦理政策[16],将社会对人工智能的价值选择制度化为具体的法律法规等[17];三是内容分析方面,提炼出国内外人工智能伦理规范文件中涉及的基本伦理原则[9],总结已有人工智能伦理原则的特征[18],并学习借鉴IEEE人工智能伦理规范实施机制等[19],为进一步探讨人工智能伦理制度化建设提供了重要参考。

回顾既有研究发现,学界围绕人工智能伦理风险与治理困境提出了极具价值的思路及对策,针对人工智能伦理制度化的“事后”规制和实践方向方面,虽然已形成了较为丰富的研究成果,但仍然存在一定的研究不足:一方面,既有研究多是从应然性角度提出制度层面的理论框架和路径方向,缺少实然性角度的实证分析。另一方面,人工智能伦理制度化“事前”领域的研究略显不足,鲜有学者对人工智能伦理政策生成阶段的影响因素和作用机制进行探索。据此,本文立足于人工智能伦理制度化的“事前”阶段,基于我国人工智能伦理相关政策文本材料,运用扎根理论对我国人工智能伦理制度化的影响因素展开实证研究,揭示各因素对人工智能伦理制度化的生成逻辑,为我国人工智能伦理制度化建设提供理论指导。

二、研究设计

1.研究方法

扎根理论是由Glaser与Strauss提出的基于经验材料建立理论的质性研究方法,这种方法主张不事先预设立场,而是带着研究问题,具体深入被研究领域中获取研究资料,通过系统、详尽地描述和反思研究现象与情境,并从中提炼理论,可用于破解经验研究中的双重困境[20]。人工智能伦理制度化过程需要经过一系列政策转化,以探索人工智能伦理制度化的作用因素及其互动关系会涉及的因素识别和过程解读,扎根理论和政策文本分析方法与本文的研究目的相适配。因此,本文选用此研究方法,运用Nvivo12质性分析软件对我国相关政策文本进行逐级编码和内容调整,分析作用于我国人工智能伦理制度化的关键因素,概括其有效推进的核心逻辑。

2.数据来源

政策文本作为研究公共政策和公共管理问题的切入点具备逻辑合理性和操作可行性,能为政策过程分析提供丰富可靠的经验数据[21]。本文采用的政策文本数据源自“北大法宝”智能服务平台,通过“人工智能伦理”“技术伦理”“科技伦理”等关键词,对中央相关部门发布的政策文本及其解读文本进行初步筛选,并在对应政府官方网站进行复查,以保证政策文本的真实性和原始性。值得注意的是,由于我国人工智能伦理制度建构仍在起步阶段,大部分政策文件标题并未完全与研究主题吻合,但其正文中包含与人工智能伦理有较高关联度的政策文本,因此也被列入筛选范围之中。经过对初筛文本的粗略通读、二次筛选剔除关联度较低的文本后,最终保留的政策文本共计32份,本文选取部分政策文件列表说明,如表1所示。

表1 我国人工智能伦理相关政策文件列表(部分)

三、编码过程

本研究遵循扎根理论相应流程,通过开放式编码、核心编码和选择性编码对政策文本数据进行分析,提炼和归纳作用于人工智能伦理制度化的核心要素,并在饱和度检验的基础上生成理论模型。

1.开放式编码

开放性编码是对样本材料内容在反复斟酌、推敲、比对、精炼的基础上,科学合理地提取初始概念、归纳初始范畴的过程。本文将政策文本材料中切合研究主题、表达行动缘由的文本视为一个有效的原始语句。在剔除与研究主题无关的内容之后,对与研究内容有较高相关度的原始语句的概念内涵进一步识别,最终提炼出77个初始概念和26条初始范畴,因考虑篇幅因素,选取部分初始概念和范畴列表予以说明,如表2所示。

表2 开放式编码的初始范畴及其概念(部分)

2.核心编码

核心编码是扎根理论方法的第二阶段,根据初始范畴之间的逻辑、类属关系归纳得出更高一级的主范畴。本研究在充分考虑人工智能伦理规范的实施背景和各要素关系的基础上,对开放式编码得到的26个初始范畴进行反复比较和深度解析,发现其主要内容可以进一步提炼为8个主范畴,如下页表3所示。

表3 核心编码的主范畴及其初始范畴

3.选择性编码

选择性编码过程是对主范畴之间的逻辑关系做进一步的提炼归纳,以“故事线”的方式描述其脉络架构,得出能够贯穿始终、反映全貌的核心范畴。通过对主范畴的再次聚拢和精炼,以三个核心类属对围绕主范畴的“故事线”进行概括,如下页表4所示。在发生条件、辅助工具和联结行为三个关键要素的共同作用下,人工智能伦理制度得以产生与落地。最后,通过对随机预留出的6条政策文本语句作饱和度检验样本再次编码后,发现并未增加新的重要概念、范畴及关系。因此,本研究所得结论通过饱和度检验。

表4 核心编码的主范畴及其初始范畴

四、人工智能伦理制度化的模型阐释

扎根理论三级编码分析结果表明,发生条件、辅助工具和联结行为是人工智能伦理制度化的主要影响因素。据此,本研究构建出人工智能伦理制度化的“条件—工具—行为”模型(见下图),并对其进行理论阐释,有助于厘清各要素的具体内涵及其互动关系,明晰人工智能伦理制度化的具体生成机理。

图 人工智能伦理制度化的“条件—工具—行为”模型

1.发生条件:人工智能伦理制度化的驱动力

我国人工智能伦理制度化具有多重发生条件,其中外在风险社会情境、决策者的价值感知和自上而下的政治势能构成了最主要的驱力来源。

经济社会情境变化是影响政策变迁和制度安排的重要因素[22],其中,风险社会情境作为一种特殊情境,能够对社会产生高强度、广范围的大型冲击影响[23]。当代人工智能的发展产生了诸多技术伦理风险和社会治理风险,具体包括影响社会价值、侵犯个人权利、影响公平公正、模糊责任边界在内的诸多伦理安全风险,以及数字鸿沟、数据安全、隐私保护等全球性非传统安全风险等,都对当前传统伦理规范带来强力冲击。不过,风险与人为的决定紧密相关,能够对被规范化、制度化的原则施以控制[24]。在这一外在风险情境的驱动下,中央相关部门制定了《人工智能伦理安全风险防范指引》《中国关于加强人工智能伦理治理的立场文件》等专项文件,出台了突发公共卫生事件等紧急状态下的科技伦理审查规则,力求“最大限度降低风险,确保人工智能安全、可靠、可控发展”。由此,风险情境作为一种重要外部驱动条件,能够促使我国人工智能伦理规范制度的构筑,以最大化发挥出抵御风险之“围墙”的隔离功能[25]。

计划行为理论认为,个体行为会受到自身行为意愿的直接影响[26],而价值感知是提升其行为意愿的重要条件[27]。从本文视角来看,价值感知可以看作是政府对人工智能伦理制度化建设成本及其前景价值的综合评估。党的十九大以来,在国家预期愿景、现实问题需求、多方重点关注等因素驱动下,我国政府对人工智能伦理制度的建构产生了较高的前景价值感知,认为人工智能伦理制度化能够满足我国“推动人工智能健康快速发展”和“促进科技事业健康发展”的要求,有利于解决算法歧视、公民个人权益保护等现实问题,同时契合我国“建设创新型国家和世界科技强国”“形成人工智能治理中国准则和标准”等良好预期愿景。在此内部高价值感知条件的驱动下,我国政府对人工智能伦理制度化建设的行为意愿随之提高,最终产生了人工智能伦理制度制定、落地与实施的实际行为。

政治势能是我国公共领域中具有本土化优势的经验总结和“高位推动”现象的学理表述[28],是由政治系统内、部门内主体的非对称地位之间产生的发展态势和政治影响能量[29]。我国自上而下的政治势能以国家指导思想、国家战略目标、中央部门部署,以及下达重要文件和指示批示等方式科学分配政治资源,发挥出强大的价值信念引领与历史使命判断。具体来看,中央关于加快发展新一代人工智能、建设数字中国等重要部署,“实现和谐友好、公平公正、包容共享、安全可控的人工智能”等具体论述,为政府积极建构人工智能伦理制度提供了战略方向;以习近平新时代中国特色社会主义思想为主的指导思想,会同党的十九大以来历次会议中凝练出的共识精神,在党中央统筹人工智能伦理制度化建设进程中起到了价值引领作用;再如,中央政府在人工智能三步走战略中明确要求的人工智能法律法规、伦理规范和政策体系的战略目标指向,督促了人工智能伦理制度化目标的如期实现。可见,我国政治势能在传递过程中形成了高于常规运行体制的制度期望与制度压力,是人工智能伦理制度化的突出驱动条件,也成为人工智能伦理价值上升为具体规则要求的重要行动杠杆。

2.辅助工具:人工智能伦理制度化的托动力

辅助工具即保证政府如期实现人工智能伦理制度化目标的工具和方式,是托动人工智能伦理制度建设工作开展的关键。本文通过对现有政策文本的概念提取,整合出经验准备、保障基础和配套支持三方面要素。

人工智能伦理制度化的经验准备中包括了必要的前瞻研判意识和广泛调研工作,能更好地解决现实问题,也能更有把握地判定发展态势[30]。首先,前瞻研判意识具有长远性与战略性,能够把握事物发展的前进方向。在相关制度政策出台前,中央部委基于深入调研、充分开展理论实践研究等扎实准备,对科技发展带来的伦理风险和规则冲突进行了全方位综合研判,分析了人工智能伦理制度化建设必需的条件、要素与预期效果,以规划性、筹谋性和事前性意识把控人工智能伦理制度化进程。其次,对多方信息广泛精准的调研则是提升人工智能伦理政策制定与实施可信度的必要准备工作。在具体实践中,我国基于先前的人工智能发展规划,从不同群体角度出发开展调研,通过网上建议征集、科技界与社会意见征求、专家反复研讨,广泛凝聚共识,对发挥人工智能伦理新生规范制度的民主性、实践性优势具有重要意义。

我国既有法律法规的规制和科研技术基础是托动人工智能伦理制度化的主要保障基础。一方面,人工智能伦理规则制度的建构与完善,遵循《科技进步法》中对伦理治理责任的明确规定,将《个人信息保护法》《数据安全法》等法律法规作为规制保障,使人工智能伦理制度化建设有法可依、有据可循,人工智能伦理规范实施工作更加“成熟”、更加“定型”[31],是实现人工智能伦理制度化公平正义的重要保障。另一方面,专家学者与技术人才的知识储备,与其开展的各项人工智能研发与应用活动、人工智能行为科学伦理、人工智能法律伦理等基础理论研究与实践应用,构筑起我国坚实的人工智能科研技术基础。专业人士对人工智能伦理评估的多元观点,为制度构建提供更为客观、中立和稳健的政策建议,在一定程度上弥补了民意上的片面性和非理性的缺陷,保证了人工智能伦理规范内容的科学性。

配套支持主要从制度体系安排、伦理意识培育、科技人才培养方面为人工智能伦理制度化的建设起到托动支撑作用。首先,我国《国家信息化发展战略纲要》和《“十四五”国家信息化规划》,以及数据安全标准体系建设、监管审查机制等配套部署与布局,为推进人工智能伦理制度的落实工作提供了方向指引。《新一代人工智能治理原则》和《新一代人工智能发展规划》的先后颁布又为我国人工智能伦理制度化建设辅以更加深入与细化的衔接支持。其次,国家重点强调相关利益主体的伦理意识培育,如加强公共部门工作人员的公共伦理意识、增强技术人员的科研精神和公民的数字道德伦理教育,都为促进社会主体间的行为自觉,推进人工智能伦理政策实施提供坚实的伦理认知基础。最后,高水准的科技人才队伍是推进人工智能伦理制度化建设的根本。对此,政府专门成立了人工智能高层次人才培养专家委员会,以加强对人工智能技术专业研究生的培养,也为实现我国人工智能伦理制度化的重大突破提供人才支持。

3.联结行为:人工智能伦理制度化的助动力

联结行为是指参与人工智能伦理制度化建设的多方主体之间的互动行为。研究发现,国际视域下的竞争与合作和国内视域下的多元协作,是助力人工智能伦理制度化持续推进的联结行为。

习近平提出的“人类命运共同体”拓展了人工智能治理领域研究的新视角。近年来,各国对人工智能伦理风险治理的进展与反思也呈现出了全球化的竞合图景[2]。从国际竞争来看,人工智能的安全和发展已然成为各大经济体竞相布局的焦点,各国政府纷纷出台人工智能伦理相关政策法规,避免错失国家发展机遇。在此竞争态势的助力下,中国加快了制定人工智能伦理标准体系建设的步伐,力图在新一轮国际科技竞争中抢占优势。再从国际合作来看,我国政府在人工智能伦理领域积极开展全球协作,为人工智能伦理制度化建设植入包容基因。不仅组织专家积极参与世卫组织的《卫生健康领域人工智能伦理与治理指南》、联合国教科文组织的《人工智能伦理问题的建议书》等文件的制定,还与欧盟科技创新委员会联合举办了有关科技伦理方面的研讨会。在为制定国际人工智能伦理规范贡献“中国智慧”与“中国力量”的同时,也将人工智能伦理的全球共识原则融入我国人工智能伦理规范之中。由此,良好的国际竞合行为产生了对标国际和共治共享的联结效应,对我国人工智能伦理制度的产生和调整有着明显的强化助动作用。

多元协作是在治理体系中纳入社会多元主体,基于民主、沟通、协同、配合和参与公共事务治理的联结行为[32]。从各文件实施细则可以看出,人工智能伦理制度化建设涉及一系列相关方的相互协调和协同努力,主要包括以下四种:一是政府主导。中央政府充分发挥在规划引导、政策支持、安全防范、财政投入、环境营造等方面的主导作用,以战略方向、目标引导公共机构、高校和社会团体等进行研究和创新活动[33]。二是地方部门协同。各地区网信、公安、科技、安全等主管部门,具体负责伦理规范制定、宣传教育、监管审查等相关工作,以部门间的工作协同和信息共享统筹推进人工智能伦理制度化进程。三是特设机构与社会组织的参与。国家成立新一代人工智能治理专业委员会和科技伦理委员会,负责指导和统筹人工智能伦理体系建设;科技类学会、协会、研究会等211家社团组织,陆续设置了关于科技伦理方面的专委会或者分支机构,参与制定相关伦理规范或标准。四是专业力量的汇聚。通过研究院、高等院校、科技企业等单位的技术支持,以及科学、工程学、法学等跨学科专家助力,人工智能伦理安全风险治理体系建设得以持续推动。在这一过程中,多元主体联结的行动势能通过能量的不断传递、转换和凝聚,为促进不同学科伦理认知的形成、融合,响应不同主体的伦理诉求提供了强力助动效能。

五、结语

对于人类历史而言,制度的生成和演进始终是一个变化的过程,应当根据社会现实需求自觉构建推动制度变革[34]。随着人工智能技术广泛使用,社会逐渐变成“全景敞视监狱”,个人的自由空间不断被压缩,技术伦理问题与安全风险治理进程不断加速,人工智能伦理制度化建设必将成为大数据背景下公共治理的内在要求。据此,本文基于政策文本分析视角,运用扎根理论对人工智能伦理制度化的影响因素及其生成逻辑展开分析,建构出人工智能伦理制度化“条件—工具—行为”模型,得出以下结论:外部风险情境、内部价值感知和政治势能是人工智能伦理制度化的主要发生条件,经验准备、保障基础和配套支持是人工智能伦理制度化的必要辅助工具,国际竞合和多元协作是人工智能伦理制度化的重要联结行为,在驱力、托力和助力的合力作用下,实现了我国人工智能伦理规则及制度从无到有的过程,持续推动我国人工智能伦理制度化的进展。

由于我国人工智能伦理政策文本存在较大的分散性与难发现性,研究过程中可能存在相关政策文本收集不充分、不完整的情况。同时,本文主要聚焦于人工智能伦理制度化过程影响要素的研究,未对政策实际执行、评估等其他阶段的影响要素进行剖析。未来将通过进一步的实证研究来验证和优化本文结论,并尝试从其他阶段过程出发,对该主题进行更深入的探索,从更深远的层面为人工智能伦理价值的嵌入与全球人工智能治理的成功提供可能通道。

猜你喜欢
制度化伦理人工智能
《心之死》的趣味与伦理焦虑
不断推进生态文明制度化建设
护生眼中的伦理修养
推动以案促改工作常态化、制度化
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
法治视野中的非制度化生存论析
医改莫忘构建伦理新机制