蔡 琳,杨广军
(西北工业大学公共政策与管理学院,陕西西安 710129)
人工智能算法越来越广泛地应用到公众的日常生活中,给人类社会带来了极多的便利,大幅度地提高了决策或服务的精准性与效率性,算法也逐渐成为公众熟知与密切关注的话题。然而,算法本身并非纯粹客观的技术工具,基于其独特的运算逻辑和数据资源的配置能力,正在重塑社会性结构与应用场景,公众也意识到了算法技术由此带来的负面影响,比如张凌寒[1]、蔡琳等[2]研究提出的算法权力与个人权力的失衡、数字鸿沟的加剧,以及新型不正当竞争等一系列社会风险,这冲击了固有的传统观念,加大了传统科技伦理治理与现有法律体系规制的难度。针对算法带来的隐忧,近年来商业公司、学术科研机构、政府部门、国际组织等,以原则、准则、报告、白皮书、宣言、倡议等外在成文化的形式陆续制定算法科技的伦理文件,涵盖人类福祉、隐私、公正、安全、责任等价值基础[3],算法科技伦理得以从传统科技伦理中演化而生,成为专门约束算法活动的新型伦理规范。
作为计算机科学与伦理学相交叉的新兴领域,算法科技伦理的核心内涵在于通过基本使命、伦理原则、行动指南的设定,确保算法及其相关主体在设计、开发和应用等阶段的行为活动,合乎主流的社会价值与特定的伦理规范。国内外对算法科技伦理的研究目前主要聚焦于算法社会的伦理风险,以及算法科技伦理的制定生成、类型框架、理论前提、哲学思想、价值基础、基本准则、设计方法、建构进路等[4]。例如,有研究从生成论的视角出发,借助“技术-伦理”的框架来剖析算法科技伦理的类型与发展历程[5];有研究基于算法伦理问题的形成原因或解决路径区分为原则式、过程式和伦理意识式这3 种不同的进路[6],或者是定位式、嵌入式、规范式的研究进路;有研究将算法科技伦理的设计作为重点,或是提出以义务论为基础建立道德算法[7],或是强调从符号人文主义入手构建算法人文主义[8],抑或是采用自上而下、自下而上、自上而下与自下而上相混合的方法实现算法的伦理赋予与嵌入;有研究对来自不同国家或国际组织发布的人工智能(AI)伦理文件进行了调查分析,发现所发布的AI 伦理指南在透明度、公正和公平、非恶意、责任和隐私等5 个关键原则上达成了广泛共识[9]。然而,现有的研究过度关注算法科技伦理相对抽象、概念化的治理原则构面[10],以及相对具体或针对性的治理策略与进路,但缺乏对算法科技伦理自身利弊的结构范式剖析与实际治理效果研究。
目前,算法科技伦理在外在形式上虽以成文化的文件呈现,但仍然囿限于单一且效力较低的伦理层面,在内容上仍未形成统一的规定,并且只是倡导性的规范与要求,由于其软法性、模糊性与弱操作性,导致难以产生显著的约束效果,因而,算法科技伦理的治理方式面临完善转型的紧迫需求。随着我国《关于加强科技伦理治理的意见》《科技伦理审查办法(试行)》等政策文件的出台,将模糊的伦理框架落地为具体法律制度设计,关注与利用法律元素成为算法科技伦理的重要发展路线。值得注意的是,接纳伦理价值的法律需要“从伦理的有效性中推导出自己的有效性”[11]。基于此,有必要探索算法科技伦理的生成、内涵、结构等。本研究结合问卷调查的实证方案,力图对算法科技伦理的法制化进行全方位的考量论证与进路建构。
在算法伦理相关文件的发布浪潮中,算法科技伦理针对算法技术发展与应用过程中的伦理风险、伦理问题而适配形成,对算法技术具有约束、规范作用,亦是智能技术迭代下的伦理产物与社会现象,从逻辑上探讨分析算法科技伦理的生成与结构,可以为算法科技伦理法制化的因应奠定基础。
算法作为与现代信息技术同时产生的产物,已经经历了一定的历史发展时期,逐渐从传统的“输入-输出”型计算机算法,转向具有深度学习能力和自主化决策能力的人工智能算法[12],成为相关领域最前沿的对象之一,也成为了一种独立的技术类型。作为数字经济的基础与核心,算法技术日趋成熟与独立,支撑着生产运转与服务效率,重塑着社会关系与社会秩序,也不可避免地带来全新而又复杂的利益冲突与伦理问题。例如,算法越来越多地代替人类公共领域作出决策,异化为一种“算法权力”[13];又如算法正在描述人、塑造人、对人进行安排,挑战人类的主体地位。当传统科技伦理所赖以存在的行业场景、社会关系、社会结构发生重大变革时,目标治理对象由计算机、冶金陶艺、扫描打印等技术向智能算法技术转变[14],传统科技伦理旨在解决的伦理风险亦被算法时代所覆盖、吸收,致使传统科技伦理在应对算法技术及其引发的伦理风险时陷入捉襟见肘的困境。自2016 年以来人工智能勃兴,成为互联网、大数据之后第三波信息革命,商业公司、学术科研机构、政府部门、国际组织等纷纷致力于算法伦理文件的制定,据不完全统计,2016—2021年全球与算法相关的伦理规范文件已达174 部(见表1),分布广泛(见表2)。在技术迭代的洪流与伦理文件的制定中,一种新型科技伦理——算法科技伦理应运而生。
表1 全球与算法相关的伦理规范文件统计单位:部
表2 算法伦理相关规范文件的国家和机构分布统计单位:部
算法科技伦理是指在算法技术的设计开发与测试应用中,依照现实与理想中的外部社会关系[15],算法本身以及相关主体应当遵循的道德准则和行为规范,更广义的还包括算法活动所涉及的伦理关系、伦理要求、伦理责任等[16]。作为一种新型伦理,算法科技伦理是算法技术应当考虑与注意的问题,也是科技伦理的重要研究方向,更是算法时代最为突出的伦理表现。
从总体上看,各大算法科技伦理文件内容基本相似,而算法科技伦理也进入框架和体系的讨论阶段,在横向上形成了涵盖技术标准、行业要求、政策法规、公司倡议等多层次的伦理框架[17],如表3所示。其中,某些伦理准则由大型企业或行业协会提出,要求其员工或者成员在算法开发与应用过程中应当遵守其制定的各项原则,伦理规范执行主要依赖自我约束;还有些伦理原则提倡在国家政策法规的指引下推进算法向标准化、合乎伦理化方向发展,针对较为普遍的侵权问题比如隐私保护,则要求适用相应的单行法。
表3 国内外部分算法科技伦理相关文件
从纵向上来看,算法科技伦理形成了上、中、下3 个层次的具有逻辑性的体系结构[18]。首先,上层为算法科技伦理的基本使命,例如维护人类根本利益、构建可信赖的算法等,其实使命本身亦是一项具有更大普遍性和稳定性的伦理准则,涵盖了其他基本伦理原则的内涵,用于指导算法技术的研究与应用以及中下层内容的确定与完善,代表着发布者关于算法技术的基本价值观和态度;其次,中层为各项算法科技伦理基本原则,例如尊重隐私、公平公正、安全可控、透明可释等,这些原则既是基本使命的具体体现,又为下层提供引导;最后,下层为不同应用场景下具有针对性、可操作性的实施细则。当然,这个体系结构可能并不能完全地包含所有算法科技伦理的内容,但有利于充分调动各种力量共同化解算法伦理风险,推进算法技术及其产业合乎伦理地安全有序发展。
算法科技伦理已经成为独立的科技伦理类型,其内容的制定引起了国际上的密切关注与广泛讨论。然而,算法科技伦理并非毫无漏洞,其本身的结构范式存在一定的缺陷,加之算法社会的伦理风险更具强危害性、不确定性、广渗透性、难以察觉性等特征,导致并未达到理想的治理效果,因而需要融合法律手段实现范式的转型与效力的进阶。
结合传统技术伦理的规制模式,算法与算法科技伦理的关系应对可以体现为以下几种方式:第一是直接将算法科技伦理嵌入算法设计中[19],让算法具有伦理价值判断与选择的能力,成为伦理道德的思考者与行动者,促使算法作出合乎伦理的决策和行为,深刻体现人们所共同追求的伦理价值;第二是直接对算法进行算法科技伦理的规制,让算法的设计、运行和发展都符合算法科技伦理要求,限制在其设置的框架范围内。第一种方式强调在算法运行时将伦理嵌入其中,以更好地实现算法积极效果的发挥。但这种方式面临着两大挑战,一是需要事先设定一套统一合理且合适的伦理标准,二是需要将这些伦理价值或准则精确地编译成代码或者公式最后融入算法的运行过程。显然,这两项任务都难以轻易完成。第二种方式备受关注与推崇,侧重于对算法进行伦理约束,通过算法科技伦理的运行机制来约束与规范算法活动。但由于算法具有不透明性、不确定性、有限自主性、难以问责性等独特性质,人类自主性消解、隐私空间坍塌、社会公正危机、数字公民异化等伦理风险迭出,以及算法科技伦理的软法性、内化性、倡导性等,这种仅仅基于自我约束反思、他人评价矫正的伦理规范治理方式[20],似乎难以发挥强有力的风险预防与行为规范作用。算法科技伦理的自律规制注重伦理风险的事前预防,通过倡导性的规范将矛盾化解于后果产生前,但这与涉及主体众多的算法技术的运算逻辑不相匹配[21]。而伦理责任、惩戒方式的缺失与不明确,又使算法科技伦理的治理乏力成为必然。
既然算法技术已经成为当代社会的重大风险源,为了人类的生存与社会的稳定就必须采取措施控制算法技术本身及其应用所引发的社会风险。除伦理控制外,社会风险控制的手段还包括技术控制、法律控制等[22],这些手段对人的行为与选择都有一定的约束,都可用于防范算法技术所引发的伦理风险。然而在实践过程中,由于算法技术或者这些社会风险控制手段自身的特性,可能会具有不同的控制效果,甚至出现不适用的情形。
技术控制是指采取某些技术措施,以技术应对技术的方式防范伦理风险。但在算法从纯粹的理论与模型研究转向解决民众实际问题的发展过程中,表现出与传统计算机算法和传统技术不具备的特质,这些特质导致难以用技术来解决算法引发的伦理风险,从而难以产生良好的风险防范效果[23]。再者,以技术解决算法技术问题之时,是否会产生新的伦理风险尚不可知,这就陷入了逻辑的悖论。
法律控制与其他约束手段相比更具强制力和威慑力,可以通过建立强有力的约束与制裁机制来确保人们对基本要求的服从。法律的控制作用表现在,可以通过相关立法保证技术活动的正常运行,将算法活动主体的行为限制在法律允许的范围内。然而,算法技术仍处于高速发展的阶段,正在逐步打破现有持续稳定的法律监管体系[24],其更新迭代也远远领先于法律的制定速度,如果采用追逐技术热点的立法模式又容易导致立法的混乱,而过早地用法律对算法进行规制又容易限制算法的发展。因而,单一的法律控制手段虽然能够最为有效地应对算法伦理风险,但依然存在一定的局限性。
法律与伦理具有共同的价值追求和目标,伦理是法律制度的渊源与基础,法律可以为伦理运行提供保障[25],因而在算法技术伦理难以发挥其应有的约束与治理作用时,可以制定相应的法律制度、实施具体的配套措施,实现算法科技伦理的法律化[26]。法律制度能够借助其强制性与自上而下的推动性化为传播算法技术伦理的有效手段,提升算法活动主体的自觉性。不仅如此,算法技术伦理因为有些原则过于抽象,可操作性不强,没有设定比较明确的义务和责任,相关主体没有一定的方向指引,纯粹依靠内心的约束也忽略了现实的要素。法律制度能够设定明确的权利义务与责任,并通过强制性的成文规定使这种算法技术上的道德义务更加明确生动,从而便于参照[27]。法律制度是具体明确的行为规范,可以发挥其确定性与制裁性的效用优势,加强算法技术伦理的现实性和可操作性。另外,当前也尤其需要通过法制手段改善“技术在前、伦理在后”的情形,以立法的形式明确算法技术伦理的内容并上升到法律规范层面,实现算法技术伦理的自律与他律相结合,构建良好的算法科技伦理法治治理体系。
算法科技伦理在运行过程中存在着一定的缺陷,其法制化转向已成必然,但这一命题还需具备一定的实践依据,为此需要对算法科技伦理法制化是否具有必要性及可行性进行实证调查与分析。
为了更加详细、具体、深入地了解当前算法科技伦理的认知和实践现状,使算法科技伦理法制化的必要性更具有说服力、算法活动中的问题以及法制化路径更具有确定性,本研究采用在线问卷以检验提出的假设,基于假设模型和先前相关研究结论进行问卷设计。调查问卷的题数总共21 道,包含个人基本信息题目5 道、对算法科技伦理的了解程度题目2 道、对算法技术和应用的感受及态度相关题目9 道、对算法科技伦理以及法制化的想法和建议相关题目5 道。调查共回收368 份问卷,其中有效问卷342 份。在回收样本中,男性共有152 人,占比为44.44%;女性共有192 人,占总样本数量的55.56%,男女比例近似 1 ∶1,因而样本符合人口统计学特征。
问卷设计中,首先选取人类福祉、公平公正、尊重隐私、安全可控、包容共享、透明可释、共担责任这7 项伦理原则作为一级指标,构建7 项一级指标共29 项二级正项指标的评价指标体系,如表4所示。同时,经过信效度的检验,7 项变量的克朗巴哈值均大于阈值0.70,分析项的CITC 值(校正项总计相关性)均大于0.40,说明这些分析项之间具有良好的相关关系,同时也说明信度水平良好。综合来看,研究数据信度系数值为0.99,高于0.90,这说明数据信度质量高,可用于进一步分析。再者,由验证性因子分析得到的因子载荷计算各变量的共同度(公因子方差),结果均约等于或大于阈值0.50,即问卷也具有较好的效度,可以进行后续分析。
表4 算法科技伦理原则评价指标体系
4.2.1 调查问卷结果分析
(1)对算法科技伦理的了解程度。从是否了解“算法科技伦理”或者“人工智能伦理”的概念这一问题的调查结果来看,有209 人是有听说过这一概念并具有一定了解的,占比为61.11%;完全不知道这一概念的有106 人,占比为30.99%;而很了解这一概念的仅有27 人,占比为7.89%。
从是否关注国内外近年来发布的有关算法科技伦理的政策性、法律性文件这一问题的调查结果来看,有117 人听说过但具体没有关注这些消息或者文件,占比为34.21%;听说过并有一定了解的有92 人,占比为26.9%;有关注并看过相关介绍和新闻报道的有40 人,占比为11.7%;而非常关注并阅读过政策和法律文件的人数仅有15 人,占比为4.39%;同时不了解的人数多达78 人,占比达到了22.81%。
由此可见,很大一部分公众对算法科技伦理的概念及相关伦理准则文件停留在听说、有一定了解这一浅层阶段,完全了解和关注的人数还是相对较少,而却有极大一部分人面临完全不知道、完全不了解的境况,这形成了较为强烈的反差与对比。究其原因,一方面是由于公众对具有专业性与不透明性的算法技术及其理论知识过于陌生,另一方面是由于算法科技伦理及其准则的普及还不够广泛与深刻,从根本上制约了公众的了解程度,导致公众认知严重不足。
(2)对算法技术及其应用的感受和态度。从对算法技术所持有的态度来看,绝大多数人(190 人,占比为55.56%)认为算法偏正面,算法技术的发展总体上将造福人类,但是却可能引发新的社会问题;有49 人对算法持非常积极的态度,认为人工智能算法发展将造福人类,占比为14.33%;认为算法偏负面,算法技术的发展总体上会给社会问题带来不确定性,但是认为在局部的发展对社会有益的人数有34 人;认为算法技术将会减损人的主体性、可能造成新的不平等、造成隐私的泄露,应该严格限制的人数有27 人;当然,也有42 人认为难以对算法技术进行评价。
从对算法技术在司法中的应用给用户带来的感受这一问题来看,认为程序公开透明、方便高效、精准打击违法行为、电子取证便捷的分别有127 人、182 人、138 人、178 人,都是较为积极的感受;而认为其会增加压力与负担的有46 人,占13.45%;对此没有感受以及因未曾使用而不了解的总人数为107 人,占据将近1/3,说明仍然有一部分人未体验到算法技术在司法当中的应用所带来的改变或福利。从对算法的自主化决策在行政领域的应用给用户带来的感受这一问题来看,有130 人认为应当由人作出决策而不是算法,而认为导致程序不够公开透明、增加压力和负担的人数分别为87 人、70 人。从这几组数据来看,算法的自主化决策在行政领域的应用面临一系列伦理问题,当然,其带来的便利也不可否认,有145 人认为其方便高效。
从算法个性化推荐与分发技术在新闻资讯、娱乐以及购物领域的应用带来哪些积极影响、消极影响以及需要哪些改进措施这一系列问题来看,积极影响方面选取人数从高到低依次为满足个性化信息和情感需求、挖掘客户的潜在兴趣爱好、方便快速获得想要的内容、缓解了由于信息过多造成的焦虑感、提高信息的传播速度以及网络参与意识壮大,分别有215 人、210 人、207 人、129 人、121 人、60 人;消极影响方面各选项选取人数较为平均,其中认为侵犯个人隐私的人数最多,有201 人,仅次于此的是有188 人认为算法会强化固有偏见、形成思维定式、不利于创新,这为论证算法易引发隐私侵犯以及“信息茧房”的风险提供了数据支撑;改进意见方面人群主要集中在算法平台要加强对隐私条例的遵循、优化算法推荐技术、全面客观地反映热点事件这几个选项,分别有213 人、196 人、181 人,这有利于为选取合理的算法技术治理路径提供参考。
从对目前算法技术各类应用所存在的隐私风险的态度来看,有228 人认为在无法保证隐私前提下应严格限制技术使用,技术发展不能以侵犯个人隐私为代价;有212 人认为技术发展不可阻挡,可以在发展中逐步完善;而有152 人认为对于侵犯隐私很无奈,该用还得用。由此而言,公众希望算法技术的各类应用能够保护用户的隐私安全,但就目前的实际情况而言,公众在面临算法对其隐私的侵害时表现得较为无奈。究其原因在于用户对各种应用平台逐渐依赖,但忽视了隐私条款的各种设置或者无法选择拒绝平台提供的隐私格式条款,这使得平台在这一类条款的设置方面对大多数用户而言已然形同虚设。
从自身遭受算法技术损害的公众会选取何种途径来维权这一问题来看,选取网络平台维权这一途径的人数最多,向政府部门举报次之,分别有192 人、174 人;选取去法院起诉、与企业协商的分别有144人、125 人,但仍然有114 人感觉到有心无力、无所适从。在此类问题的维权途径上,绝大多数用户认为各方主体应当多加配合,这将为构建算法科技伦理法制化的路径提供有力借鉴。
从算法可能引发的伦理风险这一问题来看,选取标签化效应,以及侵害个人隐私甚至集体隐私、抑制公民知情权这两大风险的人数均超过200人次,分别为229 人、217 人;当然,其他风险也不容忽视,选取的人次也较多,从高到低依次为削弱人的自主性或消除人的主体性、侵害社会公平与正义,以及算法难以问责,分别有170 人、163 人、119 人。
(3)对算法科技伦理以及法制化的想法和建议。从认为算法设计和开发是否应当遵守相关伦理准则这一问题来看,绝大多数人(257 人,占比达75.15%)认为算法活动是应当遵守相关伦理准则的,选择“否”以及“其他”的分别为49 人、36 人,侧面反映出公众对算法科技伦理的普遍认同。
从认为已经出台的各项算法科技伦理准则对算法活动规制的效果如何这一问题来看,有极大一部分人(141 人,占比为41.23%)都选择不太清楚、缺乏相应的支撑材料,还有极大一部分人(114 人,占比33.33%)认为算法的伦理要求仅限于道德上的倡议,并不足以产生有效的控制力;仅有66 人认为已经出台的伦理准则能够有效地对算法活动进行规制。由此来看,各项算法科技伦理准则对算法活动规制的效果并不显著,面临难以量化与查验的困境。
从是否有必要对算法科技伦理纳入法制化范围这一问题来看,选择非常有必要、越早越好,以及科技政策或者伦理准则文件先行、总结出规律化再纳入法制化范围内这两个选项的人数相当,分别为131 人、134 人,虽然这是两个不同的选项,但殊途同归,最后都意味着走向法制化的道路,这也反映了公众希望用法律的途径规制算法活动,使其符合伦理上的要求;但也有一部分人认为当前出台的各类算法科技伦理准则已经能够满足需要、不需要纳入,或者认为伦理本身就追求内心的约束、不能以法律形式强制要求,这提醒立法者应当把握伦理与法律这二者的关系和界限,可以通过二者的有机结合治理算法。
从对新发展阶段加强算法科技伦理有哪些建议这一问题来看,各个选项基本上都得到了极大的支持,其中有3 条建议的选取均在235 人次以上,每一条建议都有半数以上的接受调查者支持,这为算法科技伦理法制化途径的构建提供了支撑。
关于算法活动应当遵循哪些伦理准则这一问题的统计结果,采用量表图分析法进行分析,统计每个选项的选取人数并计算各个指标的平均分。如表5 所示,虽然各个一级指标、二级指标的平均分相差甚微,但仍然看出尊重隐私原则受到了绝大多数接受调查者的同意和支持,有关各项具体要求的评分也相对较高,而人类福祉原则的各项具体要求存在一些争议,离散程度较大,选择一般选项的人较多,因此应当妥善考虑人类福祉原则指导下各项具体要求的制定。具体而言,在人类福祉这一一级指标下,可以发现A5和A1评分较高,分别为4.12 分和3.99 分;从公平公正这一指标来看,各项二级指标评分较为平均,其中B1和B5评分较高,分别为4.13 分、4.11 分,这反映了公众希望算法设计者能够承担避免将偏见与歧视嵌入算法的义务,让用户能够享受公正的待遇和发展机会;从包容共享这一指标来看,各项要求都具有较高的评分,均在4.1 分以上,其中C1和C3评分较高,分别为4.13 分和4.12 分,体现了公众对资源和生态环境保护的重视以及对消除各种鸿沟的渴求;而在尊重隐私这一指标上,各项评分均在4.25 分以上,大多数人选择非常同意,这说明解决算法所引发的隐私侵犯、数据过度收集问题迫在眉睫;再者,从安全可控这一原则来看,E1和E4评分最高,均为4.22 分,体现了对构建可信赖、可解释、安全透明的人工智能算法的强烈需求;另外,在共担责任这一指标上,F4评分最高,为4.23 分;最后,从透明可释这一原则来看,G2评分最高,为4.22 分。综合来看,算法活动应当遵守的7 项伦理原则的评分都较高,除了人类福祉这一指标外,各项原则评分均在4 分以上,即得到了绝大多数人的同意和支持,这有利于为明确算法科技伦理法制化的内容和范围提供方向指引。
表5 算法活动应当遵循的伦理准则各项指标调查结果统计
4.2.2 调查问卷结论分析
通过上述调查问卷内容展示和结果统计,可得出以下结论:虽然绝大多数接受调查者对算法持有正面、偏正面的态度,认为算法总体上将造福人类,算法技术在司法、行政、消费娱乐等领域的应用能够提高效率和便捷性、满足用户个性化的需求,但是接受调查者对算法技术的负面性所持态度也是高度一致的,认为算法技术会造成各种社会问题,引发削弱人的自主性、侵害社会公平与正义、标签化效应、侵害个人隐私甚至集体隐私等伦理风险,且自身利益遭受侵犯时求助无门;同时,社会上也存在着一部分未曾使用过相关算法应用、未曾享受到算法技术带来的各种福利与机会的群体,这与社会所倡导的共享理念存在着实际偏差,公众一方面主动享受或不得不享受算法所带来的便利,另一方面又对此存有或深或浅的担忧。此外,调查结果显示,算法活动应当遵守相关的伦理准则已经成为普遍共识,但算法科技伦理准则对算法的规制效果并不显著,因而希望将算法科技伦理纳入法制化范围,通过加强科技伦理的教育宣传、发挥各个协会与组织的作用、建立算法科技伦理规范体系等各种法制化途径成为必要的选择。
综上所述,公众对算法科技伦理及其准则文件的认知十分有限,对算法技术的广泛应用存在着一定的担忧,在自身合法权益受侵犯时难以得到有效救济,并呼吁各主体积极承担责任,希望采用算法科技伦理与法律二者有机结合的手段以促进算法的良性发展。因此,这为算法科技伦理的法制化研究提供了可行性与必要性支撑。
在对算法科技伦理法制化的必要性需求与因应逻辑进行论证后,应当构建配套的法律制度提高各项算法技术伦理原则的法律效力,将算法本身以及行为主体应当遵守的伦理要求、承担的伦理责任转化为法律要求、法律责任,确保算法活动合乎伦理。
算法科技伦理法制化的重要路径便是推动算法科技伦理的专门立法。开展宏观层面的立法活动,有利于加强伦理与法律的有机结合,实现从内到外全方位、全过程的算法治理,促进“硬法”与“软法”的结合与协作;有利于整合分散的算法科技伦理文件,形成多层次的治理张力,构建多维度的算法科技伦理法制化体系。开展算法科技伦理专门立法,应当探析算法引发的伦理风险,综合考虑不同环节、不同主体的利益关系,明确伦理原则、伦理关系、伦理责任、审查监督、奖惩机制以及救济程序等内容。
关于伦理原则,当今国内外发布了各式各样的伦理文件,然而立法不可能将所有涉及的伦理原则都纳入法制化范围。我国《关于加强科技伦理治理的意见》提出了增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明这五大科技伦理准则[28],这为明确算法科技伦理的各项原则提供了参考和借鉴。因此,结合本研究的问卷调研结果,从各有关伦理文件中总结出共同提及的伦理原则,目前提及次数较多的包括增进人类福祉、尊重隐私、公平公正、包容共享、安全可控、责任与问责制、透明可释、开放协作,因此在立法过程中可以将这8 项伦理原则作出法律上的明确。鉴于伦理原则具有抽象性与模糊性,立法过程中还应体现其具体内涵和要求,对其进行官方解读,为公众提供明确的方向指引。
关于伦理责任、审查监督、奖惩机制以及救济程序等,可以采取权利义务规范模式和确定程序规制模式[29]。第一种模式是以列举和兜底条款的方式对某些主体应当履行哪些义务、承担哪些责任以及对某些行为进行允许和禁止性规定,能够高效且低成本地预防伦理风险,对违反伦理原则的行为进行惩戒。在这种模式下,伦理关系向法律关系转变,伦理要求转化为法定要求,伦理责任兼具法律责任属性。第二种模式是对某些具体场景下的伦理违背事件进行程序性的规定,通过确立伦理反思、伦理审查、伦理监督、权利救济等程序,在产生伦理纠纷时分配至各个相互制衡的决策机构使之得以解决,从而提高治理效率。具体而言,部分事项可以由司法机关对争议进行审判以保障受害人的救济权,可以由相关部门设定伦理许可条件或者实践标准,以及可以由专门的伦理审查委员会进行审查监督等。
随着算法技术与人的关系日益密切且伦理问题愈发凸显,结合《关于加强科技伦理治理的意见》提出的建立科技伦理审查制度、严格科技伦理审查、开展科技活动应进行科技伦理风险评估或审查,有必要在原有的基础上建立专门针对算法科技伦理的审查制度,这也是引领算法技术整体向善发展、及时解决算法伦理冲突以及促进算法科技伦理法制化最具成本优势的路径。
2017 年我国党中央出台的一系列重要文件中明确提出了区域伦理委员会的设置,在该政策的支持下,北京、上海等地已经成立了区域伦理委员会,与此同时全国性的科技伦理委员会已经建立,但其具体的运作模式以及职能义务等尚未公之于众。此类通过法律确认的科技伦理审查机构已经广泛应用于医药生物领域[30]。因此,我国可以成立算法科技伦理委员会,作为审查算法本身以及各个行为主体的活动是否合乎伦理的专门机构,同时考虑到政府制度的衔接成本,应当通过立法提高算法科技伦理委员会的正式化水平。这种方式亦广泛被国外所采纳,如丹麦于1988 年颁发《伦理委员会组建法案》建立丹麦伦理委员会,德国于2007 年颁发《道德委员会法案》(The Ethics Council Act)确立德国伦理委员会的基本建制。
对算法科技伦理委员会进行基本法律制度的设定,应当包括算法科技伦理委员会的设立标准、运行机制、登记制度、认证机制、权利义务等内容[31]。算法科技伦理委员会应当积极履行伦理审查的关键职能,依职权或依申请对研发的各类算法技术、算法应用和主体行为活动等进行伦理审查;根据伦理审查的结果或报告,可以对存在违背算法科技伦理的行为提出整改意见,对严重违反相关要求并造成一定后果的行为可以向司法部门提供相关情况说明,实现以算法伦理委员会为保障的秩序运行。
算法科技的发展应用诱发了一系列社会风险,加大了伦理治理与法律规制的难度,为此国内外出台了众多针对算法的伦理文件,算法科技伦理便在这一情景下应运而生。本研究通过剖析算法科技伦理的生成逻辑与内涵结构,发掘算法科技伦理因其外在形式的单一性、低效力性与内容要素的软法性、倡导性而导致的自律规制失范现象,证成算法科技伦理法制化转型的必然性;同时,以在线问卷设计实证调查方案,查明算法科技伦理法制化的必要性与可行性。此外,在算法科技伦理的法制化进路中,提出开展算法科技伦理专门立法、建立算法科技伦理审查制度等有效路径,以法律强制的方式提升算法科技伦理的约束力与执行力,从而促进算法社会的良性运转。