摘要:算法自动决策侵犯公民的隐私权、知情权和救济权,违反正当程序原则。欧盟和美国对算法解释权分别采取内部监管模式和外部问责模式,这两种模式在解释对象、解释标准、解释时间方面存在差异,目的都在于促进技术安全发展、限制政府权力和保护个人权利。算法应用到公共服务领域时带有公共利益属性,不得以“商业秘密”为由拒绝公开。我国《个人信息保护法(草案)》设立了事前解释原则,以透明性和公正合理为解释标准,赋予个人对自动化决策的拒绝权,比GDPR保护个人权利更进一步。中国特色算法解释权在规范上应进一步明确透明性的内容、规范定期审计以加强监管;在技术层面公开算法模型,公开源代码、公开算法运算基本规则、因素及权重;同时由政府主导核心领域算法开发以促进算法造福社会。
关键词:算法解释权;商业秘密;《个人信息保护法(草案)》;公共利益
作者简介:李婕,安徽大学法学院副教授(合肥 230039)
基金项目:国家社科规划基金一般项目“改革开放以来中国司法体制中‘人民群众话语的历史变迁与实践影响研究”(20BFX006)
DOI编码:10.19667/j.cnki.cn23-1070/c.2021.03.012
大数据时代,算法在类案类判系统、智慧检务软件、征信评级、“扶贫云”等公共服务领域的应用不但提高了效率,而且发挥着分配资源、形塑社会秩序的建构角色。由于算法系统的输出数据影响个人基本权利,算法自动化决策问题日益受到法学研究者的关注。我国法学界关于算法的研究主要集中在算法伦理审查1、算法确权困境2、算法共谋的法律规制3、算法解释权与算法治理路径4等问题,尚未立足我国的法律规范(尤其是《个人信息保护法(草案)》)和司法案例探讨算法解释权的制度构建。在科技革命扑面而来的当下,公众对算法决策理性的呼吁催生了算法解释权,如何立足我国实践和立法,科学审视算法解释权,这不仅是人工智能技术发展的当代之问,也是未来之问。
一、算法自动化决策对公共服务领域的挑战
“互联网+”已经广泛应用于公共服务领域,与此同时算法自動化决策的运行也悄无声息地侵蚀着公民的基本法律权利。例如,2016年美国康斯威星州State v. Loomis案件中,被告认为州法院使用COMPAS算法模型量刑违反了正当程序原则,1 K.W.Ex rel.D.W.v.Armstrong 一案中,2爱达荷州众多居民认为算法缺陷致使救济金计算错误,严重影响个人生活。从法律的视角看,算法自动化决策对公共服务领域主要有以下挑战:
(一)算法自动化决策侵犯公民的基本权利
首先,算法自动化决策侵犯个人隐私权。无论是征信评级系统,还是福利金计算系统,都要根据当事人的个人数据进行分析。算法系统对个人数据的整合和挖掘囊括个人的行动轨迹、敏感信息等涉及隐私的数据,个人隐私不知不觉地被嵌入算法系统的运算分析中。而作为分析基础的数据,往往来源于政府在教育、医疗、交通、视频监控等途径收集的数据。在电子化政府的建设过程中,政府通过人工智能设施的部署逐渐形成对公民活动的全面监控,并基于此进行治安预测和公共安全等必要活动。政府加强对社会的监控无可厚非,但政府将各部门的资料库互相串联,使得资料在政府部门内部互相流通,将不可避免地导致数据滥用。32013年,美国前国安局雇员爱德华·斯诺登事件曝光,公众才发现“老大哥正在看着你”并非著作中的科幻想象。4在“任务偏离效应”5之下,政府为了公共安全将个人数据信息用于洗钱防治、犯罪地图等其他违法行为调查中,而公众并不知道自己的基本权利受到了侵犯。
其次,算法运算规则不透明侵犯了个人知情权。中国互联网络信息中心在《2016年中国互联网新闻市场研究报告》中指出,“算法分发”逐渐成为网络新闻主要的分发方式,如果任由算法向用户推送同质的信息而不加以节制,可能会导致用户陷入“信息茧房”的束缚之中——即公众只注意自己选择的东西和使自己愉悦的领域,久而久之会将自身束缚于像蚕茧一般的“茧房”中。从技术的角度看,算法规则转化为计算机代码时不可避免地会产生翻译错误,由于硬件、软件、外围设备的局限性导致难以对某词汇进行宽窄适宜的翻译,难以将社会意义的词汇准确嵌入算法编程中,导致算法的输出数据不可避免地出现偏差。公众不但不知道自己的信息用于商业领域,而且不知晓算法的运行规则,面对不可思议的算法结论往往一脸茫然。
最后,算法自动化决策错误难以进行救济。我国政府大力支持人工智能技术发展,算法系统的设计和应用几乎在法律真空中进行。在COMPAS案件中,Loomis认为COMPAS屏蔽加权和计算再犯风险得分的公式,致使其没有“纠正”和“没有否认或解释”的救济机会;Billy Ray Johnson案件中,被告人比利对检测犯罪现场DNA的True Allele系统的输出结果表示怀疑,专家证人试图检验该软件的源代码时,被True Allele系统的所有者即Perlin公司以“商业秘密”的理由拒绝,6导致被告人无从获得救济。目前我国尚无明确的法规和程序对人工智能系统的输出结论进行审查,当事人即使对算法自动化决策产生质疑也难以获得法律救济。
(二)算法自动化决策阻碍公平公正
首先,算法自动化决策不可避免地产生歧视。例如,美国针对犯罪倾向性预测的人工智能系统(COMPAS)应用中,无论技术人员如何调整机器学习的策略和算法,人种和肤色都是无法抹去的高优先识别变量,导致有色人种的犯罪倾向远远高于非有色人种。据学者分析,美国司法领域广泛使用的犯罪评估软件COMPAS对黑人评估的累犯分数高于处于同样困境的白人。1美国国防专家对纽约市犯罪实验室中的统计软件(“FST”)的源代码审查后认为,“FST软件输出数据的正确性应该受到严重质疑”2,建议纽约犯罪实验室停止使用“FST”。由于当前人工智能系统多由私人企业研发,利益驱动下的研发难以保障算法系统的客观公正,私人企业追逐利润的目标亦与公平公正的要求南辕北辙。在人工智能技术实践先行的模式下,目前各地大张旗鼓地出台促进人工智能发展应用的政策规划,却鲜见对算法问题监管进行立法,导致算法歧视的危害难以纠偏。
其次,算法运作的“黑箱”特征难以对因果关系进行认定。算法技术分为黑箱、白箱、感知、奇异等类型。目前大多数算法系统采用“黑箱类型”,那么影响结果的每个因素占多大权重,或如何相互叠加影响最终结果,公众无从知晓,这就导致具体案件中个人的权利难以救济。在Loomis案件中,被告提出量刑软件的运作过程不能“排除合理怀疑”,要求对其源代码进行检测,试图验证算法运作是否有问题,但被法院驳回这一请求。从技术角度看,机器在无穷无尽的数据堆中具有不受限制的识别巨量数据的能力,很容易掩盖层层的镜面和运算中的非法歧视。美国辛辛那提大学刑事司法研究中心的报告表明,只有30%的人工智能系统在广泛使用之前对算法进行了验证。3当案件关键证据的取得不合法、证据的证明力无法验证时,法治的根基不再牢固,司法公正将荡然无存。在不清楚算法系统运作模式的情况下,法律根本无法对算法进行有效监督。其结果是,只讲效率不问因果、只重结论不讲目的的算法发展,将走入技术工具主义的死胡同。
二、欧美算法解释权的模式及比较分析
以算法为核心的人工智能技术对公民个人权利造成了不可忽视的影响,算法解释权成为当前法律研究的热点。“信息时代的法律媒介是信息性和沟通性的”4,美国针对算法自动化决策问题采取个案救济的外部问责机制,欧盟颁布《通用数据保护条例》(下文简称GDPR)确立了内部监管模式,逐步将算法规制纳入法治轨道,这两种模式对我国算法解释权的构建都有借鉴意义。
(一)欧美算法解释权的模式考察
算法自动化决策系统能够处理高度复杂和多层面的数据,是世界各国大力发展的新技术。为了避免算法这种新兴技术的消极作用,美国和欧盟分别形成了模式不同、特色各异的算法解释权机制。
1. 美国的外部问责模式
美国的人工智能技术发展迅速,IEEE(电气和电子工程师协会)率先发布《人工智能设计的伦理准则》白皮书对人工智能技术进行规制,随后美国公共政策委员会2017年发布《算法透明性和可问责性声明》,通过公民个人申请这种外部问责的方法提供算法解释。例如,Pich v. Lightbourne5案是个人申请法院对算法进行问责的典型案例,原告提起诉讼认为“Calwin自动福利管理系统有编程缺陷,导致对个人福利的错误计算和利益自动终止”。法院经审查认为,司法不需要对评估软件每次运行过程都进行干预,除非程序出现“严重失败”。原告福利自动终止是由于人为错误而不是Calwin错误,故算法程序并未出现“重大失败”,不必进行审查。1与之相对,在K.W.Exrel.D.W. v. Armstrong 一案中2,法院判定,州政府需要充分告知民众救济金数目发生变化的具体原因,如问卷特定项目的答案发生变化,或者是其他解释和根据。个案审查模式通过诉讼开启了算法解释权,但这种“不告不理”的外部问责提供的救济范围毕竟有限,难以全面保护公民个人权利。
2. 欧盟的内部监管模式
欧盟很早就关注人工智能发展的法律治理问题,GDPR通过敦促数据控制者、处理者建立内部问责制度对算法进行持续性和系统性的规制。首先,GDPR第22条赋予个人对算法自动化决策的反对权,仅在合同履行、经欧盟或者成员国法律授权以及基于数据主体明确同意三种情况下,数据控制者才能对个人数据分析形成自动决策。3其次,GDPR对数据控制者、管理者的内部监管模式侧重事前和事中控制,GDPR在第13条、14条要求数据控制者通过告知算法逻辑、运算后果的方式赋予权利人知情权。“数据控制者收集信息和获取个人数据时应当履行事前通知义务”、“向数据主体提供自动化处理过程中运用的逻辑以及该种数据处理对数据主体的重要性和可能产生的后果”。GDPR第15条规定赋予个人访问权,即“数据主体有权向控制者确认与其相关的个人数据是否正在被处理,以及有权要求访问与其相关的个人数据并获知详细信息”。最后,GDPR第35条确立了数据保护影响评估制度以加强数据控制者的隐私风险管理责任意识。
(二)欧美算法解释权的差异之处
1. 算法解释权的对象不同。在美国的外部问责模式中,法院对算法审查的对象是算法的具体决策,即当算法决策出现“严重失败”时才需要进行审查;欧盟GDPR中规定的算法解释权包括算法决策的重要性、运算逻辑以及该算法決策可能对个人产生的结果等内容,很明显要求对算法系统进行解释。算法解释权的对象究竟是算法系统还是具体的算法决策,对个人权利的影响差异很大。如果算法解释权的对象是算法系统,那么解释的内容应当包括算法系统的编程规范、预定义模型、训练参数、输入数据摘要、运行逻辑、模型测试、训练或筛选等相关信息等;如果算法解释权的对象是具体的算法决策,则应当对该具体决策产生的因果关系、运算逻辑等问题进行解释。如果立法者将算法解释的对象确认为二者兼有的模式,那么立法者需要以精细化的场景设置确定何种情况下对什么进行解释。很明显,美国算法解释权的对象是具体决策,仅对算法系统进行部分审查,欧盟算法解释权的对象是算法系统,因此规定了对公民知情权、异议权等权利进行事前审查机制。
2. 算法解释权的标准不同。欧盟GDPR倾向于易读性标准,即算法解释的义务主体对算法的解释不应当仅仅是将影响算法做出决策的相关因素进行公布,而且对相关因素的公布必须要使用相对人易于理解的方式,这与GDPR要求的算法解释可理解性的基本原则是一脉相承的,对算法解释的义务主体提出了较高的义务要求,加强了对弱势地位相对人的权利保护。美国的个案审查模式对算法解释权的标准则需根据不同诉讼类型的证明标准而定,例如,State v. Loomis案的诉讼请求是COMPAS量刑软件的决策过程,就需要采取刑事诉讼案件“排除合理怀疑”的证明标准;Pich v. Lightbourne案的诉讼请求是Calwin自动福利管理系统的决策过程,采取的是行政诉讼“举证倒置”的证明标准。但是,由于算法的复杂性、专业性等原因,诉讼中无论国家机构还是个人对算法运算的举证均难以使诉讼双方(尤其是陪审团)清楚地理解,这是算法解释权构建中必须考虑的问题。
3. 算法解释的时间不同。欧盟GDPR通过赋予个人知情权、数据访问权、异议权以及数据保护影响评价制度采取事前规制的模式,以降低算法决策对个人权利的消极影响。与之相对,美国的个案审查模式则是事后对算法的决策进行解释,更多地侧重对公民权利的补救。欧盟和美国对算法解释有着事前解释和事后解释的区别,直接导致公民权利保护范围的差异。例如,很多民众因没有时间、精力进行诉讼,即使其对算法决策的结论心生怀疑也往往不会向法院提起诉讼要求解释算法的决策过程,更何况美国现行的司法判例并非支持所有申请算法解释的诉讼请求。随着人工智能技术不断发展,算法会应用到越来越多的领域,事前解释会使算法开发者、使用者审慎对待个人数据的处理和决策问题,事后解释可能使算法开发者、使用者抱着侥幸心理,放任决策偏差现象。
(三)欧美算法解释权的共同之处
1. 促进技术安全发展
在全球第三次科技革命浪潮中,美国率先出台了《人工智能设计的伦理准则》白皮书、《算法透明性和可问责性声明》对算法进行规制,欧盟也颁布GDPR强化个人数据控制者、处理者的责任以加强算法决策的科学性,都是为了促进人工智能技术安全发展、造福人类。如果算法应用到分类预警、信用评估、资格鉴定等公共服务领域出现重大错误,轻则损害国家机关公信力,重则引发广泛的社会抗议,甚至部分人工智能伦理学者以“某算法违反技术伦理”为由要求禁止该技术应用。因此,认真审视算法应用中出现的问题,通过法律规范寻求解决问题的对策是促进技术发展的正确方法,无论美国事后对算法决策进行解释,还是欧盟事前对算法进行规制都体现了以法律规制促进技术安全发展的宗旨。
2. 限制政府权力
算法在公共服务领域的决策往往作为行政许可、行政处罚等行政行为的参考依据,一定程度上发挥着行政行为单方行为性、强制性效果,无形中掩盖了程序瑕疵、甚至出现错误行政行为问题,导致政府权力难以监管。State v. Loomis案和State v. Andrews案凸显了公权力对犯罪风险的严密监控,Pich v. Lightbourne案表明政府对个人福利计算的非公开性与排他掌控,表明算法系统的应用带有明显的公权力监控色彩。美国人工智能技术发展走在世界前列,人工智能研究人员及IEEE一直呼吁算法黑箱问题应受到监管,因此美国公共政策委员会颁布《人工智能设计的伦理准则》对算法提出透明度要求。欧盟GDPR适用于欧盟各个成员国,除了通过对数据控制者、处理者的行为加强监管以限制算法自动决策的消极作用,还对不同成员国之间数据跨境流动作出规制,实际上限制了政府以概括的“公共利益”为由滥用公民个人数据的权力,是人工智能时代限制政府权力迈出的重要步伐。
3. 加强个人权利保护
算法解释权始于个人数据收集,通过监管个人数据的处理来影响个人在社会生活领域方方面面的权利。例如,疫情防控预警系统可能把某人列为高危人群进而限制其行动自由,征信评级系统可能把某人列入失信名单而限制其报考公务员。欧盟GDPR从个人数据的收集、处理阶段就通过对相关人员权利告知、赋予自动化决策反对权等内容保护其个人权利,并且在事中赋予个人访问权以保证相关权利人的知情权。美国通过个案审查的模式赋予公民救济权,虽然时间上相对滞后,但提供的权利保护具有强制力。从这一点来看,欧盟和美国的算法解释权在加强个人权利保护方面殊途同归。
三、我国构建算法解释权的法理基础
《个人信息保护法(草案二次审议稿)》(以下简称《个人信息保护法(草案)》)第25条明确提出,“通过自动化决策方式对个人权益有重大影响的决定,个人有权要求信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定”,这一规定奠定了我国算法解释权的法律依据。那么算法解释权在公共服务领域如何克服“商业秘密”保护的抗辩?
(一)公共服务领域算法解释之必要
1. 算法具有公共服务属性
伴随“互联网+”的发展,算法日益应用到公共服务领域,那么当算法治理事关公共利益时,重新审视算法定位及其属性是必要的。《政府信息公开条例》第2条规定“本条例所称政府信息,是指行政机关在履行行政管理职能过程中制作或者获取的,以一定形式记录、保存的信息”,因此公共服务领域的算法应用也具有公共服务属性,应当提出与政府信息同等程度的透明度要求。开发、应用征信评级、风险评估软件的企业实际上行使着“准公权力”的角色——当COMPAS算法程序作为量刑的参考依据时,风险评估工具肩负着公共利益职能,而非仅仅是私人企业的产品。就像上市公司定期披露财务报告一样,私营公司在决定将算法系统作为公共服务的辅助工具时,应承担维护公共利益的随附义务。如果算法决策的结论涉及公民福利、社会安全等公共利益,此时算法已经从技术工具的角色转化为公权力服务的一部分。1美国1996年颁布《信息自由法》授予个人获得政府档案的权利,在Chrysler Corp.v. Brown案件中,私人企业反对根据《信息自由法》的要求公布商业秘密记录时,法院驳回其主张并认为“当信息获取对于保护公共利益必要时,一些平衡和调节是可取的”2。所以,提供公共服务的私营公司应与公共机构保持相同的透明度要求,并应扩大信息披露,包括算法系统的运行过程,以此来实现这一要求。
2. 商业秘密披露之必须
算法的运作过程是其开发企业维持市场竞争力的关键,因此很多科技企业以“商業秘密”为由拒绝对算法进行解释,导致算法运作呈现“秘密性”“商业价值性”和“需保密性”特点。然而,当算法的运作过程侵犯了个人基本权利、甚至影响到了社会公共利益时,如何对算法进行解释呢?
“允许公司通过商业秘密保护来保持竞争优势的想法,必须让位于公共利益,因为公司的私人利益不能与公共利益相对抗。”3公共利益对商业秘密的抗辩原则是英美法律中的惯例,最初适用于非法利用商业秘密行为的抗辩,后来逐渐发展为公共利益抗辩原则,并对基于公共利益应当公开的事项作了特别要求。4英国法律委员会在“商业秘密滥用咨询报告”提出“为维护公共利益,以下情形不构成商业秘密侵权:(1)向合适之人披露保密信息是出于制止、发觉或揭露(a)一项已经或按计划将要发生的犯罪行为、欺诈行为或违反法定义务的行为;(b)一项本质上属于欺诈社会公众的行为;(c)现在或将来会危及公众健康或福利的事项;(2) 依据保密法律制度具有公共利益这一正当理由的任何使用或披露信息的行为”5。之后英国《1998年公共利益披露法》将上述情况纳入立法条文。美国判例确定的公共利益披露事由包括国家安全(Republic Aciation Corporation v.Schenk)1、方便公众利用公共设施(Westcode Inc v. Daimler Chrysler Rail Systems)2、维护商业道德和自由竞争秩序(Pepsi Co Inc v. Kitsonas)3以及保护宪法赋予的基本权利(Preminger v. Principi)4等理由。从确保公平正义的角度来看,人工智能算法系统的运作过程应尽早披露。由于公共服务的受众数量众多、影响力大,政府也投入了大量资源来购买和学习人工智能技术;如果不在事前检测算法系统的准确性、可靠性,而在被告对算法系统提出质疑时再进行源代码检测,则可能造成大量的资源浪费,也会对个人权利造成不利影响。所以,算法研发者不能以“商业秘密”为由拒绝披露算法运算过程。我国《个人信息保护法(草案)》第25条明确规定“利用个人信息进行自动化决策,应当保证决策的透明度和处理结果的公平合理”;第48条赋予“个人有权要求信息处理者对其个人信息处理规则进行解释说明”的权利,都是“商业秘密”披露的法律基础。
(二)算法解释权的技术要求
《个人信息保护法(草案)》第55条要求信息处理者对个人信息处理活动在事前进行风险评估,包括:“1.个人信息的处理目的、处理方式等是否合法、正当、必要;2.对个人的影响及其风险程度;3.所采取的安全保护措施是否合法、有效并与风险程度相适应”。为增强信息处理者风险评估的准确性,有必要公开算法运算过程的关键参数以使公众相信算法输出结论的可靠性,提高风险评估的公信力。
1. 公開算法模型
公共服务领域应用的算法事关公民基本权利,不应被置于秘密黑箱之中,而应在投入使用之前公开算法模型接受公众检验。提前公开算法模型能够为公众提供知情权,在应用广泛的算法决策领域,应该公开算法解释的模型以避免黑箱模型的使用。中国人民银行颁布《金融分布式账本技术安全规范》(JR/T 0184—2020)中明确规定,“在可计算性理论中,一系列操作数据的规则可以用来模拟单带图灵机”,即通过图灵完备原则进行算法模拟。我国《数据安全法(草案)》中提出了重要数据处理者的风险评估制度,以及政务数据委托处理的批准程序也是公开算法模型的法律依据。在Loomis案件中,COMPAS软件的设计者ProPublica曾发布报告对该软件的决策逻辑进行解释,明确提出“COMPAS软件的输出数据可能存在种族歧视的算法偏差”1。通过立法的方式限制黑箱算法的使用范围,规定对黑箱算法设计者和控制者的法律责任,才能从事前和事中对人工智能的算法逻辑进行实质的监管和追溯。
2. 公开源代码
欧美学者提出,“公开模型对算法逻辑进行解释无法完全避免算法歧视,披露计算机源代码增强算法决策程序透明度是降低算法风险的最佳措施”2。源代码保密不仅对刑事被告和司法公正造成危害,而且不利于技术创新。Loomis案件中,尽管开发COMPAS软件的Northpointe公司已经公开测试算法决策的过程,但它拒绝透露数据是如何加权得出的再犯风险评分,仍然有悖司法公正。美国明尼苏达州使用的酒精呼吸测试系统Intoxilyzer的源代码经过验证后显示,“缺陷系统”不能输出准确的结论。3因此,公开源代码确保算法公平公正具有重要作用。
当人工智能系统应用于公共领域时,公开源代码并接受公众的验证,是企业承担社会责任的必然要求。美国俄勒冈州要求算法设计者公开算法源代码,并提供犯罪风险评估的“16个变量及其权重”4。谷歌大脑团队将算法比喻成“人工神经网络的核磁共振成像”,并公布“可解释性的基础构件”的研究成果,这种开源化处理使得其他技术人员能够在此基础上编写适用于不同算法和场景的解释性算法。我国《政府信息公开条例》第9条规定,“涉及公民、法人或其他组织切身利益的信息应主动公开”,是算法系统公开源代码信息的法律依据。从技术角度看,应用于公共服务领域算法系统的开发者应在事前将算法运行信息公开披露,以便及时发现和纠正算法偏差,并通过持续审查算法更新后的情况,作为算法系统进一步创新的动力,开发出更加完善的算法系统。
3. 公开算法运算基本规则和因素权重
2020年4月加拿大生效的《自动化决策指令》要求使用算法决策的公共部门应就其决策向受影响的个人提供有意义的解释,包括决策中使用的变量因素。德国法律也要求政府部门使用的算法必须公布:(1)有关程序输入和输出数据的数据类别的信息;(2)算法所涉及的逻辑,尤其是使用的计算公式,包括输入数据的权重,基本的专业知识以及用户部署的个人配置;(3)最终决策的范围以及程序可能产生的后果。1由此可见,针对行政相对人提供具体的算法解释已逐渐成为各国的实践做法,如果政府机构仅仅以算法运行不能直观地作出解释就拒绝公开算法系统的基本规则和因素权重,则违反了行政行为公开透明的基本原则。1992 年美国联邦公路管理局拒绝披露用于计算运营商安全评级的算法,但法庭认为这违反了《信息自由法》中政府披露政府信息的要求,判决联邦公路管理局必须披露计算中所用因素的权重。2因此,公开算法运算基本规则和因素权重是公共服务领域算法决策遵循信息公开原则的必然要求。
(三)政府主导核心领域算法开发
为避免私人企业以商业秘密为由拒绝披露源代码,政府可在国计民生领域通过自己开发算法系统来满足公民基本权利保障的要求。在犯罪风险评估、征信评级、税收、医疗等公共服务领域,政府实际上是这些技术的主要(或唯一)购买者,与其强制私人企业公开算法过程,不如政府主导人工智能软件开发,以实现算法开发时公开源代码和公开算法模型的技术要求,维护公共利益。
1. 自主开发
国计民生核心领域的算法运行事关公共利益,必须由政府自主开发人工智能系统。例如,美国俄亥俄州的康复与矫正科就建立了自己的全州风险评估系统,以“改善一致性,促进刑事司法机构之间的沟通”3。我国各地正在如火如荼建设的大数据产业集团就是政府自主开发人工智能的典例。为贯彻算法解释权,算法开发时需要法律人员和技术人员合作,通过法律人员向技术人员解释法律规则的要求,技术人员根据要求设计出符合法律要求的算法——法律技术工程师这一职业正在悄然兴起。
2. 资助企业研发
在国计民生核心领域外的公共服务领域,政府可通过资助企业研发的形式获得算法系统的产权。例如,政府以项目招标的方式为承担者提供资金,同时要求研发者公开源代码或其他相关信息。政府资助企业研发人工智能系统可采取直接资助和间接资助的方式,最简单的途径是通过合同支付研发费用,以获得被开发产品的产权。此时政府研发可采取类似监管的专卖政策,或采取政府采购与单独的来源协议相结合,即购买某种特定技术或服务的协议的方式资助人工智能研发,这实际构成了一种排他性监管的形式。此外,政府购买算法系统时,为补偿研发企业公开商业秘密的损失,可通过税收、奖励等途径进行补偿,如为算法开发者提供更高的购买价格或更长的单一来源合同条款;或者政府为这种技术的发展设立奖励。
结 语
如果说前两次人工智能浪潮以技术研究为主导,那么第三次人工智能浪潮是以实践应用为目的。算法系统已经悄无声息地应用到公共服务的各行各业,“‘大数据时代背后所隐藏的商业价值驱动着企业、个人不断地借助数据挖掘等现代科技手段实现其商业利益的最大化”1,但“商业秘密”保护下的算法侵犯个人的隐私权和知情权,妨碍公平公正已经成为不容忽视的问题。算法应用于公共服务领域时具有公共服务属性,此时算法系统的商业秘密应让位于公民基本权利保障。我国《个人信息保护法(草案)》设立了以算法系统为解释对象、以事前监管为原则、以透明性和公正合理为标准的算法解释权体系,比GDPR更进一步保护了个人基本权利。在中国特色算法解释权的构建中,应从规范上明确“易读性为标准,反设事实为例外”的透明性内涵,完善算法事后审计制度,加强算法监管;在技术上公开算法模型、公开源代码、公开算法运算基本规则和因素权重,确保公众知情权;在实践上由政府主导国计民生核心领域的算法开发以保障数据安全,走向算法应用公开公正的新时代。
[责任编辑 李宏弢]