李文姝 刘道前
【摘要】人工智能与互联网、大数据的加速融合诱发新型社会风险,提出了信息规制的新诉求。总结信息规制的相对性、公共性特征,反思信息自决机制,应当基于利益平衡的立场,适恰地处理信息领域个人利益与公共利益的紧张关系。隐私场景理论为处理这种紧张关系提供了进路,强调信息的适当流通,建构了信息规范的四项参数,反对信息类型的二分法,提供了特定场景中“适当”的分析工具。激励与规范的视域下,应当从基于使用场景与敏感程度的同意规则,差异化应用场景,以及法律、标准、协议、代码的规范体系,技术自我规制四方面探索场景理论的应用。
【关键词】人工智能 信息规制 隐私场景理论 利益平衡
【中图分类号】A811 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2019.06.008
基于James Andrew Bates案的风险考量。James Andrew Bates因一起发生在其家中的一级谋杀罪案件被指控,美国阿肯色州本顿维尔警方持许可令对其家中进行搜查,发现包括亚马逊Echo在内的智能设备,并要求亚马逊公司提供该智能设备在案发当晚录下且保存在云端服务器的音频资料。亚马逊最初以涉及用户隐私为由拒绝,在贝茨同意后才予以提供。贝茨案中,亚马逊公司的处理方式与苹果公司拒绝联邦调查局解锁犯罪嫌疑人赛义德·法鲁克的苹果手机极为相似,但又存在区别于后者的新问题:智能设备无时无刻不在记录并存储着用户信息(除了Echo之外,警方还通过smart meter发现在被害人死亡的时间有大量的水被使用),这种信息收集区别于以往的电子通讯工具、互联网社交平台,因为智能家居设备的功能不是社会交互,该应用场景中的用户对“户”具有合理的隐私价值预期,具有更强的自治性,而这种价值预期为正当法律程序所回应。贝茨案听证阶段提出,法院有责任确保提供的信息能够有针对性地适用于该案的具体情况,也将为未来刑事司法程序中如何处理此类信息创造先例。智能家居设备时刻向云端传送用户数据,可供处理、分析和利用,形成“个人的量化身份”。贝茨案涉及个人信息、数据控制方与刑事司法之间的关系处理,这些争议在我国同样存在,其实质是技术发展诱发的新型关系处理。
科学技术的高度发展既是风险社会的特征,也是风险社会的成因。彼得·休伯(Peter Huber)在贝克风险理论的基础上,将风险区分为“私人风险”(private risk)和“公共风险”(public risk)[1]。巨量级数据的出现、计算能力的增强、理论算法的革新共同促成了第三次人工智能浪潮的兴起,包括机器学习、生物特征识别、虚拟现实/增强现实等关键技术,借助信息数据的获取、流动与使用发挥作用。人工智能与互联网、大数据的加速融合正在全面地改变国家-社会的基本结构、社会主体的行为与决策方式、政府监管模式及其所附带的政策体系,被称为“技术统治”和“新的政治空间”[2],人类正在进入“一切皆可计算”的时代。与此同时,智能科技革命也诱发了信息与隐私领域的新型社会风险。贝茨案仅仅展现出人工智能视域下信息规制争点的一隅,信息及隐私领域的争点已不仅仅存在于前述公权力介入的场景。机器学习可以识别图像或视频中隐藏的信息,例如,商场研发面部识别系统识别顾客情绪,神经网络算法通过面部识别来判断人的性取向……利用人工智能进行的信息监测与分析可能引发数字、物理、政治安全风险,如自动化监测(如分析大量收集的数据)、说服、欺骗,会扩大与侵犯隐私和操纵社交相关的威胁[3]。与此同时,人工智能技术的恶意使用会带来新型公共安全风险,例如公安部督办的“2017·01·03”侵犯公民个人信息、提供非法侵入计算机信息系统工具案。技术发展伴随着现有风险的扩张、新型风险的产生、典型风险的特征变化,提出了新的规制诉求。
信息领域个人利益与公共利益的紧张关系。首先,信息主体对信息控制力的减弱。人工智能的本质在于数据处理系统的输入与输出关系,其核心是基于超强的算力与学习能力,对个人信息的分析、使用与处理加剧了信息保护与数据利用的冲突,从根本上消解了信息的主观管理能力。人工智能算法日益广泛地渗透到用户画像、事件抓取、信息个性化推送等领域,让渡部分信息,才能享受智能化服务,信息主体或主动或被动地成为“透明人”。人像识别技术应用场景中,相对人姓名、性别、年龄、职业,甚至不同情境下的情绪、行为、轨迹等大量关联信息,都被收集、处理与使用,宽泛的授权协议减损了“知情同意”规范的效力。而广泛的应用场景衍生出更多行为异化。例如Facebook数据泄露事件中,用户授权登陆帐户后的“点赞”“好友”等信息被用于“学术研究目的”,剑桥分析公司甚至出于政治目的利用了用户数据,Facebook还承认用户的公开数据可能被非法抓取,通过反向搜索非法获取了用户的个人数据。
其次,巨量级数据深度分析引发的争议。当信息数据的社会价值和经济价值逐步得到认同,监管规则与措施的滞后在一定程度上导致了数据安全和隐私保护领域的风险。利用人工智能技术进行信息收集、处理、使用,容易推导出公民更多的隐私。这主要涉及如下亟需解决的问题:其一,数据所有权、数据交易规则等数据行为基本秩序仍未明确;其二,数据处理与使用的信息不对称,随着数据的爆炸式增长和云计算能力的指数级进步,信息主体深陷“黑箱”,无法充分知晓个人信息在何时、何种场景下被收集、分析、使用、处理;其三,平衡数据使用方、数据控制方及数据主体的三方利益。作为现代社会的主要治道,如何设置与调整“激励”与“规制”科技发展的法律價值目标?如何预测、预防和缓解技术发展与应用带来的隐私、安全风险?如何建构与设计法律规范体系?其实质在于如何处理技术发展与应用中的个人利益与公共利益的紧张关系。
传统解释工具的思辨。第一,信息规制的相对性与公共性。人工智能通过计算机发掘数据的能力,通过信息流动与使用,使法治从消极的危险消除模式延伸到积极预防模式。网络法律关系中的权利保护,已经无法沿用工业时代的权利保护模式,这种保护的出发点不是基于公权力的暴政,而是基于权利自身的需求。人工智能应用带来国家与社会、公法与私法界限变迁,通过采集、存储、使用个人数据带来新的权利内容与责任,借助个人数据所完成的用户画像,可以呈现个人的经济状况、兴趣偏好、行为轨迹等,引发传统权利法理的变革。人工智能技术应用使“人-人”的关系转变为“人-技术-人”,尊严与隐私、安全与自由之外的数据、虚拟生物信息等进入权利视野。
人工智能应用场景中,信息本身即具有相对性,从用户的角度是用户的个人信息,从服务提供者角度是服务信息,从国家机关角度是政府监管信息。以用户画像为例,其包含多个主体利益,既有信息自决的内容,也有经营自主权的内容。自然人对个人信息的利益不是积极的、绝对的,而是防御性的、相对的,数据保护也绝不限于财产权的归属和分配[4]。相较传统的权利保护视角,风险防范及利益平衡的视角更能够回应人工智能应用场景中的信息规制基础——财产权或人格权属性之外,必须考量公共利益。信息规制是国家、企业(机构)、个人多方主体的共同作用,涉及商业平台、技术开发主体、数据提供方等,通过信息的收集、流动、分析和使用,提升公共福祉,创新社会治理。信息规制不能脱离信息业发展和社会公益。
第二,信息自决的挑战与变革。美国的传统控制理论、德国的信息自决权理论是主导信息立法的基础理论,这些理论强调个人自我决定在信息规制中的作用,实质是强调自然人在信息社会中的主体地位。人工智能技术依靠强大的信息感知及计算能力,实现个人信息的挖掘、使用、流动,消解了传统信息自决机制中主体的主观管理能力,技术发展使个人信息的收集与使用更加便利,出示证件、经批准的检查或搜查,以及当事人同意等正当法律程序被消解。争议开始出现,如公共区域的人像识别、数据采集是否需要有明显标示?是否要求企业在收集用户信息前获得明示同意?针对特殊类型信息的收集是否适用行政许可规制工具?从公共数据中推导出个人信息,从个人信息中推导出与个人有关的其他人员(亲友、同事)信息(在线行为、人际关系等),远超出最初个人同意披露的范围。但是,物联网中巨大量级的用户数据在各个设备和系统之间频繁传输处理,不加区分地将所有场景均设置以用户同意为前提将产生巨大的信息利用成本,减损流通与共享的收益,亦不具备可操作性。
信息自决面临挑战的基本命题——为什么要进行信息规制?我们保护的是个人信息本身,是建立在个人信息上的利益,还是预防个人信息的风险?信息自决的内涵应该是控制个人信息的使用,还是控制对其不正当的使用?如果我们对这项基本命题的解读是预防信息领域的风险,则风险或利益侵害的存在是规制工具适用的前提,而这种风险或侵害不是恒定的、绝对的,而是流动的、相对的、场景式的。如果我们对命题的解读是保护个人信息,则规制进路的前提是明确权利的范围、实现方式、主张及责任模块。这是完全不同的规制进路,所以,信息规制的基本立场是我们首先要明确的问题,这决定着我们的规制对象和基本原则。
基本立场:风险防范、利益平衡抑或权利保护?我们应当在何种语境下叙述信息领域个人利益与公共利益紧张关系的实质?北京百度网讯科技公司与朱某隐私权纠纷案中[5],判决的叙事逻辑并没有将用户画像与个性化推荐置于人格权、隐私保护的范畴。
權利保护语境下,权利范围的争议是广泛存在的。个人识别信息(Personally identifiable information)曾经是信息隐私监管规则的核心和边界。法律适用的基本假设是,只有个人识别信息才被法律所保护,如果不涉及个人识别信息,则不可能有隐私侵害,但信息隐私法中个人识别信息的定义尚存争议。在人工智能时代的强大算力下,非个人识别信息也可以与个人相联系,并且可以重新识别被识别的数据,二者之间并不是不可变的,非个人识别信息可能在某一事件中被转化为个人识别信息,技术的发展深刻地影响着二者的界限,且这种界限的界定必须基于特定的场景。[6]基于权利保护的视角论证,预设了个人对于自身用户画像应当有控制的权利,“挑出个人信息”的数据保护是为了公平与隐私[7]。但该视角必须回应个人信息的基本范畴,有学者提出了个人识别信息2.0的概念,包含“已识别信息”与“可识别信息”两类,对个人面临的不同风险程度建立有针对性的法律保护[8],这种进路既避免了美国对个人识别信息的简化主义观点(the United States' reductionist view),也避免了欧盟的扩张主义观点(the European Union' s expansionist view)。简化主义观点认为信息隐私监管只保护已识别的数据,因此留下太多的个人信息而没有法律保护;扩张主义观点认为,如果信息已经与某一特定的人相联系,或将来可能与之相联系,则应当被保护,这一观点将已识别和可识别的数据视为等同数据。也有学者提出,信息隐私监管法律规范必须剥离个人识别信息的概念,寻找新的范式进行规范。[9]……中国法律中个人信息的概念还是与身份识别联系起来[10],而数据权利法理尚不成熟,“可识别性”的实践边界不清,容易导致规则的迟滞与对风险的放任,抑或规则的局限与不自洽。在此基础上,更重要的命题在于,主体对信息的权利主张是什么?是否应当由个人来主张权利实现?在权利种类似乎已经明确的情况下,权利主张介入程度的谱系是什么?如何根据不同场景,分配个人不同的权利主张强度?规则如何保障?规制的成本与效益如何?例如,能否强制企业进行非精准推送?是否赋予企业从第三方间接收集个人信息时,核实第三方收集、转让个人信息的合法性的义务(信息的间接收集人信息来源合法性的注意义务)?
本文论证的基本立场,即信息规制的目的是风险防范与利益平衡。回归风险防范与利益平衡的立场,很多规范逻辑也更容易厘清[11],亦将避免信息规制成本收益的失衡,避免切断数据利用带来的技术损害。例如,匿名化信息(包括行为标签、群体画像)是否可能纳入个人信息范畴以及作为国际通例的信息规制措施的平衡考量[12]。本文所指的信息规制,是指基于风险预防与利益平衡,为规范信息收集、使用、分析、流动等提供的制度供给、政策激励、外部约束、公私合作的过程。从法律与技术双重立场识别与控制信息风险,实现技术发展的激励与规范。
基于利益平衡的隐私场景理论。其一,隐私场景理论的内涵与构造。信息的“适当”流通、分享是隐私场景公正性理论的逻辑起点。信息的规制不是单面向地基于权利的保护或者对侵权行为的压制,而是以社会整体利益作为考量,基于利益关系的平衡,使规制合目的、合比例,降低规制的对抗成本。Helen Nissenbaum提出了隐私场景理论(Theory of Contextual Integrity),认为隐私不在于安全或控制,而是个人信息的适当流通(a right to appropriate flow of personal information),并通过场景公正性的基本框架强化了这种“适当”。隐私仍然是一项需要通过立法和其他途径保护的重要的权利和价值,但是要强调其在特定场景下的公正及不同场景之间的区别。[13]
Michael Walzer突破了传统自由主义的方式,重新审视了社会的公正与正义,建构了多元正义理论,在普适正义的基础上提出了“复合平等”(complex equality),即不同领域的独特的正义准则。Michael Walzer认为,当社会商品按照不同的分配标准分配时,就会实现复合的平等,即正义的标志。各领域是相对自治的,依据多元正义理论,存在“不同领域不同的人的不同结果”[14]。根据另一个领域的标准分配一个领域的社会商品构成不公正。[15]隐私场景理论正是基于多元正义理论而建构,认为同样的信息在不同的社会群体中隐私参数不同[16],其原因在于隐私是一个文化上的相对偏好,而不是一个普适的人类价值。隐私场景理论的框架正是来源于这个视角。这个框架的核心在于不同场景信息规范的建构[17],回应个人信息的传输、交流、转换、分配、扩散。场景公正性与信息规范相结合,即“个人信息的适当流通”中“适当”的判断标准是信息的流动是否符合特定场景下的信息流动规范。Helen Nissenbaum认为,信息规范构造包含以下参数:具体化的情景(行为类型、目的)、主体(信息的接受者和发送者等主体、主体之间的关系)、信息的类型和属性、传输原则(主体之间以何种条件共享信息、进一步传播的条件)。[18]其中,信息的类型和属性不仅仅是个人或者非个人(公有的)、高度敏感或者非敏感这样的一维的、二分的逻辑[19],相同的信息在不同场景下呈现出不同的敏感程度。如何判断是否侵犯了隐私,需要依据特定社会场景描述个人信息流动的参数,进而得出结论,规则应当基于不同的场景制定。
其二,隐私场景理论的实现路径及意义。传统信息规制模式下,主导隐私保护的三项原则,即限制政府对公民的监视和使用有关公民的信息;限制获取敏感或私人信息;限制侵入被视为私人或个人的场所。规范与现实的衡量,不仅要考量其在特定场景下所促进的价值与收益,也要考量其对社会整体的价值与收益。信息规制影响的价值包括:预防基于信息的损害、信息平等、自主、自由、维护重要的人际关系、民主和其他社会价值观。[20]个人信息的收集、共享、流通的价值包括言论自由[21]和新闻自由、经济效率[22]和盈利能力、开放政府和安全。传统的原则存在灰色地带,在政治和法律调查的其他领域一直沿用的公私二分法是不适用的,而普适性的框架和规则也难以奏效。隐私场景理论与传统隐私保护原则是不同的,隐私场景理论实质是个人信息的个人利益与公共利益的平衡,在技术应用的具体场景下实现个人信息保护,从技术激励与规范的角度,实现信息的恰当使用与社会发展。
Helen Nissenbaum结合克林顿-莱温斯基性丑闻、美国《金融服务現代化法案》、加拿大《个人信息保护及电子文档法案》以及医疗处方隐私展示了如何借助隐私场景理论论证权利保障与侵害[23],为论证何谓信息“适当地流动”提供了分析工具。人工智能技术发展过程中,数据的收集、分析、流通直接关系到算法及其结果的公平性、准确性。而随着互联网+、大数据、智能技术的发展,“普遍性、一致性、抽象逻辑化的生活方式逐渐淡去,而根据特定情形、地域和对象的数据分析、场景定制、程序建模,则逐渐成为一种发展趋势”[24]。利用隐私场景理论,细化考量因素,能够在具体场景(法律关系)中厘清信息规制的界限。
基本原则:信息保护的激励与规范之争。隐私场景理论的核心在于信息的适当流动,数据对技术发展至关重要,也是数字经济时代商业运行的基础,信息在特定应用场景之下往往具有多重身份。例如,网约车软件收集、分析、使用的信息不仅仅是消费者的行动轨迹,也是机构(企业)的服务信息,这些信息与数据的收集是商业运行之必需。所以,信息规制的前提是要充分考量具体场景及目的,同时区分网络法律关系中信息数据的收集、使用、共享行为,基于个人利益与公共利益平衡,进行规范的建构。欧盟《一般数据保护条例》(下文简称GDPR)除了规定合法透明、目的限制、准确性等原则之外,还将限期储存原则作为个人数据处理的基本原则,即对于能够识别数据主体的个人数据,其储存时间不得超过实现其处理目的所必需的时间,并在后章规定个人数据的删除权。但美国ITIF发布了GDPR对人工智能影响的报告,提及GDPR中的删除权、禁止其他目的使用、惩罚性模式等规定在实践中对人工智能发展可能或已然的不利影响。“删除人工智能系统运行中关键规则的数据可能会降低准确性,并限制其对其他数据主体的好处,甚至完全破坏人工智能系统。”“禁止数据用于除首次收集之外的任何其他目的,企业难以使用数据进行创新。这将限制公司在欧盟开发或使用人工智能改善服务的能力。”[25]一方面,全面评估新规的影响,对实现有效的激励与规范具有现实意义。另一方面,技术发展使得权利保护的程度在不同的社会历史阶段、文化背景里呈现出不同的叙事,不同国家利益与产业利益背景下,欧盟模式与美国模式在信息规制方面呈现出不同侧重。美国联邦通信委员会发布的《保护宽带和其他通信服务用户隐私条令》因过于严苛的监管于2017年被废止,但随着Facebook数据泄露事件的发酵,引入欧盟数据保护模式的呼声在美国日益高涨。将隐私场景理论作为信息规制工具,可以避免前述简化主义与扩张主义的冲突,使信息规制符合比例性与目的性,以对个人利益、商业利益、社会总体利益最优的方式实现对技术发展的激励与规范。
基于使用场景与敏感程度的同意规则。传统的保护模式是用户的绝对主动,唯有经过信息主体的知情和同意,收集处理行为才是合法的,这种风险与责任的分配机制是源于信息保护传统脉络。诺贝尔经济学奖得主、普林斯顿教授Sir Angus Deaton提出的隐私数据信息交易系统或是对传统知情同意模式下数据授权的回应。但巨量级数据的使用与流通场景中,同意无法在全部场景下均以明示的方式作出,“一刀切”的知情同意风险分配机制并不符合人工智能的技术应用特征,既会导致规则的失灵,又会对技术发展带来伤害。隐私场景理论更符合信息保护模式的实践,知情与同意应当区分数据的敏感程度与使用场景。
基于使用场景的区分包括规范的场景与个案的场景。规范的场景,是指具有普遍性、一致性、抽象逻辑化的场景模块。如GDPR规定了不需要识别的处理(Article 11)、数据控制者与处理者的关系(Article 26),以及对个人数据的处理条件和特殊数据问题。按照GDPR的规定,知情同意并非数据处理的唯一合法性条件,还有合同履行、法律义务履行等,但其他条件的适用是非常审慎的(Article 6);GDPR还规定了“禁止处理显示基因数据、为了特定识别自然人的生物性识别数据、以及和自然人健康、个人性生活或性取向等”特殊类型数据的处理条件,并规定了基于数据主体同意、实质性公共利益等共10项例外(Article 9)。个案的场景,是指包含了具体化的情景、主体、传输原则的场景。
在不同场景的基础上,基于数据敏感程度的区分,理想的模型是针对个人敏感信息采用选择同意(opt-in)模式,而针对非敏感信息,在相应场景中以合理的手段收集、留存、使用信息的同时,强调默示同意的用户对信息处理有撤回同意(选择退出opt-out)的选择权,即“默示同意+选择性退出”的同意机制,并针对敏感信息设置更为严格的透明原则。隐私场景理论的基本观点,信息类型的划分,敏感程度的判断,不是绝对的,一分为二的,而是相对于特定的场景而言。技术层面,个人信息控制者可以通过默示条款的方式,使得信息主体完全不知道自身的信息正在被收集;通过对大量的非敏感信息的收集和处理可以识别个人的敏感信息。但是,如果取消个人敏感信息与非敏感信息的差别保护,要求个人信息收集时全部适用明示同意,又会涉及巨大的规制成本,与信息流动的本质与收益有所冲突。
差异化应用场景的规范要素。Helen Nissenbaum预设了隐私场景理论的前景,将不同的历史阶段、地域、社会文化构建到任何给定场景的信息规范中,信息规制将鼓励今后对突出领域进行研究,以揭示这些领域的技术创新如何影响信息规范。[26]智能算法造就了新的权力形态,也亟需新的利益分配模式,以及不同传输原则的规范描述。成熟的规则设计尚需系统把握人工智能算法与系统的特点,考虑到人工智能技术不同类型的应用场景,除了共性技术外,不同人工智能产品在不同行业场景中进行数据获取与使用存在明显的个性化需求与技术特色,必须进行类型化差异化规制,根据技术应用场景和信息类型制定不同的技术标准及系统安全设计方案,回应不同应用场景信息安全保障需求。差异化规制思路在美国表现为敏感领域(如医疗档案、金融数据等)的分散式立法、设立行业规范。
隐私场景理论中信息规范的基本构造,应当根据不同场景(行为类型、目的)、主体(信息的接受者和发送者等主体、主体之间的关系)、信息的类型和属性、传输原则(主体之间以何种条件共享信息、进一步传播的条件),设计不同的规制方案。“一刀切”的监管与风险控制方案无法回应人工智能的技术特征和复杂多变的应用场景,针对不同的应用场景建立差别化的信息治理方案是人工智能信息规制的显著特征,实质是情境化、差别化、类型化的风险责任分配。例如,视频、音频采集识别分析系统(如谷歌“隐私分析个性化内容智能家居”专利、亚马逊的语音交互分析与关联个性化推荐专利等)在智能家居场景中的应用,该场景中通过视频、音频的采集、识别进行的家庭结构、情绪、爱好、生活习惯分析,与基于商品交易平台、互联网搜索平台数据收集、分析而进行的个性化推送,从预防基于信息的损害、信息平等、自主、自由、维护重要的人际关系、民主等价值衡量的视角是有所区别的。前者需要更为严苛的隐私保护技术、绝对主义路径的必要数据界定,遵循更为严格的透明原则,即该场景下技术企业负有更多充分披露隐私数据使用和保护原则与目的的义务。但在规范内容编制的过程中,要注意一般性规范的提炼,防止将监管引向碎片化。例如,GDPR条款的基本格式多为“基本规则+除外条款”,情境化、差异化的同时兼顾统一性的基本规制思路,例如限期储存的一般性规则与例外,获得信息主体同意后处理的一般性规则与例外等。
法律、标准、协议、代码的多元规范体系。第一,多元纠纷解决进路的规范建构。《刑法》第285条规定了提供侵入、非法控制計算机信息系统的程序、工具罪,《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》等为刑事打击恶意利用人工智能侵犯个人信息或提供工具行为提供了法律基础。规范的目的是保障人工智能健康发展,能够平衡个人信息保护和数据应用,与技术发展创新相适应是衡量立法效果的关键因素。一套切实有效的信息治理规则体系,需要公法和私法共同构建,政府监管、企业责任,以及民事法律角度对信息主体的赋权,确保规制的安全性、可操作性、可追溯性。例如,收集网络用户浏览、搜索、收藏、交易等行为痕迹所产生的巨量原始数据,深度分析过滤,整合并匿名化脱敏处理后,形成预测性、统计性数据,这类加工信息如何规制,在2018年8月淘宝(中国)软件有限公司诉安徽美景信息科技有限公司“生意参谋”零售店上数据平台不正当竞争纠纷案中作出了阐述。在新浪微博诉脉脉案中,司法实践中采取的也是反不正当竞争诉讼的纠纷解决进路,在网络法律关系中,基于数据共享的模式,通过互联网开放端口获取数据,数据抓取行为需要法律边界,以防止技术的恣意。而在相似的hiQ Labs与LinkedIn之间的诉讼中,美国联邦法院给出了不同的答案,其核心争议点在于平台公司对于用户公开发布至平台的数据权限是什么,这是数据财产权利的保护进路。我国数据权利正处于生成和发展阶段,数据所有权、数据交易规则等基本秩序规则需要进一步明确,需要刑罚、民法、行政法规则体系的建构。
第二,标准、方案、协议等软法体系的建构。隐私场景理论强调不同场景与情境的描述,探索信息隐私监管的新范式,回应个人识别信息的延展性,这里需要标准,而不仅仅是规则。微软总裁兼首席法务官Brad Smith在博文中提到对人脸识别技术的公共监管与企业责任。人工智能时代需要制定新的公共原则来管理技术,作为逐步进入甚至接管公共事务的技术企业(机构),合法、合规、透明、说明理由等公法义务的恰当赋予尤为重要。软法作为技术企业描述特定场景、信息主体、信息类型和属性、传输原则的文本形式,应当被纳入信息规制的规范体系中。人工智能信息规制中的软法,首先包含差异化的技术标准,现阶段,人脸、指纹、虹膜图像数据的生物特征样本质量标准,智能家居通信交互协议规范、安全参考模型及通用要求、基于可信环境的生物特征识别身份鉴别协议等信息安全技术标准均是人工智能技术标准化建设亟需解决的重要问题。此外,软法还包括各类系统安全设计方案、网络安全方案、系统测试方案等[27],也应包括用户协议等规定了数据合规内容的、具有一定约束效力的文本。基于服务协议的用户权利让渡条款获得服务,其知情条款、使用目的、方式等透明性规范应当进一步规范,避免冗长带来的实质失效。
第三,法律代码化与代码之治。可预期性是法律规则的根本特性,智能革命是否会带来法律根本特性的变革尚存争议,但一个现象不可否认,“对于规则的认识会成为一个动态的过程,数据的输入与反馈会不断引导人工智能进行学习,以自身的算法输出动态调整的规则”[28]。代码化的技术主义规制更加符合人工智能技术应用个性化、自主化的场景式信息规制需求。以法律原则、规则指引编程人员,并且基于技术和商业运行模式特征,适恰地设置对算法和代码设计的透明、审查机制。算法本身的公开性、透明性和公正性是人工智能技术规制的现实进路,但一些场景之下,“算法黑箱”是连程序员都不能完全揭示的,尚须平衡商业秘密、技术保护与技术规制之间的关系。
信息流通的技术自我规制。其一,技术风险的自我规制。网络法律关系的规制,应当由谁来制定规则?技术企业(机构)掌握巨量数据,且熟稔技术应用运行机制、发展格局。技术企业(机构)的自我规制具有必要性及可行性,应积极制定公开透明的行业标准、企业标准、协议、系统安全方案等,以补充个人信息保护法制的不足。“自我规制强调由社会组织行使对科技风险的调控权力,但这种权力并不是法律、法规、规章所授予的权力,因而社会组织并非行政主体,不受法律保留、比例原则等原则的制约,避免了以传统行政法学理回应风险规制时产生捉襟见肘的困局。”[29]人工智能的信息风险规制由最熟悉技术应用场景企业(机构)实施规范制定、技术甄别、风险承担,避免法律系统与科技系统的扞格不入,减轻企业的合规负担,缓和行政命令式技术规制的压力,更有利于信息保护与技术发展的平衡。
其二,去标识化及其标准化。去标识化是自我规制视角下从传统的个人信息自决向个人信息保护与共享利用相平衡转化的重要技术支撑,是通过对个人信息的技术处理,使其在不借助额外信息的情况下,无法识别个人信息主体的过程,数据集的某些属性可以共享发布,供外部业务系统进行处理分析。去标识化是隐私保护数据发布的主要工具[30],现阶段方法包括屏蔽、随机、泛化、加密等。围绕我国大数据安全标准化体系规划,对去标识化技术机制、模型以及评估方法进行标准化操作,例如保密格式加密技术等技术的标准化,优先将成熟的应用和实践成果转化为标准规范。当然,去标识化后是否有重新建立标识的可能性,也需要在规范层面作出回应。同时,去标识化不等同于标识符的移除,“一刀切”地去除标识符可能导致数据的重复、混乱和遗失,无法保证智能技术应用结果的公平性、可信性。隐私场景理论下,需要结合具体的应用场景对数据的敏感程度进行非二分式地分析,评估被重标识的风险,以规范数据共享和处理活动,保障数据安全与有效,保证数据在共享、流通过程中能够得到准确的描述、有效的组织,最大化数据的收益,实现数据流动的“适当”。信息处理的匿名化以及数据的不可追溯性,成为公共性属性之下信息保护的基点[31],但是,技术层面可以使匿名化的信息重新标示特定个体,即便没有姓名个体识别符号,信息匿名化处理之后,也可以通过技术定位到具体的个体、服务器等,可以在技术自我规制的基础上,借助民法、刑法、行政法规则,禁止违法解匿名化(De-anonymization)行为,实现个人信息保护和数据收益之间的平衡。
互联物联、人工智能、虚拟科技时代的信息规制不仅是法律与技术的衔接问题,更关涉信息社会中人的主体地位。信息规制不仅需要了解人工智能技术的运用机理与决策机制,准确把握其与普通计算机程序运行的核心区别,更需理顺其道德、经济和社会基础,进行不同应用场景的价值衡量,使规制合目的、合比例。应对人工智能时代的不确定性和變动性,亟需构建一种精细化的、试验主义的信息规制模式,不是对以往规则的颠覆,而是适应新技术的发展,在网络法律关系中妥当处理权利保障与科技发展、社会发展的关系。
(本文系辽宁省社会科学规划基金青年项目“人工智能视域下信息获取与使用的法律规制研究”成果,项目编号:L18CFX001;同时系中央高校基本科研业务费重大培育项目“‘互联网+智能制造治安评估与防控机制研究”成果)
[1]Peter Huber, "Safety and The Second Best: The Hazards of Public Risk Management in the Courts", Columbia Law Review, 1985, 2, pp. 277-337.
[2]樊鹏:《利维坦遭遇独角兽:新技术的政治影响》,《文化纵横》,2018年第8期。
[3]Miles Brundage, Shahar Avin et al. , "The Malicious Use of Artificial Intelligence:Forecasting, Prevention, and Mitigation", https://arxiv.org/abs/1802.07228, October 3, 2018.
[4]王利明:《亟需法学研究和立法工作予以关注——人工智能时代提出的法律问题》,《北京日报》,2018年7月30日,第13版
[5]朱某称其利用百度搜索引擎搜索“减肥”“丰胸”“人工流产”等词,浏览相关的内容后,在一些网站上就会出现上述广告。朱某主张,百度网讯公司利用网络技术,未经其知情和选择,记录和跟踪了其搜索的关键词,将其兴趣爱好、生活学习工作特点等显露在相关网站上,对其浏览的网页进行广告投放,侵犯了隐私权。一审法院认为,网络活动踪迹属于个人隐私,百度网讯公司利用cookie技术收集朱某信息,侵犯了朱某的隐私权。二审法院认为,百度网讯公司在提供个性化推荐服务中运用网络技术收集、利用的是未能与网络用户个人身份对应识别的数据信息,该数据信息的匿名化特征不符合“个人信息”的可识别性要求。推荐服务只发生在服务器与特定浏览器之间,没有对外公开其网络活动轨迹及偏好,未强制网络用户必须接受个性化推荐服务,提供了退出机制,未侵犯网络用户的选择权和知情权。
[6][8]Paul.M.Schwartz, Daniel.J.Solove , "The PII Problem: Privacy and a new concept of personally identifiable information", New York University Law Review, 2011, 86 (12), pp. 1814-1894.
[7]Frederik J. Zuiderveen Borgesius, "Singling out people without knowing their names – Behavioural targeting, pseudonymous data, and the new Data Protection Regulation", Computer Law & Security Review, 2016, 32(2), pp. 256-271.
[9]PAUL O., "Broken promises of privacy: responding to the surprising failure of anonymization", UCLA Law Review, 2010, 57(6), pp. 1701-1777.
[10]参见《信息安全技术公共及商用服务信息系統个人信息保护指南》、《信息安全技术:个人信息安全规范》(GB/T 35273-2017)。
[11]如欧盟《一般数据保护条例》对用户画像、信息主体对信息的控制权利的规定。
[12]匿名化信息是否是个人信息的范畴,企业主张以能否识别特定个体作为判断标准。
[13][17][19][23]Helen Nissenbaum, Privacy in Context Technology, Policy, and the Integrity of Social Life, California: Stanford University Press, 2010, p.127, p.129, pp.140-144, pp.152-156.
[14][15]Michael Walzer, Spheres of Justice: A Defense of Pluralism and Equality, Basic Books, 1983,p. 320, pp. 17-20.
[16]例如,电子商务平台通过分析用户的喜好信息进行个性化推送是符合适当性规范的,但是杂货铺的老板询问消费者家庭信息、工作信息、子女入学信息等,以及电影、读书、度假等生活信息,并把这些信息提供给了第三方,则违反了适当性规范,也违反了信息流通规范。
[18][20][26]Helen Nissenbaum, "Privacy as Contextual Integrity", Washington Law Review, 2004, 79, pp. 119-158.
[21]Paul M. Schwartz, "PrivacyandDemocracy in Cyberspace ",VAND. L. REV., 1999, 52, p. 1607.
[22]Solveig Singleton, "Privacy as Censorship: A Skeptical View of Proposals To Regulate Privacy in the Private Sector", CATO POLICY ANALYSIS No. 295, (Cato Inst. 1998), http://www.cato.org/pubs/pas/pa-295.pdf.
[24]马长山:《智能互联网时代的法律变革》,《法学研究》,2018年第4期。
[25]Nick Wallace and Daniel Castro, "The Impact of the EU's New Data Protection Regulation on AI", October 3, 2018, https://www.datainnovation.org/2018/03/the-impact-of-the-eus-new-data-protection-regulation-on-ai/.
[27]吴沈括、罗瑾裕:《人工智能安全的法律治理:围绕系统安全的检视》,《新疆师范大学学报(哲学社会科学版)》,2018年第7期。
[28]李晟:《略论人工智能语境下的法律转型》,《法学评论》,2018年第1期。
[29]张青波:《自我规制的规制:应对科技风险的法理与法制》,《华东政法大学学报》,2018年第1期。
[30]FUNG B C M, WANG K, CHEN R, et al., "Privacy-preserving data publishing: a survey on recent developments", ACM Computing Surveys, 2010, 42(4),p. 14.
[31]張平:《大数据时代个人信息保护的立法选择》,《北京大学学报(哲学社会科学版)》,2017年第5期。
责 编∕马冰莹
Abstract: The accelerated integration of artificial intelligence with the Internet and big data has caused new social risks and hence there has been the need for information regulation. Reviewing the relativity and publicity of information regulation and reflecting on the mechanism for information self-determination should be based on the balance of interests and properly handling the tension between personal interests and public interests in the information field. The theory of privacy scenarios provides support for dealing with this tension, which underscores the appropriate flow of information, constructs the four parameters for information regulation, opposes the dichotomy concerning information types, and provides an "appropriate" analysis tool for the specific scenarios. From the perspective of incentives and norms, we should explore the application of the scenario theory in the four areas: the agreement rules based on the usage scenarios and the sensitivity degree, the differentiated application scenarios, the legal, standards, protocols, and code specification systems, and technical self-regulation.
Keywords: Artificial intelligence; data governance; theory of contextual integrity; balance of interests