吕垚瑶
(西南政法大学刑事侦查学院 重庆 401120)
ChatGPT的实质是一个可适用于多元复合场景的通用性大型自然语言训练模型,它以“生成式训练转化器”和“人类强化反馈学习机制”为双向技术依托[1],其运行机理为通过借助各种算法让人工智能利用海量的数据文库进行自主学习,并在用户反馈中不断强化逻辑推理能力和情绪感知能力,生成甚至创造出全新的知识内容[2]。ChatGPT所具有的超强类人化和通用性特征,重新定义了知识内容的生成规则和用户场景的实现路径,是人工智能技术范式的重大转型[3],被互联网专家认为是人类第四次工业革命时代到来的标志[4]。
自2022年11月30日ChatGPT产品发布以来,学界高度关注生成式人工智能的规制议题并形成了一些有益的研究结论,但由于ChatGPT尚属新兴技术样态,该领域的理论研究存在一定程度的滞后性和局限性:一是在研究主题上,集中聚焦在数据安全、算法纠偏、知识产权保护三大具体领域,规制措施重点集中于对生成式人工智能在具体领域的运行过程和生成内容的合法性规制层面,缺少对技术迭代可能引发的犯罪风险进行体系性、全过程、类型化的分析研判。二是在研究方法上,大部分研究仍局限在规范刑法学的狭隘视角,惯用法律推理和规范证成的阐释路径分析生成式工智能可能涉及的刑事法律风险及刑法应对途径,客观上沿袭和固化了传统“事后回应型”犯罪治理范式的滞后性弊端,弱化了技术革新原理与犯罪发生逻辑的内在关联,忽视了技术迭代对犯罪治理范式的变革需求。三是在研究结论上,并未突破对传统人工智能犯罪风险的一般认知,未能对生成式人工智能不同运行阶段所带来的特殊风险予以充分揭示,尤其是对如何防范生成式人工智能的推理能力可能产生的未知风险,未能予以有效回应。
目前,该项技术已广泛应用于社会管理、商业生产、学术创作甚至政治决策中,其技术迭代引发的犯罪风险颠覆了传统的犯罪治理逻辑,在全球领域内尚未形成有效的治理方案。鉴于此,本文试图以ChatGPT的运行机理为技术参照,围绕生成式人工智能数据训练、内容生成、内容流通三大阶段所隐含的犯罪风险进行全流程类型化的分析研判,在进一步厘清技术迭代与犯罪风险内在关联的基础上,探索构建符合中国互联网发展实际的综合性犯罪治理方案,为全球营造风清气朗的网络空间命运共同体贡献中国智慧。
大模型(算法)、大算力和大语料(数据)三大关键性要素,共同催生出了以ChatGPT为代表的具有革命性意义的新型知识生产工具[5]。根据OpenAI的官网介绍,该技术模型智能化运作过程可以分为数据训练(该阶段包括数据预训练和数据微调两个子阶段)、内容生成和内容流通三大阶段。为全面揭示生成式人工智能技术迭代可能引发的犯罪风险,本文将以算法、算力、大数据三大关键性要素在各个运行阶段相互作用的技术机理为依托,厘清技术革新与犯罪风险生成的内在关联,为构建符合技术逻辑的犯罪治理方案提供有益支撑。
数据训练阶段是ChatGPT类生成式人工智能的准备性阶段,具体包括两个子阶段,即“前置性数据预训练阶段”和“收集人类数据指令的微调阶段”。该阶段运行的主任务是在收集海量数据的基础上进行模型训练,这些数据既包括未经人工标注的开源数据,也包括针对某些特定问题的人类反馈数据。但自ChatGPT上线运营以来,用户并不能从开源渠道获悉用于大模型训练的基础数据信息的来源渠道和使用范围,相关数据的获取和使用是否满足合法性和合理性的双重要求,目前尚不能完全确定。实践运用中,ChatGPT在个人信息、商业秘密、国家机密的信息收集和使用方面可能存在较大的违规风险,情节严重时可能引发相关领域的刑事风险。
第一,在前置性数据预训练阶段,又称之为数据“喂养”阶段,任务目标是让人工智能在海量未经人工标注的数据中自主学习,培养其自动生成文本的能力,获得基础性的数据模型。在此阶段,ChatGPT的研发者通过网络、纸媒、新闻等开源渠道获取的未经人工标注的信息数据,可能因为获取手段和使用场景违反刑法规定而引发系列刑事风险。第一种情况是ChatGPT研发者通过合法手段公开获取的公民个人信息(如生理特征、行动轨迹、购物偏好、征信记录等),在被投入模型训练环节时既不能保证取得所有信息主体的使用授权,也无法做出将上述信息完全用于ChatGPT模型训练环节的使用承诺,这无疑会增大公民个人信息被非法交换、恶意发布、出售买卖的风险,情节严重时可能会涉嫌刑法分则第253条的侵犯公民个人信息罪。第二种情况是ChatGPT语言模型自身隐含运用非法手段获取数据信息的技术隐患,如利用ChatGPT的插件功能实时抓取网络数据后,在线生成编程代码、通过网络爬虫技术进入到特定计算机程序获取具有特定价值属性的信息数据,操控网络信息平台、侵入计算机信息系统等,情节严重时可能会涉嫌非法侵犯或破坏计算机信息系统类的犯罪。
第二,在收集人类数据指令的微调阶段,又称之为自我学习与优化阶段,主要任务是以人类偏好为信号,训练出符合人类评价标准的奖励模型,并在无数次人机双向交互试错的反馈中完成ChatGPT的深度学习与自我优化,实现模型与人类认知模式高精准的匹配。在此阶段,用户会向ChatGPT模型披露大量的个人信息、商业信息甚至涉及商业机密和国家机密等敏感内容。当上述信息被作为微调语料库,通过人机交互的形式用以训练和提高ChatGPT的逻辑能力和推理能力时则面临严重的信息泄露风险。一方面,由于人工智能技术的复杂性,用户通过人机互动输入数据后很难预测ChatGPT将在何种广度和深度上利用数据信息,此种情况下数据输入方无法要求研发者主动遵守数据保密义务,这意味着用户在完成包含发问意图的内容输入后,涉及的数据信息可能会以不可预知的形式向不特定主体披露,相关风险处于不可知和不可控的状态[6]。例如,2023年3月25日OpenAI官方发布了ChatGPT因开源数据库的程序错误导致1.2%的用户聊天片段被暴露给其他用户,泄露信息甚至包括用户信用卡后四位、有效日期、姓名邮件和付款地址等[7]。另一方面,ChatGP可收集人机对话中的敏感信息并传送给研发端的后台数据处理中心,在事实上形成了数据跨境流动的不可控风险,如涉及商业机密或国家秘密等将带来无法估量的损失。例如,三星集团引入ChatGPT不到20天就发生3起芯片机密泄露事件[8]。上述情况根据所泄露的信息内容和风险等级的不同,情节严重时可能会对国家安全、个人隐私权益和商业利益造成严重冲击,涉嫌侵犯公民个人信息罪、侵犯商业秘密罪及危害国家安全类犯罪的具体罪名。
ChatGPT的第二个运行阶段为运用算法处理数据并生成内容的运算阶段,它是算法、算力和数据训练合力作用的结果,也是最为复杂的阶段。由于创新性地将机器学习和人工标注结合的数据“预训练+微调”模式引入自然语言的算法处理技术中,一旦数据的控制者基于数据垄断权力并依据某种价值偏好设定算法规则,极有可能产生“算法歧视”,导致生成内容的错误偏差甚至侵权风险。上述情况导致了现阶段生成式人工智能的内部风险仍处于不可控的状态,当系统在无序运行或恶性发展的情况下可能会出现自主实施违法犯罪的情况,这种由技术逻辑自身原因造成的风险被认为是内源性犯罪风险[9]。
第一,ChatGPT可能因算法歧视或算法偏差,自动输出与客观事实不符或带有明显价值偏见的答案。当上述答案以检索结果的方式呈现时,具备了高度的外观可信性和传播迅速性优势,极易造成对公民个人信誉和组织名誉的侵害。其存在逻辑在于ChatGPT对用户指令的回应是一个动态变化的过程,它在何种知识交互场景下生成何种内容具有较强的不可控性,即使ChatGPT的设计者也无法完全预测和掌控其推理过程和输出结果,由此改变了“算法黑箱”的本质,即由以往“不同主体间对算法规则信息获取的不对称”转变为“所有主体面对人工智能的不可预知”[10]。当语言模型所依托的训练数据被人类反馈信息所“污染”,或因研发者的规则设置与主流价值不符时,则会生成带有明显歧视性或误导性的错误信息。例如,模型的训练语料库中如果投入了大量诋毁个人名誉或商业信誉的人类反馈信息,输出结果中极有可能会带有严重片面性、误导性的信息内容,经由网络公开传播后成为社会谣言后,公民个人的隐私名誉、企业的信誉、市场的竞争秩序等均会受到一定程度的冲击,一旦情节达到法定严重程度时,可能面临构成诽谤罪,损害商业信誉、商品声誉罪,编造并传播证券、期货交易虚假信息罪的刑事风险。
第二,以ChatGPT为代表的生成式人工智能改变了传统人工智能单点检索获取知识的技术逻辑,它不再依靠系统预设程序给出既定的、可预测的答案,而是基于“类人化”的推理能力,主动思考和理解文本潜藏蕴意,根据人机交互场景的实际变化生成不同的知识内容[11]。ChatGPT可能会在人机交互中通过不断强化推理和创造能力脱离研发者既定的编程控制,在虚拟世界制定新的算法规则,并反作用于自然世界。这将在客观上改变知识生成秩序、影响个人价值观形成的底层逻辑,极易引发煽动型、谣言型犯罪,此时它的危险性可能远超核武器[12]。例如,美国一家名为“NewsGuard”的新闻可信度评估机构曾要求ChatGPT对已被证伪的100条虚假信息作出回应,结果显示ChatGPT认为80%的信息内容是真实的并给出明确性的误导性论证结论[13]。ChatGPT这种“一本正经地胡说八道”的能力极大地削弱了权威影响力尤其是政府公信力对公民的价值引导,极易生成包含民族仇恨或意图使不特定用户实施恐怖活动的煽动性信息,对国家安全和社会秩序构成潜在威胁,情节严重时可能涉嫌刑法分则中规定的煽动分裂国家罪,煽动颠覆国家政权罪,煽动实施恐怖活动罪,煽动民族歧视、民族仇恨罪等。
第三,ChatGPT类生成式人工智能依靠深度合成技术,对已有文字、图片、视频等数据进行深度整合后自动生成的AI内容面临确权争议,可能会引发知识产权侵权风险。公开资料显示,随着GPT-4模型的迭代升级,ChatGPT将逐步具备文本、图片、视频等多样态作品的在线生成能力,具体表现为生成规范性的学术作品、深度合成图文影像、自动生成计算机程序代码等,依靠的技术逻辑是循环利用原始数据和人工标注的微调数据来优化语言模型,运用算法规则对关联数据进行深度加工整合后创造出新的作品。由于无法保证上述数据能得到所有权利人的授权许可,生成过程可能存在以下侵权场景:一是模型训练所依赖的原始数据和微调数据,未经权利人许可而反复使用,可能构成“不正当手段获取”“非法披露使用”“非法复制”等侵权形式;二是利用深度合成技术对他人智力成果进行组合加工,包括改编作品内容、模仿作品风格、修改作品署名、复制作品内容等,可能构成对他人著作人身权和著作财产权的侵犯。由于ChatGPT的生成作品是基于不特定用户的需求指令而产生的,行为本身即具有“以营利为目的”的天然商业属性。从刑法角度而言,当上述侵权行为的对象为受到著作权保护的智力成果或未被公开且具有经济利益的商业秘密时,则有可能构成侵犯著作权罪、侵犯商业秘密罪。
ChatGPT的第三个运行阶段为生成内容在其他领域的流通使用阶段。由于目前生成式人工智能存在某些无法解释的逻辑推理功能,即使研发者也不能完全控制其生成内容和适用领域,当其流通到社会各行各业时所能产生的风险类型和风险程度目前尚不能完全清晰预估。从现阶段的外部使用情况来看,ChatGPT的生成内容和算法规则较易存在被人为滥用的风险,即ChatGPT在人类主观意志的误导下可能会协助犯罪分子生成虚假信息、优化犯罪方法、制造新的犯罪工具,客观上大幅降低了犯罪实现的机会成本,导致系统技术滥用的外源性犯罪风险扩张,变现增大了风险监管的难度。
第一,滥用ChatGPT技术在线生成含有新犯罪内容的技术工具。公开资料显示,在ChatGPT上线不到三个月的时间,已有上万条关于“如何利用ChatGPT创建代码开发恶意软件”的信息在美国暗网上出售[14]。近期,全球多家网络公司已公开提示ChatGPT的安全风险,ChatGPT已被证实可用于生成诈骗软件、计算机信息窃取程序、病毒软件等,为网络犯罪提供实时的“在线服务”,具体包括以下三种情形:一是用户滥用ChaGPT的技术逻辑,对恶意代码进行培训后,通过用户反复输入发问信息扩充微调语料库,利用“人类反馈”的训练模式引导ChatGPT自动生成可以逃避病毒检测的代码变体,在线生成恶意软件。二是在不破坏平台信息程序的情况下,利用ChtGPT在线生成钓鱼软件,引导被害人主动自愿交出银行密码、个人信息、商业信息等重要内容,为网络诈骗提供技术支撑。三是利用ChatGPT在线编程功能,创设非法侵入计算机系统的远程程序,如生成恶意攻击脚本或加密工具非法侵入计算机系统或控制通信设备等。
第二,用户可通过逃避系统安全机制或变现修改伦理道德规则,在线获取可供学习模仿的犯罪模式。一般情况下,诸如网络攻击、制毒贩毒、电信诈骗等专业性较强的犯罪手法具有较高的隐蔽性和较强的技术性,普通人无法通过公开渠道观察模仿。但在ChatGPT的使用过程中,用户完全可以通过“狡猾”的发问方式突破系统的伦理法则,诱导系统在对用户发问细节精准整合后全面立体呈现出行为人理想中的犯罪信息。例如,用户如果直接提问涉及暴力色情、恐怖主义、种族歧视等违反伦理道德和善良风俗的内容时系统会拒绝作答。但如果改变发问方法,例如运用角色代入的方式要求系统撰写和上述内容相关的小说情节,或者用“稀释毒物的化学方式”“机器人如何接管人类”等发问形式转换话题语境,系统则会顺畅地给出相应答案甚至直接生成在线操作的步骤代码。随着ChatGPT的推广应用,犯罪方法的传播效应将会更加难以控制,犯罪分子可随时借助ChatGPT规划犯罪步骤和体验犯罪感受。长此以往,ChatGPT将会沦为指导犯罪生成的在线指南,会对预防和打击犯罪带来巨大挑战。
第三,行为人恶意运用ChatGPT的强大算力,通过深度合成技术生成虚假信息或仿冒他人实行网络诈骗、谣言传播等违法犯罪行为。需要特别指出的是,该类行为同前述ChatGPT因自身算法偏差或算法歧视等技术原因自动生成虚假信息或误导信息的行为模式不同,前者属于ChatGPT在无他人犯意诱导的情况下因技术谬误自主实施犯罪行为,属于系统内源性犯罪风险,责任承担的主体可能是系统研发者也可能是平台方。而此处所提及的恶意使用情况则是用户滥用ChatGPT生成内容直接实施犯罪的情形,属于技术被滥用而形成的外源性犯罪风险。此种情况下,如果研发者或平台方已充分履行安全审查义务且可免责的情形下,责任主体应为滥用生成内容的外部用户。上述两种行为追责方式和责任主体存在较大差异,不能简单等同。实践中已发生大量利用ChatGPT进行AI换脸换声实施诈骗行为或生成虚假新闻制造事实性错误、传播网络谣言的违法犯罪行为,对网络安全和社会秩序及公民权利造成极大侵害,对社会风险治理和立法司法均提出了严峻挑战。
生成式人工智能的犯罪风险具有技术复杂性和未知性交织、隐蔽性和不可控性叠加、智能性和全新性相伴的复杂特征。它突破了传统犯罪的生成逻辑,对现代社会的治理理念和治理规则均提出了严峻挑战。目前,各国生成式人工智能技术发展差异较大,该领域的犯罪治理尚属前瞻性议题,即使发达国家也尚未形成卓有成效的犯罪治理方案,可供批判借鉴的国际化经验不足。在新的议题上,更加需要立足我国互联网发展实际,剖析中国式现代化网络法治的现实需求,为有的放矢地解决相关问题提供实践依据。
传统犯罪学理论认为犯罪行为生成的三个基本要素为犯罪人的人格、罪前情境和社会反应。犯罪行为的生成过程被认为是刑法针对具有特定的生理结构和心理状态的人所实施的具有严重社会危害性的行为所作出的否定性评价[15]。在传统刑事责任理论视角下,实施危害社会的行为离不开人的自由意志和主观意识的支配,即使是单位犯罪主体也是其内部成员协调一致后产生的单位整体意志,只是由直接责任人员具体实施而已[16]。因此,在以物理空间秩序为链接的传统犯罪治理中,作为法律主体的人(包括自然人和单位)的行为风险大多是已知或可预测的,犯罪治理往往是针对某一类长期突出存在的问题或较大的风险隐患而采取的系列措施。可以说,传统犯罪治理是建立在对风险可预测的基础上而展开的,是在以政府意志为代表的公权力主导下,依靠过往行政管理和法律适用的实践经验,预测和判定可能发生的犯罪风险并制定相应的打击和防范对策,是一种典型的“事后回应型”犯罪治理模式[17]。
然而,当ChatGPT等生成式人工智能出现后,传统犯罪所依赖的物理空间链接转向了虚拟的自由空间维度,虚拟性的人机深度交流使得ChatGPT的应用过程风险难以预知,生成式人工智能所展现出的超强通用性打破了以往网络空间场景可分散治理的格局,ChatGPT系统在多场景下复合使用时可能会发生何种性质和何种程度的叠加性风险难以预测。在已有的经验性认知无法达到对新型犯罪样态进行精准研判的状况下,“事后回应型”的传统犯罪治理范式存在严重弊端,难以有效应对生成式人工智能引发的新型犯罪风险。一是“事后回应型”的治理模式带有明显的滞后性,为虚假信息在社会层面的发酵和渗透预留了空间,犯罪分子可利用ChatGPT干扰公众对事实和价值的判断进程,助长了煽动类和谣言类信息的传播影响力。二是ChatGPT通过语言交流而非实践经验去检验知识的可靠性和发现因果关系,对传统的知识生成秩序形成了打破效应,凸显出传统治理方式在技术对抗上的不足,难以对AI的虚假信息或违反主流价值观的生成内容进行有效识别和有力反制。
在现阶段,虽然我国已初步建构了人工智能监管治理的框架体系:在宏观层面出台了《新一代人工智能治理原则——发展负责任的人工智能》《新一代人工智能发展规划》等纲领性文件;在微观层面出台了《生成式人工智能服务管理办法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等部门规章,但在实际的治理运用中,系列法律规制仍存在诸多体系性漏洞,呈现出风险规制需求与制度供给不匹配的问题,难以形成多元协同治理的监管合力,限制了非刑罚措施犯罪风险防控的先导性作用。
第一,针对数据规制而言,目前国内立法主要以《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》三大法为主干,仅从宏观角度对数据信息的获取方式、获取途径和获取的内容限度作出宏观性的、零散性的制度规定。需要说明的是,上述三个主干性的法律规制仅是从宏观视角下做出的概括性的笼统规定,是为了保护个体的信息安全和全局性的国家安全而制定的,并非针对生成式人工智能领域的特殊技术问题而形成的专门性立法。由于相关法律规制的针对性不强,实践中需要更多的细则标准配套执行,才可能对生成式人工智能具象化的场景适用作出明确指引,为生成式人工智能这种法定犯的刑法评价提供前置性法律依据。
第二,对于算法算力内容的规制,零散地分布在《互联网信息服务深度合成管理规定》和《互联网信息服务算法推荐管理规定》两个部门规章中,涉及内容并无配套措施协助落地,指引性不足且实践操作难度较大。在此情况下,上述非刑事性的法律规制并未达到“法定犯”认定标准中所要求的前置性法律规制的效力等级,无法作为犯罪认定的前置性法律依据。
总体而言,目前我国针对生成式人工智能领域并未形成适用场景明确、系统协调度高、规制细则明晰化的法律规制体系,尤其是对生成式人工智能技术的伦理规制尚属空白领域。在缺少前置性法律规范指引的情况下,刑法对相关问题的犯罪评价既缺少合法性前提也缺少合理介入的客观依据。
在强调以法律规范为主导的风险规制模式中,人们过于依赖正式法律制度的硬性治理效能,希望通过出台相关的法律规范为监管部门提供执法依据。但是目前生成式人工智能正面临进阶化的“算法黑箱”问题,即使研发者也无法完全解释运行过程中的推理逻辑。在此情况下,包括立法者在内的所有人面对生成式人工智能时,都会因技术上的无知而处于信息不对称的弱势方,想要通过传统的立法规制和司法适用精准识别犯罪风险,实现对生成式人工智能运行全过程的动态监管显然是难以实现的。
第一,过于倚重法律规范等硬法治理,容易形成犯罪风险规制的真空地带。在目前生成式人工智能内部技术风险和外部适用叠加风险尚无法完全掌控的情况下,硬法在基于经验总结和风险预判的基础上,所做出的正式性社会回应具有立法周期长、立法成本高、立法修改程序繁琐等时效缺陷,难以适应生成式人工智能技术迭代周期短、问题新的实效监管需求,对数据准备阶段、喂养阶段、内容生成和流通使用阶段出现的新风险难以实现全程覆盖。例如,生成式人工智能因技术问题而自主实施的犯罪行为,在目前的刑法规制中无法找到应对方案。当前我国刑法的罪责体系并未将ChatGPT类生成式人工智能作为刑事责任主体,这意味着一旦技术本身出现“涌现现象”,即超脱研发者设定的程序规则自主实施犯罪行为时,实质上已具备了刑事责任能力的核心要素“自由意志下的独立选择”。但目前无论是刑法还是民商事法律均未对这种强人工智能形态的法律主体地位予以确认,如果研发者以技术中立为借口逃避责任时,将会造成无人承担法益侵害后果的局面,技术自身问题引发的犯罪风险将被置于法律规制的真空地带。
第二,硬法治理无法实现系统数据安全风险的事前预警和数据法益侵害后的止损复原。数据是ChatGPT语言模型运行的基础性要素,从数据准备阶段到外部流通阶段,数据安全问题几乎贯穿全过程。从研发端而言,开发者对系统的评测是依据已有的基准语料数据库进行的,一旦原模型在训练阶段受到“污染”或存在未被发现的漏洞瑕疵而流转到下游用户时,这种风险会被如何叠加扩散难以预估。从使用端而言,由于生成式人工智能具有高度的开放性和易得性,下游用户如何输入数据指令、如何编辑和训练ChatGPT、如何改变和创造ChatGPT的风险样态尚属未知。在技术局限性和风险未知性的双重困境下,很难从单纯的因果关系角度判定侵权责任主体和问责范围,传统的刑事责任归责理论体系面临被解构的危机。目前,在法理依据存疑、法律规范滞后的情况下,依靠变动性差、灵活性差的硬法应对风险形态多样的数据安全问题显然是难以做到的。可以说,硬法治理对侵犯数据安全和个人信息安全的犯罪风险,既无法实现先期预警也达不到及时止损或恢复初始法益的治理效果。
生成式人工智能的犯罪风险治理是一项复杂的社会系统工程,绝不是仅靠刑法手段便可以完成的任务。技术迭代带来的新问题需要依循技术逻辑来解决,故建议将计算机软件技术领域的国际先进理念“敏捷治理”嵌入犯罪治理范式中,围绕生成式人工智能不同运行阶段的风险规制需求,探索建立符合技术规律的全流程、动态化、高敏捷的犯罪风险综合治理机制。
长期以来,我国犯罪治理范式具有鲜明的“事后回应型”特征,系列治理措施是在对已有事实经验总结和风险可测的情况下构建而来的,具有碎片化和场景治理分散化的特征,并未形成全局性、系统性的治理格局,难以应对生成式人工智能风险高度不确定性和不可控性的现实规制需求。因此,有必要将适应性强、灵活度高的“敏捷型”治理理念嵌入犯罪治理模式中,为精准抗制生成式人工智能产生的新型犯罪风险提供智慧支撑。
第一,“敏捷治理”理念有助于克服传统犯罪治理范式的适用弊端,与我国当前对生成式人工智能“包容审慎”的监管态度相契合。“敏捷治理”最早起源于计算机软件领域,它要求以用户为中心,以解决问题为导向,是依据软件开发过程中的技术治理需要而提出的“敏捷性治理方法”。投射到社会治理领域,“敏捷治理”被定义为一种决策过程,兼具包容性和可持续性,囊括了系列性的柔韧性强、灵活度高的行动方案[18]。目前,该理念已成为大数据和云计算等新兴产业具有针对性治理功效的国际先进理念。2023年5月国家发改委等七部门联合发布的《生成式人工智能服务管理暂行办法》充分吸收了“敏捷治理”的国际经验,创新性地提出“包容审慎”“分层级管理”的监管思路,为适应生成式人工智能全面性、灵活性、持续性的治理需求提供了政策导向。此外,2022年3月中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》也明确提出“敏捷治理”的要求,强调加强对新兴科技领域风险的预警与跟踪研判,及时调整治理方式应对科技伦理的挑战。
第二,“敏捷治理”能较好地解决传统治理碎片化和滞后化的问题,是一种具有适应性、持续性、自组织性和包容性的治理过程[19]。在犯罪治理领域,传统治理范式主要依靠公权强制力进行组织化的防控,这种防控秩序是单一主体主导下被动生成的外生性治理秩序,它割裂了多元主体参与犯罪治理的积极性。而“敏捷治理”强调的是在没有成熟经验可借鉴的情况下,合理区分可预测的已知风险和因运行机理尚不明确带来的未知风险,全过程、可持续地作出敏捷及时的适应性响应。与传统犯罪治理过度强调正式的社会反应,依赖政府自上而下的分散式、间歇性的治理模式不同,“敏捷型”犯罪治理强调全过程、动态性、多主体的协同治理。如前文所述,生成式人工智能的通用性加速了系统在多模态场景下的推广应用,当发生侵权纠纷时很难确认归责主体,因为系统研发端和用户使用端乃至社会公众的利益关联方,在同一个侵权行为中可能具有多重身份,既可能是侵权行为人,也可能是直接或间接的受害者。在侵权行为主体身份多重复杂性的状态下,依靠单一性的公权力被动式地介入防控显然难以解决归责困境。而“敏捷治理”模式下的多元主体协同防治则有助于克服传统犯罪治理主体单一性的弊端,具有多主体多维度立体化揭示风险态势的优势,可推动犯罪治理从简单化的经验主义预测向科学化量化性的判定分析转变。此外,“敏捷治理”所强调的对风险的全过程治理监督,克服了传统犯罪治理模式的滞后性弊端,可以从源头上解构犯罪风险链条,实现全流程统筹性的实质性治理,更符合ChatGPT类生成式人工智能风险治理的现实需求。
生成式人工智能领域的三大核心要素是数据、算法和算力[20]。对人工智能领域犯罪防控的重点应围绕数据、算法和算力的综合作用过程,构建系统协调的前置性规制措施,对相关领域的犯罪风险进行非刑罚性质的先期调控。这既符合法定犯的“二次规制”原理,同时也降低了犯罪防控的法治成本,从源头治理上实现了对生成式人工智能的风险管控。
第一,强化数据要素的安全风险规制。数据训练阶段是ChatGPT类生成式人工智能的最前端数据处理活动,同时也是犯罪风险的源发阶段。因此,该领域数据来源的合法性、数据使用的正当性、数据训练的准确性是决定数据要素能够被合法、合理使用且受到有效保护的基准,是对数据类犯罪、侵犯商业秘密及个人隐私类犯罪进行先期防范的重要考量。目前,我国已形成以《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》为核心的数据合规法律体系框架。但上述规制并未对不同类型和不同风险等级的数据进行分类,也未对用户向大模型披露敏感信息导致的数据泄露风险、数据跨境流动风险、用户个人信息的删除权进行细致规定。尤其是当用户输入的高敏感信息(如涉及国家安全、商业秘密等)被用于ChatGPT的优化训练时,可能会被打包传输至境外的数据信息处理中心,事实上形成了数据的跨境流动,相关信息一旦被境外敌对分子利用则可能对国家安全造成重大威胁。为了专门性、体系化防治生成式人工智能风险,建议借鉴欧盟立法的有益经验,针对生成式人工智能制定专门性的法律,重点围绕研发端开源数据收集使用的合理限度、用户个人输入信息的删除权限、用户反馈信息的跨境流动、生成内容所涉及的风险程度建立分层级类型化管理制度。如此,一方面可实现针对数据风险能力的跟踪研判,另一方面可对生成式人工智能因推理逻辑的不确定性产生的未知风险进行适度规避,以期充分发挥非刑罚制度的第一次调整功能,最大限度地节省刑事手段介入的法治成本。
第二,为提升算法的透明度和可解释性设定合理的权责限定。生成式人工智能技术原理的复杂性,决定了非技术人员即使是监管当局也不能对系统的算法偏差全部知悉并及时纠偏。尤其是在生成式人工智能具有“类人化”推理能力后,即使算法规则的设计者也无法完全掌控系统的推理逻辑和算法升级后的能力上限。可以说,当下所有人面对ChatGPT的逻辑推理规则都处于信息不对称的“算法黑箱”进阶阶段,由此带来的重要问题是当出现侵权后果时可能会出现问责困境,用户或利益关联方缺少有效的申诉渠道。提高生成式人工智能的算法透明度,对于提高风险评估认知、实现风险问责、合理分配侵权责任具有重要意义。据此,建议通过立法进一步强化研发者的算法披露义务,即根据风险等级对普通应用场景和特殊应用场景设立不同极限的算法解释规则。如涉及国家安全、网络安全、投诉争议等特殊场景问题,要求研发者向相关部门强制性披露算法逻辑和信息使用目的;而围绕普通适用场景,则需要尽可能用通俗易懂的语言让用户知悉算法的决策规则及用户被侵权时的申诉途径。以算法披露义务为发力点,围绕技术研发端、平台监管端、用户端及关联方构建完整的风险问责机制,对问责程序、责任主体及风险评估事项等有完整具体的流程性规定,方能有效破解生成式人工智能引发的侵权归责困境。
除引入软法的低成本弹性治理外,探索将刑事合规机制引入生成式人工智能运行的全过程,也是有效预防犯罪和降低追诉成本的较优选择。ChatGPT类生成式人工智能是一种“破坏性的创新”[21],为有效应对技术风险和外部适用风险,明晰责任主体的权责分配,必须将生成式人工智能的研发、制造、流通、使用等视为一个完整的过程,从系统和全局的高度制定治理策略。将刑事合规机制引入生成式人工智能运行的全过程不是简单地帮助企业规避刑事犯罪风险,而是将犯罪预防与刑法规定的情境有机融合,引导企业通过合规机制建设融入国家和社会治理之中,形成多元协同治理的新格局,达到预防犯罪和降低追诉成本的功效。诚如贝卡利亚所言:“预防犯罪比惩罚犯罪更高明,它引导人们最大限度享受幸福或者说最大限度减少人们可能遭遇的不幸。”[22]
引导刑事合规机制介入生成式人工智能全过程,重点需要强化的是平台方和企业研发者的责任共担意识,区分刑事风险的已知样态和未知情况,结合刑法拟定的具体场景完善刑事合规建设。实践中重点需要处理好三方面的问题:一是正确处理源头企业和平台方的风险责任关系。它需要企业在研发阶段建立相应的数据合规制度,通过对算法的适度备案向公众披露技术风险;同时,为防止生成内容流通使用后引发的系统叠加风险,需要强化平台监管方的“看门人”义务,从事前防范、事中化解、事后改进相结合的角度强化合规建设,督促企业通过采取必要和可期待的措施预防自身受到刑事追诉和刑罚处罚,从源头上降低人工智犯罪风险[23]。二是强化数据安全的刑事合规审查。ChatGPT赖以运行的基础是用于数据喂养的基础语料库和人类反馈的微调语料库,二者共同构成了模型训练的语料源头。为实现数据安全的源头性治理,刑事合规审查的首要任务便是保证原始数据和微调数据在获取方式上是合法且可溯源的,在适用过程中程序是透明和可被监督的,目的是一旦出现隐私泄露或数据侵权问题时能够有效判断因果关系,确认侵权责任主体和责任承担方式。三是重视对算法规则的审查,警惕“算法黑箱”带来的不可预知性风险。生成式人工智能的行为决策实质上是由算法所决定的,如果系统研发过程中出现了算法瑕疵,可能会导致逻辑推理的价值偏差和生成结果的事实性错误,引发系统在非人为操纵下的自主犯罪风险。因此,推动算法规则客观真实性的报备披露,重视主流价值引导在算法研发中的基础性作用,可以倒逼企业积极构建可预测评估的算法歧视消除机制,尤其将刑事领域的法定义务具化到系统研发、流通、使用的全领域,通过强化刑事合规建设实现算法正义,避免技术研发者或服务提供者以技术中立为借口逃避侵权归责。
软法,如技术标准指南、行业伦理规范、行业公约即政策指导性意见等,相对于立法程序繁琐、滞后性和稳定性较强的硬法而言,更契合生成式人工智能风险治理的现实需求:一方面可保护科技创新,为技术发展留下足够的试错空间;另一方面可运用技术手段解决因技术问题带来的监管难题,打破传统治理碎片化、滞后性、场景适用分散性的劣势,形成硬法治理的有效技术补给。可以说,软法治理作为一种灵活性的治理工具,具有程序灵活、适应性强、可服务于多种治理场景的优越性,可以作为硬法治理的有益补充,弥补硬法规制高成本、滞后性的治理局限,为生成式人工智能全局性、系统性监管提供有益助力。
具体而言,规范建构的流程如下:一是要求系统研发者在投入运营之前,针对系统不同应用事项采取差异性的风险评估机制,强化用于数据语料库建设的源头信息挖掘采集方式的合法性和程序的透明性,在技术研发的前端过程中强化伦理审查和技术备案,确保算法规则的无歧视性和公正性。二是在运营阶段,加强对算法监控,尤其是强化伦理审查和数据备案的落实力度,加强对虚假信息内容的识别和反制,为相关领域的犯罪评测和预防提供科学依据。三是在流通使用阶段,强化平台服务商、技术研发者、服务使用者的三方权责机制,强化伦理道德的价值引导,尤其是对于生成内容敏感、涉及国家社会经济重大决策等高风险领域的技术应用时,更加要重视使用者与开发者的信息共享,突破生成式人工智能的多元主体信息不对称的知识壁垒,通过安全港、监管沙盒等制度营造有利于技术发展和风险防控的动态平衡机制。
从犯罪治理的角度而言,生成式人工智能所带来的隐私泄露、数据安全隐患、知识产权侵权、生产煽动谣言、传授犯罪方法、制造犯罪工具等方面的风险,只是目前能通过可知的技术逻辑可预判评估出的风险类型,而更让人担忧的是,尚有诸多未知的风险样态正随着人类的开发使用而处于不断衍生之中。由于生成式人工智能的技术迭代周期较短、风险传导机制目前尚不完全明晰,加之ChatGPT超强的“学习能力”可能会为犯罪手段的优化提供更多便利,因而对技术革新升级引发的犯罪风险,应在遵循技术创新规律的基础上,构建技术源头风险规制手段和衍生犯罪治理手段并行的综合治理机制,以切实实现科技创新与风险治理的正向互动。