生成式人工智能(AIGC)下的个人信息保护行政公益诉讼探索与发展

2024-12-26 00:00:00唐林
关键词:个人信息保护生成式人工智能公益诉讼

摘 要:伴随着生成式人工智能的崛起,无论是训练数据集的跨域、多模态,还是大模型应用潜在的算法歧视,都给传统个人信息保护模式带来了多维度的挑战,极大地限制了告知同意、目的限制等原则的现实价值。个人信息保护虽被纳入检察公益诉讼管辖范畴,但生成式人工智能的出现导致主体责任分散多元化等问题,需要行政公益诉讼制度作出回应。基于对大模型“幻觉”与多模态、跨域数据集的分析,个人信息保护行政公益诉讼应在预防性规制和协作机制方面进行完善。具体的制度完善建议主要集中在建立跨行政区划检察案件管辖体系、“统-分”式行政公益诉讼监督网、类案监督治理模式以及以公共安全为主体的事前预防模式。

关键词:生成式人工智能;个人信息保护;公益诉讼;大模型

中图分类号:D925.3" 文献标识码:A" 文章编号:

1672-1101(2024)06-0033-08

收稿日期:2024-01-16

基金项目:合肥工业大学校级项目(JS2024ZSPY0012;JZ2024HGQA0103)

作者简介:唐林(1992-),男,安徽合肥人,讲师,博士,研究方向:数字法学。

Exploration and" Development of Administrative Public Interest Litigation for Personal Information Protection under" AIGC

TANG Lin

(School of Human and Law,Hefei University of Technology,Hefei" 230011,China)

Abstract: With the rise of" AIGC,whether it is the cross-domain and multi-modal training data sets,or the potential algorithm discrimination in the application of large models,it has brought multidimensional challenges to the traditional personal information protection mode,which greatly restricts" the practical value of the principles of consent and purpose limitation.Although personal information protection has been included in the jurisdiction of" procuratorial public interest litigation,the emergence of" AIGC" has led to problems such as the dispersion and diversification of subject responsibilities,which requires the administrative public interest litigation system to respond.Based on" the analysis of" the“hallucination”in large models and multimodal" cross-domain" datasets,the" administrative public interest litigation" for personal information protection" should be perfected in terms of preventive regulation and coordination mechanism.The specific system improvement suggestions mainly focus on the cross-administrative division procuratorial case jurisdiction system,the “unified and divided” administrative public interest litigation supervision network,the case-type supervision management" mode,and the pre-prevention mode with public safety as the main body.

Key words: AIGC;personal information protection;public interest litigation;large model

2019年,党的十九届四中全会通过《中共中央关于坚持和完善中国特色社会主义制度 推进国家治理体系和治理能力现代化若干重大问题的决定》,提出在中国特色社会主义法治体系框架下对当前公益诉讼案件范围进行拓展。次年,最高人民检察院第八检察厅印发《关于积极稳妥拓展公益诉讼案件范围的指导意见》,进一步指出要积极、稳妥探索办理个人信息保护等领域公益损害案件。2021年,正式生效的《中华人民共和国个人信息保护法》(以下简称《个保法》)第70条设置了公益诉讼条款,将个人信息保护纳入到检察公益诉讼的范畴。随着生成式人工智能(Artificial" Intelligence Generated" Content,AIGC)的崛起,大模型应用的快速部署给个人信息保护带来了多维度的挑战,如虚假信息传播、生成内容滥用、算法歧视等。本文拟从行政公益诉讼视角,在既有的检察实践与制度基础上,分析生成式人工智能框架下个人信息保护行政公益诉讼的发展路径与未来展望。

一、生成式人工智能下的个人信息保护困境

所谓的生成式人工智能,本质是通过人工智能算法对数据进行生产、操控,是用于内容自动化生成的一类技术集合[1。2022年,美国人工智能实验室OpenAI推出生成式人工智能应用ChatGPT,仅仅历时2个月即累积了1亿用户,成为科技史上增长最快的现象级应用。该应用所依赖的大规模预训练模型为知识表示与存储方式开辟了新的方向——相较于既往的关系型数据库表示方式,大规模预训练语言模型主要采用深度学习的新型知识表示方法,通过在互联网上收集大量可用数据,并使用超大规模的参数进行训练,进而实现对自然语言的理解和生成GPT模型基于Transformer架构,通过预训练大规模语言模型使其具备对自然语言的理解能力。模型参数量的不断增加也使得其性能逐渐提升,从GPT-1的1.17亿参数到GPT-2的15亿参数,再到GPT-3的1 750亿超大规模参数(GPT-4尚未披露具体的参数量,但参数量可能会达到100万亿级别),这将进一步提高模型的能力和性能。。

面对美国生成式人工智能大模型的高速发展,国内以百度、阿里巴巴、华为、腾讯为代表的科技巨头,科大讯飞、商汤科技等AI公司以及上海人工智能研究院、中科院等研究机构都纷纷开始布局大模型产业。据不完全统计,目前国内主流大模型应用主要包括百度的文心一言、阿里云的通义千问、华为的盘古、科大讯飞的星火、上海人工智能实验室的书生·浦语、中科院的百聆、商汤科技的日日新等,涵盖自然语言处理、语音识别、多模态融合以及智能决策等多个领域和人工智能驱动的科学研究。

然而,大模型背后所依赖的生成式预训练转化器(Generative Pre-trained" Transformer,GPT)需要通过海量数据学习,将大模型的回答与语料库中的内容进行对比。当前用来训练大模型的主流数据集仍然以英文为主

英文数据集有CommonCrawl、BooksCorpus、WiKipedia、ROOT等,最流行的CommonCrawl中文数据只占4.8%。,国内部分头部大模型团队逐步开始利用私有数据库来构建自己的中文数据集,并在特定场景和领域中建立核心优势壁垒,确保训练出更具有效性和准确性的模型

如,百度拥有丰富的内容生态数据,包括文本、图像、视频等。利用这些数据可以训练出更佳的自然语言模型以及更精准的图像识别和视频处理模型;腾讯拥有公众号数据,包含大量的文章和用户行为数据。这些数据可以用于训练推荐系统或文本生成模型,帮助用户发现更加相关的内容;知乎积累了大量的问答数据,可以用于构建问答系统或者语义理解模型,提供更智能的问题回答和语义匹配;阿里巴巴拥有电商和物流数据,有助于构建商品推荐系统、预测需求和优化物流流程。。对于私有数据不具备优势的大模型团队而言,开始全网爬取大规模、多样性数据,有助于训练更通用的模型,不再局限于特定场景或领域。

不可否认的是,大模型在预训练阶段仍存在诸多数据合规风险:一方面,国内大模型团队构建的中文数据集往往会包含大量的公民个人信息,而期望大模型团队对涉及的所有用户履行告知同意义务几乎是难以实现的;另一方面,大模型的预训练数据集来自于开放的公共数据,对于其处理个人信息是否属于“合理范围”以及是否会对个人基本权益造成重大影响等诸多问题依然是不确定的[2。尽管《生成式人工智能服务管理暂行办法》第7条提出AIGC提供者需对预训练与优化训练的数据来源合法性负责等要求,但在预训练过程中使用的中文数据集本身具有非接触性特征,给告知同意原则的适用带来了极大挑战——如果每一次数据集的使用都必须建立在告知同意的基础上,那么技术的使用效率将会严重受挫,甚至阻碍人工智能产业的创新,与当前鼓励人工智能发展的政策导向相悖[3

伴随着大模型的快速迭代与发展,含有公民个人信息的中文数据集开始呈现集中度高、规模大、领域拓展性强等特点

如,智源研究院在2023年5月发布了第二期中文通用开源指令数据集(COIG-PC)数据集,数据主要来自网络上的实际数据,由通用翻译指令数据集、考试指令数据集、价值对齐数据集、反事实校正数据集、代码指令数据集组成。在学术考试领域,从中国高考、公务员考试等中抓取并手动注释了63.5千条指令,包含了中文世界中人类价值取向的数据。,点对点式的个人信息保护基础模式已经无法有效应对生成式人工智能带来的大规模侵权挑战

仅2022年,全国网信系统累计依法约谈网站平台8 608家,警告6 767家,罚款处罚512家,暂停功能或更新621家,下架移动应用程序420款,会同电信主管部门取消违法网站许可或备案、关闭违法网站25 223家,移送相关案件线索11 229件。2021年12月至2022年8月,工业和信息化部针对APP超范围、高频次索取权限,非服务场景所必需收集用户个人信息,欺骗误导用户下载等违规行为进行了检查,并对未按要求完成整改的APP先后进行了5批次的公开通报。参见新华网《2022年8608家网站平台被网信部门约谈》,http://www.news.cn/2023-01/27/c_1129314799.htm.。一方面,私益救济在实际操作中受到诸多限制。通常,这类情况仅涉及向特定受害者道歉并补偿其实际和精神上的损失,较少采取具有威慑效果的预防性诉讼或索求惩罚性赔偿[4。此外,个体受损情况不太明显,也会导致救济程序启动存在一定困难。这是因为个人信息侵权主要体现在非物质层面的损害上,损害程度较轻,会导致维权收益与成本之间难以平衡的情况。又由于侵犯个人信息的影响范围广,受侵害的个体很难及时知晓相关侵权行为的发生,会阻碍个人信息权利的行使5。另一方面,公法保护下的行政资源分配有限,执法的重心一般聚焦在关涉国家安全、社会稳定的重大信息事件上,由此对个人信息保护方面的执法关注捉襟见肘。与此同时,在当前鼓励科技创新的大环境下,执法部门对企业侵犯个人信息之行为表现出宽松的监管态势,执法力度也相应减弱。

有鉴于此,《个保法》第70条规定将个人信息保护并入到公益诉讼管辖范围。自新法实施以来,个人信息保护公益诉讼案件共计3 492件,其中诉讼磋商结案338件,诉前检察建议2 754件,提起行政公益诉讼61件高检网.最高人民检察院工作报告(第十四届全国人民代表大会第一次会议 张军 2023年3月7日)[EB/OL].(2023-03-17)[2023-07-20].https://www.spp.gov.cn/spp/gzbg/202303/t20230317_608767.shtml.。具体而言,个人信息保护相关的检察公益诉讼案件主要涉及网站、移动端应用程序、小程序等违法违规收集处理公民个人信息,国家机关超范围公开公民个人信息,通信、金融、快递、医疗、教育等行业内鬼违法泄露公民个人信息等领域。因此,在个人信息保护领域中引入检察公益诉讼制度来应对大规模个人信息侵权事件的挑战,是个人信息保护法治建设中的重要制度创新,在实际中契合当下紧迫的现实需求[6

二、个人信息保护行政公益诉讼的制度与实践

(一)个人信息保护行政公益诉讼的规范性解释空间

首先,《个保法》第70条没有明确禁止行政公益诉讼的适用。因此,对于检察机关所提起的个人信息保护公益诉讼而言,除法律规范基础较为充分外,相关的公益诉讼活动也在不断地向纵深开展。2022年,根据最高检的指导意见,最高检第八检察厅专门就贯彻执行《个保法》、推进该领域的公益诉讼检察工作,下发《关于贯彻执行〈中华人民共和国个人信息保护法〉 推进个人信息保护公益诉讼检察工作的通知》,要求深刻理解《个保法》中公益诉讼条款设置的关键意义,加快公益诉讼条款制度的落地,拓展公益诉讼检察职能的边界,明确将个人信息保护纳入到检察公益诉讼的体系范围之内。

其次,《个保法》第70条预留了行政公益诉讼机制运行的制度空间。根据修订的《行政诉讼法》第25条,在诸如生态环境和资源保护、食品药品安全、国有财产保护、国有土地使用权出让等领域,检察机关负有检察监督责任。该规定列举了行政公益诉讼适用的领域,其中行政公益诉讼的主体资格、启动和程序要件、适用领域等要素并没有被《个保法》第70条排除。且有相关学者从宪法学角度论证了《个保法》属于领域法,而非民事特别法[7。因此,这意味着并不能从根本上排除《行政诉讼法》第25条适用于个人信息保护领域的可能性[8

(二)个人信息保护行政公益诉讼的政策与实践

《行政诉讼法》第25条在列举了以上4个检察监督领域后,通过“等”字来限定检察院的受案范围。一般而言,条款中的“等”字可以分为“等内等”和“等外等”两种解释,但行政公益诉讼的外延界定并不只停留于逻辑层面,还需要强调政策性:政策的背后是“以人民为中心”的价值导向[9。 自最高检的指导意见发布之后,数个省份相继发布《关于加强检察机关公益诉讼工作的决定》,重点提出探索办理包括“众多公民信息保护”在内的公益诉讼案件。2021年,《中共中央关于加强新时代检察机关法律监督工作的意见》 于“积极稳妥推进公益诉讼检察”部分,明确要求积极稳妥拓展公益诉讼案件范围中国政府网.《中共中央关于加强新时代检察机关法律监督工作的意见》发布[EB/OL].(2021-08-02)[2023-07-20].https://www.gov.cn/zhengce/2021-08/02/content_5629060.htm.。尽管《个保法》第70条仅涉及民事公益诉讼,但最高检的指导意见凸显了个人信息公益保护的重要性,以及构建完善的个人信息保护办案流程机制和拓展公益诉讼检察职能的必要性。这对于行政公益诉讼在个人信息保护方面具有指导和规范意义。

实践中,检察机关在办理行政公益诉讼案件中主要存在三种情形:行政机关作为个人信息处理者,行政机关作为产业、行业的监管部门,以及行政机关作为履行个人信息保护的职能部门。如,江西省南昌市检察院在办理涉及手机应用软件侵犯公民个人信息的行政公益诉讼案过程中,检察机关依据《网络安全法》、“三定方案”以及权力清单等,核实了省通信管理局、市公安局和市互联网信息办在个人信息保护的监督管理方面履责不充分,并依此进行立案。此后,由于监管涉及当地多个相关职能部门,市检察院采取了“磋商+听证”的监督模式,制发要求市公安局和市网信办作出行政处罚的检察建议且责令手机应用程序的运营主体有针对性地开展对照整改及优化工作高检网.江西南昌市检察院督促整治手机APP侵害公民个人信息行政公益诉讼案[EB/OL].(2021-05-18)[2023-07-20].https://www.spp.gov.cn/spp/dxwlzp2021/202105/t20210518_518484.shtml.。在广东省惠州市检察院督促整治违法采集消费者生物识别信息的公益诉讼案中,检察机关对于部门房地产售楼处未经消费者同意擅自采集、使用、储存消费者人脸识别信息且相关监管部门怠于履责的情况进行立案调查,并在之后向全市住房和城乡建设局、市场监督管理局、国土分局、房产管理局等17个行政机关发出行政公益诉讼诉前检察建议,督促依法履职,消除隐患、加强监管,规范行业自律,构建长效机制。收到检察建议后,各相关行政机关积极履职,相继出台了《惠州市住房和城乡建设局关于规范商品房销售场所使用人脸识别系统的通知》《惠州市市场监管局关于开展打击侵害消费者个人信息违法行为专项行动方案》和《惠东县房产管理局关于做好人脸识别信息相关工作的通知》等文件,以联合执法和督促限期自查自纠等方式要求彻底整改、规范管理高检网.个人信息保护检察公益诉讼典型案例[EB/OL].(2023-03-30)[2023-07-20].https://www.spp.gov.cn/spp/xwfbh/wsfbt/202303/t20230330_609756.shtml#2.。

三、生成式人工智能框架下个人信息保护行政公益诉讼发展路径

生成式人工智能的发展与应用给个人信息保护带来了多维度的挑战,涵盖了数据使用风险、生成内容滥用风险、算法滥用风险等。当前,我国虽然初步构建了生成式人工智能的基本治理框架,但在个人信息行政公益诉讼的规则适用等方面存在不足。生成式人工智能应用的快速部署既凸显了科技发展过程中的“破坏性创新”,也强化、提升了个人信息保护行政公益诉讼在公共安全治理中的功能与定位。

(一)大模型“幻觉”与预防性规制

作为生成式人工智能核心应用,大规模语言模型通常面临着生成内容的“幻觉”问题,即大模型生成的文本不遵循原文,或者不符合事实[10。前者是指是否遵循输入内容,后者则为是否符合世界知识。简而言之,就是大模型在不确定情况时,往往表现出捏造事实的倾向。由技术层面观之,大模型“幻觉”出现的原因可划分为两个层面,即数据层面与模型层面11。数据层面主要是指收集的训练数据混入虚假信息;模型层面则主要是指解码算法[12、暴露偏差13、参数知识14等问题。大模型“幻觉”会在包含海量个人信息的预训练数据集基础上,引发虚假信息传播、个人信息滥用等严重侵犯个人权益的负面行为。

有鉴于此,行政公益诉讼所具备的预防性特征在个人信息保护领域的重要性尤为突出。在政府信息公开的领域中,已经出现了关于预防性行政诉讼的讨论,这些讨论主要集中在使用“事中救济”手段来维护当事人权益上,以此提高政府信息公开的效果[15。而预防性行政公益诉讼的关键在于,针对公益损失的不可逆性,提倡事中或事前救济[16。随着生成式人工智能的发展,大模型对个人信息侵犯造成的损害往往难以有效补救,因此,个人信息保护行政公益诉讼需逐渐从结果导向转型至预防性规制导向,亦即在个人信息保护检察监督的过程中,检察机关一旦发现了具有现实、紧迫的危险情形时,就应主动发起行政公益诉讼,而非像传统检察模式待到相关的公益损害发生,抑或是关联的刑事案件结案之后再进行介入。行政公益诉讼的有效实施需要行政机构科学落实、执行知情同意原则以及数据最小化原则,加强行政执法的前端工作,以实现制度的预防性价值。

(二)跨越信息孤岛:大模型多模态、跨领域与行政公益诉讼的交汇

如前所述,国内科技互联巨头已经通过私有数据库来搭建中文数据集,在特定场景和领域中建立核心优势壁垒。而私有数据不具备优势的大模型团队则需要通过全网爬取大规模、跨领域的数据。具体而言,百度“文心”的训练数据量涵盖了万亿级网页端数据及十数亿搜索引擎数据、图片等;腾讯“混元”大模型的训练数据来自微信公众号、微信搜索等优质数据,2022年公众号产出超3.9亿篇文章,既包括专业领域内容分析,亦涵盖时事热点分析;华为“盘古”大模型的训练数据除公开数据外,还包括行业数据,横跨气象、矿山、铁路等行业;问答知识平台知乎则拥有由超过4 300万创作者产生的3.5亿多条优质中文问答内容,涉及政治、经济、文化、历史、科技等门类。

大模型在跨领域、多模态训练数据集基础上,向生成内容中引入算法歧视将更为隐蔽。如,2022年5月《柳叶刀》杂志发表一项AIGC在医学成像领域的研究,指出其中可能存在的算法歧视风险 [17。该项研究指出,涉及深度学习的算法模型往往能够识别、处理多种成像技术影像,如CT和X光等,进而精准知晓病患的种族等信息,即使是被损坏、裁剪以及掺入噪声处理后的医学影像,也同样能被准确识别。而在对患者种族作出判断之后,模型将在此基础上有针对性地给不同种族的患者制定生成区别性治疗方案,由此造成多模态大模型的算法歧视风险。且此类建立在多模态、跨领域数据基础上的算法歧视风险,一般研究者难以直接借助图像特征予以甄别。随着国内大模型逐步开始具备图像识别处理等多模态能力,生成式人工智能应用输出内容对特定群体的歧视问题将更为严峻。跨领域、多模态大模型带来的公平性治理问题将给个人信息保护带来愈加深刻的挑战。

面对大模型的多模态、跨领域特征引发的算法歧视问题,检察机关需要在涉及个人信息保护的行政公益诉讼协作机制方面,打破数据孤岛形成检察合力,全方位推动检察履职。一直以来,“信息孤岛”“数据壁垒”等问题始终制约着检察机关监督体系改革与建设光明网.力争每年推出一两项重大改革新举措——聚焦政法领域全面深化改革推进会[EB/OL].(2019-07-21)[2023-07-20].https://m.gmw.cn/baijia/2019-07/21/33014383.html.。AIGC时代下,个人信息保护行政公益诉讼需要破除“信息孤岛”,促进公权力部门之间互联互通[18,这也是数字中国建设的重要内容之一。

2022年,最高检共发布10项涉及电信网络诈骗犯罪的典型案例,突出了检察机关在诉源治理、协同推进社会治理方面的检察实践陕西省秦岭北麓地区人民检察院.最高检发布打击治理电信网络诈骗及关联犯罪典型案例[EB/OL].(2022-04-21)[2023-07-20].http://www.sn.jcy.gov.cn/xtxatly/ywgz/xsjcgz/202204/t20220421_277604.html.。期间,最高检排查个人信息泄露渠道与相关人员,聚焦获取、流通个人信息等环节,提升了公益诉讼检察部门的办案联动,加强了相关案件的源头治理。同年,最高检发布《关于加强刑事检察与公益诉讼检察衔接协作严厉打击电信网络犯罪加强个人信息司法保护的通知》,重点提出聚焦重点行业、领域以及群体;聚焦容易导致个人信息泄露风险的相关行业;聚焦容易受到电信网络诈骗违法犯罪侵害的老年人、在校学生、未成年人等重点群体

高检网.最高检:严厉打击行业“内鬼”泄露公民个人信息违法犯罪[EB/OL].(2022-06-21)[2023-07-20].https://www.spp.gov.cn/spp/zdgz/202206/t20220621_560428.shtml.。该通知明确了办案协作机制,要求完善刑事检察、公益诉讼检察协作机制,包括建立线索移送、同步介入、人员协作等。检察机关需要在办案中充分发挥横向一体化优势,加强“四大检察”各业务部门的衔接配合,注重从刑事案件中挖掘个人信息保护线索。对可能损害社会公共利益的案件,刑事检察部门应向公益诉讼部门推送线索。

四、生成式人工智能背景下个人信息保护行政公益诉讼的展望

2022年 3月,《互联网信息服务算法推荐管理规定》第 7 条对算法推荐服务提供者的安全主体责任进行了规定;2023年5月,互联网信息办公室通过了《生成式人工智能服务管理暂行办法》,其中第9条规定生成式人工智能产品、服务提供者应当承担“网络信息内容生产者责任”。换言之,主体责任机制构成了我国算法问责体系的核心[19。面对生成式人工智能的兴起,基于主体责任的算法问责制度需要进行相应调整。而这种制度的关键在于强调理解算法的本质,即作为技术规则和计算过程的核心要素;主张把算法看作是一种工具性规则,强调算法设计背后所反映的开发者的价值观和技术追求。因此,主体责任的目的是揭开算法的外衣,从而使背后的开发者承担相应的责任[20。但生成式人工智能应用的出现可能会分散算法主体责任,使其依赖特定场景,进而模糊算法责任主体的认定边界——个人信息保护风险将从研究开发者扩展到应用的部署方以及终端用户。

(一)生成式人工智能与行政公益诉讼制度的完善

党的二十大报告提出“加强检察机关法律监督工作”“完善公益诉讼制度”,赋予了新时代检察工作更重的政治、法治以及检察责任。

首先,个人信息保护行政公益诉讼应当充分融入到跨行政区划检察案件管辖体系之中。AIGC时代下,算法责任主体开始呈现出分散多元化、动态场景化等特征。介入相关个人信息保护问题的行政主管部门众多,相应地,检察机关也会面临着介入监督受阻等管辖权虚置问题。习近平总书记的重要讲话以及党的十八届三中、四中全会的决定表明,设立跨区域检察机关的实质在于其既区别于一般的地方检察院,又有别于军事等特定类型的检察院[21。其核心目的是消除地方和行业的不当影响,并从扩展检察功能和促进区域间协调发展这两方面进行考量。有鉴于此,个人信息保护行政公益诉讼需要推行特别案件集中管辖机制,将个人信息保护案件纳入《设立跨行政区划人民法院、人民检察院试点方案》中的特殊案件集中管辖范围,同时畅通跨区划线索交办、移交协查办理机制,填补跨区划行政公益诉讼介入监督空白点

高检网.完善机制强化跨区划审判法律监督[EB/OL].(2021-12-10)[2023-07-20].https://www.spp.gov.cn/spp/zhuanlan/202112/t20211210_538543.shtml.。

其次,个人信息保护公益诉讼需要构建统一的综合主管部门与相应的行业行政主管部门,并在此基础上辅以个人信息保护行政公益诉讼配套机制。AIGC带来的技术、行业变革使得个人信息保护的行政执法资源分散化,应整合、优化多个涉及个人信息保护的行政部门,借助互联网信息办公室的支持,重新调整工商、信息管理等部门的职责,建立统一的个人信息保护行政管理机构,以统筹监管个人信息保护的执法工作。

此外,在个人信息保护的行政公益诉讼体系中,应充分利用诉前程序的预防功能,主要通过向个人信息保护的主管部门提出检察建议,并辅以向不同行业的主管部门制发检察建议。在接收到检察建议并进行整改的阶段,个人信息保护的主管部门应负责领导、协调和督促各相关行业主管部门履行职责。这种做法不仅保障了行政裁量权,还能够深入监督,从而推动个人信息领域治理的系统化和整体化,有助于建立一个以统一监管为主、分散共治为辅的公益诉讼监督网络。

(二)生成式人工智能助推行政公益诉讼的价值重塑

在AIGC应用崛起的当下,有关个人信息保护的法律监督数量将呈指数级增长。但检察监督的内在价值并不一定能够通过数量得以释放[22。其关键在于通过具体的法律监督案件,及时、准确挖掘具有普遍性、共同性问题,以类案监督的方式打造“治理场景”,继而实现法律监督工作向社会系统治理方向上的转变。就个人信息保护而言,AIGC大模型的算法与预训练数据量势必会给法律监督工作带来数量上的冲击。因此,个人信息保护行政公益诉讼工作需要达到“办理一案、治理一片”的效果,充分发掘AIGC监管治理的特征。2023年4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》),对AIGC产品或服务的基本要求与责任承担、安全评估与算法备案义务等方面进行了规定,体现了国家对以ChatGPT为代表的AIGC产品或服务的监管态度。

AIGC监管问题已受到全球普遍的关注。如,欧盟即将正式出台施行的《人工智能法案》(以下简称《法案》)针对以ChatGPT为代表的AIGC应用专门制定了全新的监管规则,旨在防范AIGC对经济秩序和社会秩序造成变革性风险,期望通过《法案》引领全球人工智能治理模式的发展方向。该《法案》对AIGC的监管主要集中在监管模式与版权问题上,延续了风险规制等欧盟治理方式,在第1(c)、1(d)条款中分别引入了“基础模型”与“通用人工智能系统”的概念,用以区分以GPT为代表的生成式人工智能模型与适应于广泛应用的人工智能系统。与此同时,《法案》还将人工智能应用场景分为“低风险、高风险、不可接受的风险”3个风险等级,但是并未将AIGC直接纳入到3种风险场景中,而是有的放矢地将其定义为基础模型的一种形式,暗指AIGC与一般人工智能之间存在本质性区别。基础模型旨在构建可以广泛适配各种下游任务、赋能千行百业的通用模型,是大数据、大算力和大规模参数共同作用的结果。作为基础模型的一种形式,AIGC的独特性在于用户的使用方式会直接决定应用涉及的风险等级。

在治理模式方面,该《法案》强调人工智能应用价值链具有保障用户基本权利不受侵犯的义务,这意味着基础模型价值链下游的分发者、进口者和部署者均需要充分保障用户的基本权利。基础模型提供者的义务分为两部分:在投入应用前,模型提供者需在独立专家的参与下建立符合欧盟法律、法规要求的质量管理系统,采取充分的保障措施来识别、降低可预见的风险,记录剩余不可缓解的风险,并于欧盟数据库中备案;在投放市场后,基础模型提供者应履行透明度义务,其训练模型不违反欧盟法律、不损害公民基本权利、符合行业先进实践,记录并公开受版权保护的训练数据使用情况摘要。此外,当自然人群体或法人群体的权利受到损害时,有权向模型提供者或模型部署者投诉并获得补偿。

基于上述中欧在AIGC监管方面的差异,本文认为涉及个人信息保护的行政公益诉讼工作更加需要构建适应AIGC大模型特点的立体化监督模式,即借鉴欧盟法案对AIGC“基础模型”与“通用人工智能系统”的概念区分和分阶段监管的做法,从“技术-产业-应用”全流程的视角出发,在技术、产业和应用层面采取相适宜的监督方式。以监督促治理,重塑法律监督社会治理层面的价值追求,“把追求个案正义提升到实现类案监督、促进系统治理的更高追求上”[23

(三)生成式人工智能背景下行政公益诉讼与公共安全治理

个人信息保护是国家数据安全、网络安全的基础。数字经济的高质量可持续发展必然是以个人信息保护为基础性前提,是网络强国、数字中国建设的关键性要素。近年来,检察机关探索个人信息保护检察公益诉讼,积累了诸多系统治理、溯源治理的成功经验。《个保法》《反垄断法》《反电信网络诈骗法》中都开始设立了检察公益诉讼条款,继而将个人信息保护从行政公益诉讼“等外”领域纳入法定新领域。2022年12月2日,中共中央、国务院发布《关于构建数据基础制度更好发挥数据要素作用的意见》,明确提出“加大个人信息保护力度,推动重点行业建立完善长效保护机制”,强调“以维护国家数据安全、保护个人信息和商业秘密为前提”,要求“创新政府数据治理机制”“加强数据产权保护”“推动完善相关法律制度”。该文件的发布,为人民检察院开展个人信息保护公益诉讼提出了新的要求:检察院应当更加注重保护包含个人信息数据的公共数据、国有企业数据的安全;更加注意个人信息保护与反垄断的衔接协同,助力打破“数据垄断”;更加强调将督促履行反电信网络诈骗职责作为个人信息数据安全溯源治理的抓手。

AIGC时代下,大模型的算法设计、预训练数据往往包含纷繁复杂的偏见与价值观,尤其是在国内大模型发展初期,以ChatGPT、Stable Difussion为代表的海外成熟大模型应用占据着用户市场绝大部分份额。大模型所需的数据集往往将现实社会中国家外部的政治力量、利益团体的意识形态与价值观以编码的形式融合进去,再以AIGC的应用生成内容进行输出,形成权力的马太效应,破坏互联网信息生态系统。因此,人民检察院除了积极开展个人信息保护行政公益诉讼工作,还应当不断加强行政公益诉讼在国家数据安全、公共安全治理中的防范功能。首先,要推动个人信息保护治理向事前预防模式的转变,明确将个人信息保护纳入国家公共安全体系;其次,要依托前述的个人信息保护综合行政主管部门,透过AIGC大模型“技术-产业-应用”全流程视角充分发挥行政公益诉讼诉前检察建议的督促纠正作用,拓展督促、支持起诉,监督保障个人信息保护法等相关法律的有效实施;最后,要从重点加强对特定群体的特别保护向全面保护个人信息权益转型,贯彻落实国家人权行动计划,加强公民权利司法保护。

参考文献:

[1] CAO Y H,LI S Y,LIU Y X,et al.A comprehensive survey of AI-generated content (AIGC):A history of generative AI from GAN to ChatGPT[Z/OL].(2023-03-07)[2023-07-20].https://arxiv.org/abs/2303.04226.

[2] 毕文轩.生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角[J].比较法研究,2023(3):155-172.

[3] 刘艳红.生成式人工智能的三大安全风险及法律规制:以ChatGPT为例[J].东方法学,2023(4):29-43.

[4] 张新宝,赖成宇.个人信息保护公益诉讼制度的理解与适用[J].国家检察官学院学报,2021,29(5):55-74.

[5] 高富平.个人信息保护:从个人控制到社会控制[J].法学研究,2018,40(3):84-101.

[6] 薛天涵.个人信息保护公益诉讼制度的法理展开[J].法律适用,2021(8):155-164.

[7] 张翔.个人信息权的宪法(学)证成:基于对区分保护论和支配权论的反思[J].环球法律评论,2022,44(1):53-68.

[8] 蒋红珍.个人信息保护的行政公益诉讼[J].上海交通大学学报(哲学社会科学版),2022,30(5):28-38.

[9] 温辉.行政公益诉讼“等外”刍议[J].河北法学,2020,38(9):101-112.

[10] JI Z W,LEE N,FRIESKE R,et al.Survey of hallucination in natural language generation[J].ACM Computing Surveys,2023,55(12):1-38.

[11] LEE" K,IPPOLITO D,NYSTROM A,et al.Deduplicating training data makes language models better[Z/OL].(2022-03-24)[2023-07-20].https://arxiv.org/abs/2107.06499.

[12] LEE N,PING W,XU P,et al.Factuality enhanced language models for open-ended text generation[Z/OL].(2023-03-02)[2023-07-20].https://arxiv.org/abs/2206.04624.

[13] WANG C J,SENNRICH R.On exposure bias,hallucination and domain shift in neural machine translation[Z/OL].(2020-05-07)[2023-07-20].https://arxiv.org/abs/2005.03642.

[14] LONGPRE S,PERISETLA K,CHEN A,et al.Entity-based knowledge conflicts in question answering[Z/OL].(2022-09-10)[2023-07-20].https://arxiv.org/abs/2109.05052.

[15] 禹竹蕊.建立我国的预防性行政诉讼制度:以反政府信息公开诉讼为视角[J].广西大学学报(哲学社会科学版),2017,39(3):107-111.

[16] 王春业.论检察机关提起“预防性”行政公益诉讼制度[J].浙江社会科学,2018(11):51-58,157.

[17] GICHOYA J W,BANERJEE I,BHIMIREDDY A R,et al.AI recognition of patient race in medical imaging: a modelling study[J].The Lancet Digital Health,2022(4): E406-E414.

[18] 吴思远.数字检察的法理反思[J].华东政法大学学报,2023,26(5):45-55.

[19] 张欣.生成式人工智能的算法治理挑战与治理型监管[J].现代法学,2023,45(3):108-123.

[20] 刘权.论互联网平台的主体责任[J].华东政法大学学报,2022,25(5):79-93.

[21] 田向红.新时代跨行政区划检察改革的实践与完善[J].中国检察官,2023(1):3-6.

[22] 张薰尹.践行习近平法治思想 发挥类案监督优势:评最高检民事检察类案监督典型案例[N].检察日报,2021-11-24(7).

[23] 贾宇.论数字检察[J].中国法学,2023(1):5-24.

[编辑:洪梦绮]

猜你喜欢
个人信息保护生成式人工智能公益诉讼
挑战·融合·变革:“ChatGPT与未来教育”会议综述
生成式人工智能重塑教育及教师应对之道
人机共生时代国际传播的理念升维与自主叙事体系构建
对外传播(2023年4期)2023-05-21 20:52:16
生成式人工智能的教育应用与展望
如何做好法律领域的个人信息保护
东方教育(2016年3期)2016-12-14 20:18:10
建立我国环境公益诉讼制度的几点思考
浅论检察机关公益诉讼制度
环境公益诉讼中主体问题思考
检察机关介入环境公益诉讼的必要性
我国大数据时代个人信息保护研究综述