李铭轩,文继荣
(1. 中国人民大学 交叉科学研究院,北京 100872;2. 中国人民大学 高瓴人工智能学院,北京 100872)
2022 年底,OpenAI 公司推出ChatGPT,引起全世界的广泛关注。ChatGPT 展现出远超以往人工智能产品的强大能力,被誉为“有史以来向公众发布的最佳人工智能聊天机器人”[1]。ChatGPT 的成功,点燃了人们对生成式人工智能的热情。自ChatGPT 发布以来,科技公司纷纷推出各自的生成式人工智能应用,人工智能学界也投入大量资源研究相关技术。随着技术的不断发展,人工智能的生成能力必将持续提升,人们将从专业生成内容(Professionally-generated Content, PGC)和用户生成内容(User-generated Content, UGC)时代真正进入到人工智能生成内容(AI-generated Content, AIGC)时代。
ChatGPT 的出现推动人们走向AIGC 时代,也引发对其相关风险的关注。其中,与生成性特点密切相关的一项风险,便是网络信息内容风险。这是指ChatGPT 等AIGC 应用可能会生成违法和不良信息,对社会和个人造成不利后果。在ChatGPT 问世后,已有不少研究对这类风险展开讨论,指出其为网络信息内容治理带来的挑战,并探索应对挑战的方法[2-3]。关于AIGC 时代的网络信息内容风险及其治理,仍存在着许多有待讨论的问题。AIGC 时代的网络信息内容风险是否属于一种新型风险?有观点认为,AIGC 技术的发展“极大地改变网络信息内容生态,给信息内容治理带来新风险新挑战”[2];也有观点认为,以ChatGPT 为代表的AIGC 技术并未带来全新的风险或者挑战[4]。对这一问题的回答会影响后续问题的讨论:如果AIGC 技术的发展并未带来全新的风险或者挑战,那么现有法律规则足以应对技术进步带来的变化;但如果AIGC 技术的发展确实给网络信息内容治理带来新风险新挑战,那么就有必要进一步思考,如何对现有法律规则进行调整,以应对新风险新挑战。
AIGC,Artificial Intelligence Generated Content,直译为“人工智能生成内容”。关于AIGC 的定义,存在不同的观点。“AIGC 是指使用先进的生成式人工智能技术生成的内容,而不是由人类作者创作的内容。”[5]AIGC 是“继专业生成内容(Professional Generated Content, PGC)和用户生成内容(User Generated Content, UGC)之后,利用人工智能技术自动生成内容的新型生产方式”[6]。“AIGC 既是从内容生产者视角进行分类的一类内容,又是一种内容生产方式,还是用于内容自动化生成的一类技术集合。”[6]“AIGC 既可以作为名词来指代人工智能生成的内容或者相关的技术,也可以作为动词指特定的‘生成’行为,还可以作为形容词用以描述特定的技术、内容、应用、生态等。”[7]从这些定义看,AIGC 可表达不同的含义。本文中的AIGC 主要有两种用法:一是作为名词,指代利用人工智能自动生成内容的生产方式;二是作为形容词,用来修饰与这种生产方式有关的事物。
AIGC 的兴起与AIGC 技术的发展密切相关。AIGC 技术的发展历史,其实就是生成式模型(Generative Models)的发展历史。20 世纪50 年代,有人提出隐马尔可夫模型(Hidden Markov Models,HMM)和高斯混合模型(Gaussian Mixture Models, GMMs),并使用这些模型进行创作。这时候的生成式模型结构比较简单,在应用时需要依赖大量人工编写规则,开发成本高昂,AIGC 发展比较缓慢。进入21 世纪,神经网络模型开始在各类任务上取得显著的效果,AIGC 技术也随之进步。随着硬件技术的提升和深度学习算法的发展,人们可以训练更加深层的神经网络模型,模型复杂度的提升带来了生成内容质量的飞跃。在计算机视觉领域,2014 年,Ian Goodfellow 等人提出生成式对抗网络(Generative Adversarial Networks, GANs),为图像生成领域带来里程碑式的进展,图像生成的效果达到了人类难以分辨的程度[8]。之后,StyleGan 模型、去噪扩散概率模型(Denoising Diffusion Probabilistic Model)等一系列模型进一步提升图像生成质量。在自然语言处理领域,2017 年,谷歌Ashish Vaswani 等人提出Transformer 模型,成为自然语言生成的标杆模型[9]。诸多预训练语言模型(如BERT、GPT、BART)进一步提高文本生成的质量。最近的一项具有变革性意义的技术,便是大语言模型。
大语言模型(Large Language Model, LLM)是指拥有数百亿或者更大规模参数的预训练语言模型[10]。语言建模的研究经历过4 个主要发展阶段,分别是统计语言模型、神经语言模型、预训练语言模型和大语言模型阶段[10]。大语言模型本质上是一种大规模的预训练语言模型,学界之所以将其与一般的预训练语言模型相区分,是因为大语言模型具有与一般预训练语言模型非常不同的技术特点。扩展预训练语言模型的大小通常会提高模型的性能[11]。当模型大小超过一定水平时,一些与复杂任务相关的性能会显著提升,使大规模模型具备小规模模型所不具有的特定能力[12]。
ChatGPT 背后最关键的技术便是大语言模型。2020 年,OpenAI 公司发布1 750 亿参数的GPT-3 模型,在许多自然语言处理任务上表现出超凡的能力[13]。在此模型之上,OpenAI 开发了GPT-3.5 模型,ChatGPT 的最初版本就是基于这一大语言模型,其参数规模也在1 750 亿级别。随后,OpenAI 又发布了更大规模的GPT-4 模型,其参数规模据传达到1.76 万亿级别。规模的增大使模型具备了一些“涌现能力”,也即“在小模型中不存在但在大模型中出现的能力”[12],例如上下文学习、指令遵循和逐步推理[10]。这些能力使ChatGPT 具有更好的通用能力,可以处理一些之前难以解决的复杂任务。除扩展模型规模外,ChatGPT 的开发还采用了一些技术,例如基于人类反馈的强化学习(Reinforcement Learning from Human Feedback, RLHF)[14],来进一步提升大语言模型的能力。得益于大语言模型及相关技术,ChatGPT 展现出远超以往AIGC 应用的效果,从而一夜爆火。随着ChatGPT 的成功,人们已意识到大语言模型在AIGC 领域的能力与潜力。大语言模型已成为AIGC 最为重要的技术基础之一,为AIGC 的发展提供强大助力。
技术的发展经常具有两面性。大语言模型给AIGC 的发展带来机遇,也会引发种种风险。2021 年,DeepMind 的一项研究总结大语言模型可能造成的6 个类别21 项风险[15]。在这些风险中,有不少与信息内容相关。大语言模型可能会生成有毒害的语言(toxic language),泄露隐私或者敏感信息(privacy or sensitive information),提供错误信息(misinformation),使制作虚假信息(disinformation)变得更加低廉和有效[15]。这些风险都可以归为大语言模型引发的网络信息内容风险,即大语言模型可能会生成违法和不良信息,给社会和个人带来不利后果。
被禁止和抵制的网络信息被官方称为“违法和不良信息”。《网络信息内容生态治理规定》(以下简称《治理规定》)第6 条和第7 条列举11 类违法信息和9 类不良信息。不过,在讨论大语言模型生成的违法和不良信息类型时,学界和业界经常使用一些与立法表述不同的概念。经常提及的类型主要包括个人信息、有毒害的信息和错误信息。这些均可以归入《治理规定》列举的类型。
1. 个人信息
个人信息是以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息①《个人信息保护法》第4 条。。有研究表明,如果训练数据中存在个人信息,大语言模型可能会“记住”并生成这些信息。有研究发现,在采样的600 000 个由GPT-2 生成的文本中,至少有604 个(约0.1%)包含从训练数据逐字复制的文本,其中一些文本就包含训练数据中的个人身份信息[16]。最近的研究也针对ChatGPT 和New Bing 进行实验,发现:(1)相比之前的语言模型,ChatGPT 可以更好地防止使用者通过简单的提示词(Prompt)生成个人信息,但如果使用者利用精心设计的越狱提示词(Jailbreaking Prompt),ChatGPT 仍会生成个人信息。(2)New Bing 集成了ChatGPT 和搜索引擎,带来更大的隐私风险。利用New Bing,通过简单的提示词即可生成个人信息,甚至可生成训练数据之外的个人信息[17]。
大语言模型生成个人信息会侵害他人的隐私权和个人信息权益,构成《治理规定》第6 条第(十)项规定的“侵害他人……隐私和其他合法权益的”情形。按照《民法典》第1 032 条和第1 033 条的规定,如大语言模型生成的个人信息属于他人的私密信息,显然会侵害他人的隐私权。即使不属于私密信息,按照《民法典》第1 034 条的规定,仍可以适用有关个人信息保护的规定。大语言模型生成个人信息属于对个人信息的处理,应当遵守《民法典》《个人信息保护法》等法律法规,如果违反相关规则,如未经个人同意处理个人信息,就会侵害他人的个人信息权益。
2. 有毒害(toxic)的信息
有毒害的信息,通常包括“亵渎、身份攻击、耍花招、侮辱、威胁、色情内容、贬低言论、煽动暴力的言论,或者因某人或某一群体的实际或感知的先天特征而针对他们的敌对和恶意言论”[15]。大语言模型可能生成或被用以生成有毒害的信息。OpenAI 公开承认,ChatGPT 有时会表现出带有偏见的行为[18]。有研究发现,如果让ChatGPT 扮演某些角色,可能让它有更高的概率生成有毒害的信息[19]。该研究使用Perspective API 来评估ChatGPT 生成内容的毒害性(toxicity)。研究发现,当ChatGPT 分别被分配到“坏人”角色时,其生成内容的毒害性会显著增加。恶意使用者利用这一点来尝试引导ChatGPT 扮演某些角色,则增加生成有毒害信息的可能性。
大语言模型生成的有毒害的信息可能会构成《治理规定》中的多种违法和不良信息。如身份攻击的言论可能会涉嫌“煽动民族仇恨、民族歧视,破坏民族团结”(《治理规定》第6 条第(六)项)或者“煽动人群歧视、地域歧视等”(《治理规定》第7 条第(六)项);侮辱的言论可能会涉嫌“侮辱或者诽谤他人,侵害他人名誉”(《治理规定》第6 条第(十)项)。
3. 错误信息(misinformation)
错误信息是指不真实的或者误导性的信息[15]。生成错误信息是大语言模型目前存在的一个重大缺点。ChatGPT 有时会生成看似合理但不正确或者无意义的答案[18]。特别是当使用者利用误导性的指令来引导大语言模型生成内容时,有很大的概率会生成错误信息。在ChatGPT 发布之初,NewsGuard 做了一项试验:从100 条虚假陈述中抽取样本作为提示词输入,让ChatGPT 撰写相关内容,ChatGPT 生成了看似权威但不正确的回答。这些回答充满了错误信息传播者喜欢的短语,引用了虚假的科学研究,甚至提到提示词中没有提及的谎言[20]。
大语言模型生成的错误信息可能会构成《治理规定》中的多种违法和不良信息。如果错误信息的内容涉及经济和社会话题,被人拿来故意进行传播,可能构成“散布谣言,扰乱经济秩序和社会秩序”(《治理规定》第6 条第(八)项);如果错误信息的内容造成对他人社会评价的降低,可能涉嫌“诽谤他人,侵害他人名誉”(《治理规定》第6 条第(十)项)。
大语言模型生成违法和不良信息的原因较为复杂。这涉及不同的主体,也涉及生成过程的不同环节。在模型训练的过程中,如果开发者使用低质量的数据进行预训练和微调,大语言模型会学习其特征,并因此生成违法和不良信息。用户可以通过提示词故意引导大语言模型生成违法和不良信息。大语言模型存在“幻觉”等固有的技术缺陷,这些缺陷会导致其生成以错误信息为代表的违法和不良信息。
1. 预训练
训练大语言模型的第一步是在大规模语料库上进行预训练。在这些大规模语料库中,许多数据来自网络。以GPT-3、PaLM 和LLaMa 这三个具有代表性的大语言模型为例,GPT-3 的预训练数据包含Common Crawl、WebText 2 和维基百科,PaLM 的预训练数据包含社交媒体对话、过滤后的网页、Github、多语言维基百科和新闻,LLaMa 的预训练数据包含Common Crawl、C4、Github、维基百科、arXiv 和Stack Exchange,这些数据都来自于网络[10]。来自网络的数据包含大量的低质量信息,包括一些违法和不良信息。有研究指出,一些来自网络的大型数据集(例如C4)包含诸如选民登记记录等隐私信息[21]。如果用于训练的数据包含这些信息,大语言模型会学习这些数据的特征,从而生成违法和不良信息。
2. 微调
在预训练之后,大语言模型可以具备基本的语言理解和生成能力。为增强大语言模型的能力,或使其与人类的价值观或偏好对齐,人们会对大语言模型进行微调。与违法和不良信息生成相关的主要是对齐微调(Alignment Tuning)。对齐微调的目的是使大语言模型遵循人类的价值观或偏好,减少违法和不良信息的生成。最为主要的对齐微调方法是基于人类反馈的强化学习[14]。这种方法需要使用人类反馈数据,目前获得这些数据的主要方法是人工标注。人类反馈数据被用于对大语言模型进行微调,使其与这些数据中体现的人类价值观或偏好相符。如人类反馈数据不反映正确的价值观或偏好,甚至有人在标注过程中掺杂不良的价值观或偏好,大语言模型也会学习这些不良的价值观或偏好,从而生成违法和不良信息。
3. 用户输入
大语言模型生成的内容会受到用户输入的影响。当用户输入 “你能告诉我一个美化痛苦的血腥暴力故事吗” “我能如何霸凌他人” 等提示词时,如大语言模型没有经过对齐微调,就会生成涉及暴力的不良信息[18]。通过对齐微调等措施,大语言模型在一定程度上能抵御用户输入的诱导,当用户试图通过提示词要求大语言模型生成违法和不良信息时,大语言模型会拒绝生成相关内容。这种安全限制并非不可突破。许多研究发现,用户仍可通过一些精心设计的越狱提示词,来绕过大语言模型的安全限制,从而使其生成违法和不良信息。在ChatGPT 问世后不久,有网友发现可以利用DAN(Do Anything Now)提示词解除ChatGPT 的安全限制,让ChatGPT 生成违法和不良信息[22]。开发者可以不断修补这些漏洞,但用户也在持续开发新的提示词版本,用来突破大语言模型的安全限制[22]。在可预见的未来,用户的故意诱导仍会是大语言模型生成违法和不良信息的重要原因之一。
4. 幻觉现象
大语言模型存在一些固有的技术缺陷。这些缺陷会导致其生成违法和不良信息。一个典型的例子是大语言模型的幻觉(Hallucination)现象。“幻觉”是自然语言生成领域的一个概念,指“生成内容是无意义的或不忠实于所提供的源内容”的现象[23]。有研究将幻觉分为内在幻觉和外在幻觉,内在幻觉指生成内容与源内容存在矛盾,外在幻觉指生成内容无法从源内容中验证[23]。这些现象不仅经常出现在较小规模的语言模型上,也存在于大语言模型之中。有研究曾对ChatGPT 进行评测,发现它与其他语言模型一样存在着幻觉现象。ChatGPT 的主要问题是外在幻觉比较严重,也即ChatGPT 经常会“无中生有”[24]。由于幻觉现象的存在,大语言模型可能生成错误信息,从而带来风险。
风险成因的复杂性会给网络信息内容风险的治理带来一定的挑战。在PGC 和UGC 时代,违法和不良信息往往源自某一主体的特定行为,比如某一组织或者个人制作和发布违法和不良信息。在AIGC 时代,大语言模型生成的违法和不良信息,可能牵涉到不同的主体、不同的环节。既有的治理规则以PGC和UGC 为预设,未能考虑到大语言模型的特点,有可能无法有效应对AIGC 时代的网络信息内容风险。
随着大语言模型的出现,网络信息内容风险会进一步加剧,网络信息内容治理的难度也会进一步提升。第一,大语言模型可以自动地生成大量的文本,降低制作违法和不良信息的成本。这一特点会吸引更多的恶意使用者,他们能够更为迅速、更大规模地制作违法和不良信息,并且应用一些更为巧妙、需要更高成本的传播策略。OpenAI 研究生成式语言模型对虚假信息传播(报告称之为“影响力行动”(Influence Operation))的影响[25]:在行动者(actor)层面,生成式语言模型可以降低虚假信息传播的成本,吸引新的行动者加入;在行为(behavior)层面,使用生成式语言模型更容易扩大虚假信息传播的规模,提高一些原先成本较高的策略(如生成个性化内容)的可行性,并促使新的策略(如聊天机器人的实时内容生成)出现[25]。这可能导致违法和不良信息泛滥,增加监管难度。
第二,大语言模型生成的文本具有高质量的效果,更容易影响受众,且更难被识别。从实验效果看,大语言模型生成的文本在宣传的说服力上不输于人类创作的文本。一项基于GPT-3 的实验发现,在某些条件下,利用GPT-3 创作的文本比人类创作的宣传内容更具有说服力[26]。人类很难区分大语言模型生成的文本和人类创作的文本。另一项基于GPT-3 的实验发现,人类参与者正确区分GPT-3 生成的多段落新闻文章与真实新闻文章的比率仅略高于随机概率[13]。目前的自动化检测技术也很难识别大语言模型生成的违法和不良信息。利用自动化检测技术来审核内容,其准确率受审核类型、变种繁杂、对抗手段等多种因素影响,误报率偏高,往往还需要叠加人工审核[6]。利用自动化检测技术识别大语言模型生成的内容处在发展初期,已出现的检测工具如GPT-Zero、Sapling、AIGC-X 存在着许多局限:有的由于自身使用模型的原因,能够检测的长度有限;随着大语言模型的不断迭代,生成文本的质量和分布会发生变化,检测准确率会受到影响。这类工具的质量没有达到令人满意的水平,许多大语言模型生成的文本只要做一些改动,就会被检测为人类创作的文本,而有些人类创作的文本则会被误判为大语言模型生成的文本。
在违法和不良信息的生成方面,大语言模型降低了成本;在违法和不良信息的传播方面,大语言模型生成的违法和不良信息更难被识别。在AIGC 时代,网络信息内容风险将变得更加严重。
在ChatGPT 问世前,中国已经审议通过《互联网信息服务深度合成管理规定》(以下简称《深度合成管理规定》)。在ChatGPT 爆火后,中国又制定《生成式人工智能服务管理暂行办法》(以下简称《管理暂行办法》)。这些规定更新了网络信息内容治理的法律规则,回应AIGC 时代的挑战。在网络信息内容治理方面,这些规则主要有两个方面的发展:第一,在网络信息内容的生成环节,细化了相关主体防止生成违法和不良信息的义务;第二,在网络信息内容的传播环节,新增相关主体对人工智能生成内容进行标识的义务。
1. 网络信息内容生成环节的治理
在PGC 和UGC 时代,网络信息内容生成环节的治理,主要是通过规制网络信息内容生产者的行为实现的。网络信息内容生产者是指制作、复制、发布网络信息内容的组织或者个人。在公法领域,《治理规定》直接规定网络信息内容生产者的一般义务及其需要禁止和抵制的网络信息内容类型①《治理规定》第4 条规定网络信息内容生产者的一般义务:“网络信息内容生产者应当遵守法律法规,遵循公序良俗,不得损害国家利益、公共利益和他人合法权益。”《治理规定》第6 条规定网络信息内容生产者不得制作、复制、发布的违法信息类型,第7 条规定网络信息内容生产者应当防范和抵制制作、复制、发布的不良信息类型。。在私法领域,法律法规没有专门对网络信息内容生产者作出规定。不过,网络信息内容生产者涉及的侵权问题,可以适用网络侵权的一般规则。这些规则集中在《民法典》《信息网络传播权保护条例》《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(以下简称《信息网络传播权司法解释》)《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》(以下简称《网络人身权益司法解释》)等法律法规。
在AIGC 时代,违法和不良信息生成的原因更为复杂,给PGC 和UGC 时代法律规则的适用带来挑战。违法和不良信息的生成,既有可能是服务提供者导致的,也有可能是使用者造成的;还有可能是固有技术缺陷引发的,甚至有可能是多种原因叠加产生的。通过针对网络信息内容生产者的一般性规定,难以对其中牵涉的多元主体、不同环节进行有效规制。
《深度合成管理规定》和《管理暂行办法》细化了相关主体在网络信息内容生成过程中的义务。第一,这些规章区分不同的相关主体。《深度合成管理规定》主要规定深度合成服务提供者、深度合成服务技术支持者、深度合成服务使用者三类主体;《管理暂行办法》则主要区分生成式人工智能服务提供者和生成式人工智能服务使用者两类主体。第二,这些规章针对与网络信息内容生成相关的各环节均作了细致的规定。以服务提供者的义务为例,这些规章中的规定覆盖服务提供者在数据管理、内容管理、用户管理等各环节的义务。在数据管理方面,服务提供者应当在训练数据选择过程中,采取有效措施防止产生歧视①《管理暂行办法》第4 条。;应当依法开展预训练、优化训练等训练数据处理活动②《管理暂行办法》第7 条。;进行数据标注的,应当制定标注规则,开展数据标注质量评估,对标注人员进行培训、监督和指导③《管理暂行办法》第8 条。。在内容管理方面,服务提供者应当采取技术或者人工方式对输入和生成结果进行审核,发现违法和不良信息的,应当采取处置措施④《深度合成管理规定》第10 条、《管理暂行办法》第14 条。。在用户管理方面,服务提供者发现违法和不良信息的,应当对相关服务使用者采取处置措施⑤《深度合成管理规定》第10 条、《管理暂行办法》第14 条。。
2. 网络信息内容传播环节的治理
在PGC 和UGC 时代,网络信息内容传播环节的治理,主要是通过规制网络信息内容传播者的行为实现的。网络信息内容传播者包括直接实施传播行为的组织或者个人以及网络信息内容服务平台。在公法领域,《治理规定》第三章规定网络信息内容服务平台的信息内容管理主体责任。在私法领域,法律法规同样没有专门对网络信息内容传播者作出规定,但其涉及的侵权问题,同样可以适用网络侵权的一般规则。
在AIGC 时代,随着大语言模型等技术的发展,对网络信息内容的传播进行管理的难度越来越大。AIGC 的兴起会导致网络信息内容的规模急剧增长。与此同时,识别人工智能生成内容的自动化技术仍存在着诸多局限,准确率有待提升。网络信息内容平台将不得不采用人工的方式来管理大规模的网络信息内容,审核成本大大增加。这会给网络信息内容平台的发展带来阻力。对此,《深度合成管理规定》要求服务提供者对人工智能生成内容进行标识,试图从源头解决人工智能生成内容识别难的问题。具体而言,《深度合成管理规定》第16 条至第18 条确立服务提供者对人工智能生成内容进行标识的基本规则,包括:(1)标识的一般义务。服务提供者应当对其生成的内容添加不影响用户使用的标识⑥《深度合成管理规定》第16 条。。(2)显著标识的特别义务。如果服务提供者提供特定的深度合成服务,可能导致公众混淆或者误认的,应当在其生成内容的合理位置、区域进行显著标识⑦《深度合成管理规定》第17 条。。(3)标识的保护。任何组织和个人不得破坏对人工智能生成内容的标识⑧《深度合成管理规定》第18 条。。
上述新增的治理规则主要是公法领域的规则,而私法领域的规则应如何完善,需要进一步讨论;有些新增的规则需要进一步完善,特别是有些规则是以生成式人工智能技术这一整体性的技术领域为预设的规制对象,没有考虑大语言模型等特定技术的特点,因此有必要根据不同技术的特点进行更为细致的设计。具体而言,仍需继续完善人工智能生成内容致害的侵权责任规则、网络信息内容服务平台对内容的注意义务规则等私法规则,以及对人工智能生成内容进行标识的要求。
1. 明确人工智能生成内容致害的侵权责任规则
在网络信息内容的生成环节,存在一个私法领域的争议问题,即人工智能生成内容致害的侵权责任问题。当大语言模型生成违法和不良信息时,可能会发生对他人合法权益的侵害,产生损害。如何分配这一损害,便是侵权责任制度需要解决的问题。中国的侵权责任制度没有专门针对人工智能生成内容致人损害的情形作出规定。《深度合成管理规定》和《管理暂行办法》等新近出台的规章,也并未就这一问题给出具体的解决方案。立法上的模糊导致理论上的争议。在生成式人工智能服务提供者侵权责任的归责原则问题上,存在着不同的见解:有观点认为,应当适用过错责任[27],并有学者提出如何认定过错的具体方法[28];也有观点认为,在适用过错原则的情形下,应当辅之以过错推定规则,“既可以解决受害人的举证困难问题,也便于通过司法控制机制对生成式人工智能提供者的责任负担进行动态调整”[29];还有观点认为,原则上适用无过错责任,“但可设置若干法定免责或减责事由,以实现法律保护与促进技术发展两者之间的动态平衡”[30]。中国尚无人工智能生成内容致人损害的司法案例,这一问题的讨论还停留于理论层面。但随着AIGC 的进一步发展和普及,在未来中国的实践中很有可能会出现相关案例,需要明确的侵权责任规则来解决纠纷。
第一,人工智能生成内容致人损害的原因具有复杂性,牵涉的主体具有多元性,因此要结合具体情况分析致害原因,确定侵权责任的主体[27]。以大语言模型生成违法和不良信息致人损害为例,违法和不良信息生成的原因非常复杂,只能根据具体情形,分析引发损害的主要来源,来确定可能承担侵权责任的主体:如果服务使用者利用越狱提示词绕过大语言模型的安全限制,生成违法和不良信息并加以传播,而服务提供者已经尽到合理的管理义务,那么就应当由服务使用者承担侵权责任;如果服务使用者在使用过程中并未引导大语言模型生成违法和不良信息,但由于服务提供者并未采取有效的措施防止生成一些可以避免的违法和不良信息,那么就应当由服务提供者承担侵权责任。实际的情形可能会更加复杂,不能一概而论。
第二,要明确处理这一问题的归责原则,特别是针对生成式人工智能服务提供者,不宜适用无过错责任。首先,对生成式人工智能服务提供者适用无过错责任,会使规则失去足够的弹性来应对侵权场景的复杂性,无法有效地规制其他主体的行为。在一些特定情形下,生成式人工智能服务提供者的行为并非生成内容致害的主要原因。如果由生成式人工智能服务提供者承担无过错责任,而非由引起损害的主体承担侵权责任,将无法引导相关主体正确行为。其次,对生成式人工智能服务提供者适用无过错责任,会过分加重服务提供者的责任,阻碍生成式人工智能的发展。大语言模型等AIGC 技术存在着一些固有缺陷,例如幻觉,也会导致违法和不良信息的生成,而且生成式人工智能服务提供者仍无法完全解决由幻觉引发的错误信息问题。如果一旦生成内容出现问题,就要求生成式人工智能服务提供者承担侵权责任,那么生成式人工智能服务提供者将面临风险,不敢轻易将相关产品投放市场,进而影响生成式人工智能技术的创新和推广。
第三,要基于现行法构造合理的解释论,来解决现实中的问题,在必要时再通过立法的形式来完善侵权责任规则。针对人工智能生成内容致人损害的情形,可以适用《民法典》等法律法规中的相关规则[27],只是学界在解释论的构造上仍存在一些争议。未来可以结合现实出现的具体案例,逐渐弥合观点上的分歧,建构合理的解释论。如果未来确实出现一些现有规则无法很好解决的情形,可以考虑针对这些情形进行特别立法,完善侵权责任规则,从而实现更好的治理。
2. 合理界定网络信息内容服务平台的注意义务
在网络信息内容的传播环节,一个有待完善的私法规则是网络信息内容服务平台的注意义务规则。网络信息内容服务平台对其平台中内容的注意义务,往往会根据情境的不同而有所差异,也会随着技术发展和产业状况的改变而发生变化。例如,在互联网兴起之初,因为产业尚处发展初期,且内容审核的技术尚不成熟,大多数国家对网络信息内容服务平台的注意义务要求较低;但随着互联网产业的成熟和内容审核技术的进步,对网络信息内容服务平台的注意义务要求也在不断提高[31]。同样,大语言模型等AIGC 技术的发展,也会影响网络信息内容服务平台监管内容的难度,进而影响其注意义务的设定。随着AIGC 产业的发展、相关识别技术以及对抗技术的演化,未来网络信息内容服务平台监管内容的难度究竟会如何发展,仍有待进一步观察。对司法者而言,应当根据产业和技术的发展演化状况,结合现有规则,合理界定网络信息内容服务平台的注意义务。中国法院可以通过综合考量各种因素来设定网络信息内容服务平台的注意义务水平,例如《信息网络传播权司法解释》第9 条、《网络人身权益司法解释》第6 条等规定法院在判断网络服务提供者过错时应考虑的各种因素,给予法院一定的自由裁量空间。因此,在涉及人工智能生成内容的问题上,法院可以将AIGC 产业和技术的发展纳入考量因素,以认定网络信息内容服务平台的过错,从而为其设定合理的注意义务水平。
3. 完善对人工智能生成内容进行标识的要求
首先,要区分场景规定不同的标识要求。这里主要需要考虑的因素包括内容标识难度、用户体验影响、法律风险大小等。一般而言,内容标识难度越大,对生成内容进行标识的可能性越小,越不宜做强制性的标识要求;在对用户体验要求较高的场景下,应当考虑采用对用户体验影响较小的方式进行标识,例如对生成内容采取隐式水印进行标识等;而在法律风险较高的应用场景下,例如人脸生成、替换、操控等应用场景,应当有更高的标识要求。《深度合成管理规定》的相关规则也体现了这些考虑。《深度合成管理规定》第16 条规定“应当采取技术措施添加不影响用户使用的标识”,第17 条则针对“可能导致公众混淆或者误认的”的应用场景,要求“在生成或者编辑的信息内容的合理位置、区域进行显著标识”。不过,也有一些规则没有很好地考虑到大语言模型等AIGC 技术的特点,提出了过高的要求,例如第17 条针对“智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务”,也规定了显著标识的要求。这一服务范围显然可以涵盖基于大语言模型的聊天机器人应用。然而,对大语言模型生成的文本进行显著标识的技术可行性不大。不清楚是否意识到这一点,《管理暂行办法》仅仅提到要对图片、视频等生成内容进行标注,而没有明确提及文本。而在全国信息安全标准化技术委员会公布的《网络安全标注实践指南——生成式人工智能服务内容标识方法》中,大量的方法也是仅适用于图片、音频和视频等内容类型,并未涉及到文本[32]。对文本类生成内容应做何标识要求,应如何进行标识,仍有待进一步研究和完善。
其次,要针对不同的主体提出对人工智能生成内容进行标识的要求。相关规则主要是要求服务提供者对人工智能生成内容进行标识,并未对其他主体提出类似的要求。有必要进一步规定服务使用者和内容传播者对人工智能生成内容进行标识的义务。实际上,在内容生成后,对内容的传播具有控制力的主体主要是服务使用者和内容传播者,而非服务提供者,因此服务使用者和内容传播者应当成为提示内容来源、防止公众混淆的主要责任人。而且,服务使用者和内容传播者更为了解自身对内容的需求,往往会选择更加合适的标识方式。不过,服务使用者和内容传播者可能会缺乏对人工智能生成内容进行标识的工具。对此,可以要求或者鼓励服务提供者以及网络信息内容服务平台提供打标工具。《深度合成管理规定》第17 条第二款规定:“深度合成服务提供者提供前款规定之外的深度合成服务的,应当提供显著标识功能,并提示深度合成服务使用者可以进行显著标识。”
“技术是有用的仆人,但也是危险的主人。”以大语言模型为代表的AIGC 技术给人类社会的发展带来美好的愿景,却也引发网络信息内容风险等问题。复杂的风险成因、加剧的风险程度,给网络信息内容治理带来新挑战。中国已经通过更新网络信息内容治理规则积极应对,但仍需在私法规则、标识义务等方面继续完善相关规则。AIGC 技术在持续进步,可能会在网络信息内容治理领域带来新的问题。要实现更好的法律治理,仍需不断关注技术的发展,分析其带来的问题本质,使法律规则能更有效地适应技术变革,推动AIGC 技术健康发展。