【摘 要】生成式人工智能技术赋能文化产业领域进入发展快车道,这触动了传统版权和创作伦理的界限。通过深入分析人工智能在文化产业链中的角色,尤其是“黑箱”操作和结果的不可预测性,探讨国内外对于人工智能介入文化创作生产的法律立场和实践,有助于全面应对数智时代的法律和伦理挑战。基于此,AIGC赋能下的文化产业治理应建立在分层法治框架上,在技术基础层、模型层和应用层采取具体的法律措施,以平衡文化创新与版权保护间的矛盾,确保技术变革不会侵犯合法权益,促进AIGC赋能下的文化产业实现可持续、高质量的创新发展。
【关 键 词】人工智能;AIGC;技术应用;分层治理
【作者单位】王紫琪,同济大学人文学院;解学芳,同济大学人文学院。
【基金项目】国家社会科学基金重大项目“数字文化产业高质量发展的政策设计与实现路径研究”(23&ZD087)。
【中图分类号】D923.41;G230.7 【文献标识码】A 【DOI】10.16491/j.cnki.cn45-1216/g2.2024.13.008
生成式人工智能(AIGC,Artificial Intelligence
Generated Content)是人工智能从1.0时代迈入2.0时代的重要标志。GAN、CLIP、Transformer、Diffu
sion、预训练模型、多模态技术以及生成算法等技术的积累与融合[1],加速了AIGC的崛起,并推动了其技术能力和内容多样性的增长。AIGC在文化产业领域的加速迭代和迅猛发展触动了传统版权和创作伦理的界限,AIGC技术的泛用性及其背后的经济利益,引发了一场关于知识产权、创新激励和文化生产权力结构的全球性变革。如:《纽约时报》起诉OpenAI和微软,指控它们未经授权使用其百万篇文章来训练人工智能;版权图库网站Getty Images指控Stability AI从其图库中复制了超过1200万张图片及相关的标题和元数据;好莱坞编剧罢工,反对创意阶层为AI“打工”,要求限制制片方在编剧创作过程中对AI技术的使用。这些事件揭示了AIGC赋能文化产业领域所引发的技术应用与传统著作权法之间的冲突。
从现有研究来看,当前人工智能生成内容的学理研究大多聚焦于文化产业领域中生成物的可版权性、作品性、正当性保护、权利分配等方向,而对于人工智能生成内容的纠纷与冲突背后的法理逻辑以及破解之道等问题的研究不多[2]。在生成式人工智能在文化产业领域不断展现其“涌现能力”之际,我们应思考和审视现有版权制度的逻辑是否需要应时代需求进行调整。
一、循环场域:AIGC赋能文化产业的莫比乌斯之环
1.侵权纠纷处理界定之难题
AIGC赋能文化产业面临两大关键问题:一是提供生成内容服务的AI供应商所使用的模型输入数据是否侵犯了他人的著作权;二是人工智能生成内容(如文本、图像、视频、音频)是否受到著作权法的保护,以及其在被他人商业化使用时是否构成侵权。这两个问题相互关联——前者直接影响后者是否应受保护,这种关联性使得AIGC赋能文化产业领域的侵权纠纷处理变得复杂,如同一个莫比乌斯环,即输入数据是否侵权决定了输出内容的法律地位,而输出内容的法律地位又会反作用于输入数据的选择,双方不断相互影响,形成难以简单界定的循环。对此,我国已有初步的规范可依。2023年8月15日起施行的《生成式人工智能服务管理暂行办法》第七条明确规定,生成式人工智能服务提供者应遵循法律规定,规范进行预训练、优化训练等数据处理活动,并确保训练数据在涉及知识产权时不侵犯他人依法享有的权利。其中的难点在于侵权数据的认定。
众所周知,大模型的训练数据是海量的,且一般属于商业机密,在无法掌握被告训练数据库的情况下,原告往往难以举证[3]。如国内的奥特曼案和《纽约时报》起诉OpenAI案,都是原告基于生成式人工智能服务的输出内容与原告的知识产权内容之间的高度相似性,推断侵权行为,指控被告的生成式人工智能服务输出内容涉嫌侵犯其知识产权。在国际上也有相关判决。美国的“黎明的扎利亚案”对ChatGPT类产品生成内容的版权属性作出否定性裁决。法院认为,用户利用AI绘图工具随机生成的漫画内容缺乏自然人的创造性投入,不构成版权作品。而在国内,北京互联网法院在线公开审理了“春风送来了温柔”纠纷案。法院认为,原告创作的图片(AI文生图)由其独立完成,体现了作者的个性化表达,因此涉案图片具备“独创性”要件,符合作品的定义,属于美术作品,受著作权法保护,原告成功主张了著作权。
2.自我引用内容生成之幻相
自我引用是AIGC模式下生成内容的显著特征之一。AI通过分析大量数据进行学习和生成内容,这些数据往往是由人类产生、包含自我引用和复杂思维的内容。AI在生成新内容时,实际上是在不断引用和重组已有信息。一方面,自我引用在AI生成内容的过程中起到重要作用。通过合理处理和应用自我引用,AI不仅能生成高质量和一致性的内容,还能提升自身的创造力和逻辑性。这种循环性和自我引用性使得AI生成的内容更接近人类思维的深度和复杂性。另一方面,尽管AI生成内容是在自我引用基础上进行新的组合和呈现,但其仍然依赖已有数据,这使得生成内容的原创性和版权归属问题变得模糊。如在2018年,名为“Portrait of Edmond de Belamy”的AI生成艺术作品引发版权争议,该作品由法国艺术团体Obvious使用GAN算法创作,GAN算法利用14世纪至20世纪间罗格斯大学的研究员和艺术家Robbie Barrat整理的15000幅肖像画训练集进行训练,虽然GAN生成的作品是新的组合,但由于其产生的作品与不同肖像画存在部分相似性,因此引起了广泛的舆论关注。
二、人因要素:AIGC赋能文化产业的生产逻辑
AIGC赋能文化产业的循环场域,依赖于创意阶层在各个阶段的参与和干预。没有创意阶层的干预,数据的选择、模型的设计和训练、内容的评估和反馈都无法得到有效实施,这将直接影响整个循环过程的质量和效果。国内外已有的AI生成内容的判决并非采取“一刀切”的做法。细读相关裁判文书可以发现,不同的审判结果源于法官对案件中独创性程度的不同评估。不可辩驳的事实是,现行法规滞后于大规模模型训练以及新兴数据权益保护的发展步伐。在AI相关的司法审判中,法官拥有比商事审判和民事审判更广泛的解释权和判断自由。同时,ChatGPT等AI产品的出现在某种程度上实现了人类长期以来的愿望——从“发明辅助工具”到“培育得力助手”。在“工具阶段”,我们经常讨论的是工具的辅助和赋能创作。而进入“助手时代”,我们不得不面对机器是否能独立思考和创作等主体性问题的深层挑战[4]。在当前的法律框架下,定义和归属文化产业领域人工智能的创作权,首先要厘清人工智能生成内容究竟是谁在其中进行“创作”,以及如何被创作出来的。要想回答这些问题,需要我们对AI技术背后的机理有更深入的理解,认识数据处理和算法优化过程是如何转化为用户对话和内容生成的。
1. 底层生产逻辑:模型生成与“思维”的本质
在以ChatGPT为代表的文生文领域,AIGC智能文本生成类应用展现了惊人的语言理解和生成能力,其核心大型语言模型本质上是基于大量语言数据对文本进行合理延续,这种基于模式识别和统计推断的方法并非真正的“思维”。在图像生成领域,无论是文生图还是图生图的模型,都是先接收用户输入的文本内容或图片与文本的组合,然后对这些内容进行解析,生成含有“噪音”的图片,再通过各种去噪采样方案提升图片质量。去噪过程可以类比为雕刻或在画面的黑白灰关系中进行细节雕琢,这种雕琢力源于海量图片数据的训练和学习。同样的原理也适用于音频和视频生成领域。以OpenAI的MuseNet、谷歌的Music LM、腾讯的TME Studio为代表的音频生成类应用,以及OpenAI发布的首款文生视频大模型Sora等视频生成应用为例,与图像和文本相比,它们需要处理音频波形、生成图像帧,并考虑时间的连贯性和动态信息。但它们的底层生成逻辑与AIGC文生文和文生图并无二致,均基于用户提供的信息和需求,以及深度神经网络对大量作品的学习,从抽象概念演化为具体产出。在这过程中,用户可以通过筛选作品、递进式调整等方式,使作品呈现更多符合个人喜好和需求的特性,这是人工智能生成内容过程中不可或缺的人的参与。
2. 用户参与模式:AIGC应用从被动型走向驱动型
在AIGC领域,技术进步和用户需求的变化推动用户参与模式经历了从被动接受到主动驱动的转变,用户可以选择合适的方式来部署和利用AIGC技术。基于此,当前使用生成式人工智能的能力方式总体可以归纳为三类:直接使用、提示工程、大模型微调。直接使用是指用户通过供应商提供的AIGC应用,不提供信息或者仅提供1—2个关键词,直接一次性生成随机内容。在此过程中,用户的互动和参与极为有限,大多数内容创造的决策和细节均由AI自主完成。用户在这种情况下扮演的角色主要是触发和接收生成结果,不涉及对内容创作过程的深度定向或细节调整。提示工程是指用户通过对AIGC应用发出提示指令来微调少量参数,引导预训练的语言模型执行特定的下游任务,主要通过文本对话的形式操控语言模型,以达到指定的输出结果。如在“春风送来了温柔”纠纷案中,原告通过AI绘图工具Stable Diffusion对人物及其呈现方式等画面元素使用提示词进行了设计,并通过参数设置来调整画面布局和构图,从而创作出作品。大模型微调是指拥有一定技术基础的用户可以通过LoRA、Adapter和Prefix-tuning等方法微调基础大模型以适应特定任务。这种方法适用于数据集类似但数据量较小的情况,能有效提高计算效率和精确度,且所需的训练资源较少,适合社区用户和个人开发者。sNPWiqwr5yXBkRi+o6IGQw==以一个在大规模图像数据集上训练过的预训练图像分类模型为例,为了将其应用于特定领域的图像分类任务(如医学图像分类),用户可以加载预训练模型的权重,冻结大部分分类层以保留通用特征,并添加一个新的输出层,其节点数应与新任务的类别数相匹配。然后对该新添加的输出层进行微调。利用用户从其他来源获取的图像数据集来调整原模型的参数,能够确保模型既能保留通用特征,又能学习并适应新任务的特定特征。
3. 价值创造逻辑:艺术性表达和工业化生产
AIGC赋能文化产业存在两种价值创造逻辑,即艺术性表达和工业化生产。从艺术性表达的角度来看,以美国的AIGC作品《太空歌剧院》为例,该作品凭借其富有创意的叙事和视觉效果,获得了美国科罗拉多州艺术博览会数字艺术类冠军。虽然AIGC在画面生成方面发挥了重要作用,但人类创作者在创作过程中仍占据主导地位。创作者杰森·艾伦通过对生成内容的指导、筛选和调整,确保了作品具有独特的艺术性和情感深度。在艺术性表达的价值创造逻辑中,AIGC扮演辅助者的角色,为人类创作者提供大量的素材和创新工具,但作品的最终呈现仍依赖于人类的审美判断与创意方向。在工业化生产的价值创造逻辑中,AIGC技术实现了空前的生产效率。例如,阿里巴巴的AI设计师“鲁班”利用AIGC技术在双十一促销日期间生成了数千万张海报。在此过程中,人类设计师更多地充当监督者和优化者的角色,为AIGC提供模板和生产规则,并在生成过程中进行实时监控。与艺术性表达相比,工业化生产更注重规模化和效率。AIGC在内容生成上具有更强的自主性,从而实现了文化产业领域的降本增效目标。与此同时,人类设计师与机器的协作催生了“训机师”这一新职业,将人类的创造力与人工智能的计算能力相结合,使设计师能够更有效地引导和优化AI的工作,满足特定的商业和市场需求。
三、法律维度:AIGC赋能文化产业的著作权归属分歧
传统著作权法旨在保护人类创作者的智力成果。然而,人工智能在无人干预的情况下生成复杂内容,如文学作品、音乐、图像、设计乃至音视频等,引发了新型著作权归属的问题,成为当前亟待解决的时代命题。在法律层面,法律界面临定义和保护这些非人类创作成果的挑战,需重新审视现行法律框架,以平衡AIGC技术进步与知识产权保护的关系。
1. 核心原则:聚焦是否具有“独创性”的智力成果
各国著作权认定的核心是作品必须通过作者的独立智力劳动和创造性活动而产生,才能受到法律保护。2021年修订的《中华人民共和国著作权法》明确了作品的法律保护定义,即“文学、艺术和科学领域内具有独创性且能以一定形式表现的智力成果”。在此定义中,“独创性”和“智力成果”是版权制度界定“作品”概念的核心要素。该定义强调,无论智力成果的创造投入了多少劳动或资本,其成为版权保护对象的关键属性是其“独创性”。因此,“独创性”不仅是法律保护的前提,也是权利人主张其版权的基础,并且是版权制度整体架构的基石[5]。全球各国版权法律及国际版权公约均以不同方式明确了“独创性”的核心原则,确保创作的原创性得到认可和保护。
2. 争议焦点:人工智能生成内容中的人类干预程度
在文化产业领域,学界普遍认同人工智能在当前阶段不具有著作权主体地位。国际社会在这一问题上的法律框架和实践各异,但总体上可以归纳为三种类型[6]。其一,《保护文学和艺术作品伯尔尼公约》并未明确规定AI生成作品的权利归属,而多数国家的版权法都要求作品必须有“人类作者”。其二,美国的《版权登记指南:包含人工智能生成材料的作品》明确指出,没有人类创作因素的AI生成物不能获得版权保护,拒绝登记那些仅由机器、纯粹的机械过程或仅有指令输入而没有人类作者任何创造性投入情况下随机或自动运行产生的作品,并在审查时根据具体情况进行个案判断。其三,《欧盟人工智能技术发展知识产权报告》强调,技术创作应在现有知识产权法框架下获得保护,但AI单独创作的作品可能不符合版权法的原创性要求。此外,国际保护知识产权协会(AIPPI)也指出,只有在人类有干预的情况下,AI生成物才可能获得版权保护。
“人类干预”和“人类创作因素”指的是作品创作过程中必须有作者的直接参与和智力劳动。这些概念在国际保护知识产权协会和美国版权局的文件中均有体现。因此,人工智能生成产物的过程中是否有人为介入,成为决定其是否受到知识产权保护的判断标准。然而,“人工干预”的具体程度仍需进一步探讨[7]。生成式人工智能的产出物在大模型学习资料、生成指令、结果修正等方面都离不开人的参与,而“人工干预AI创作”的标准目前存在争议[8]。
3.平台策略:独占版权和将版权与风险责任转嫁的博弈
在文化产业领域,生成式AI向公众提供服务时所涉及的版权认定,主要体现在用户与AI生成内容之间的博弈。以腾讯与上海盈讯科技之间的著作权权属、侵权纠纷及商业贿赂不正当竞争纠纷案为例,腾讯自主开发了人工智能写作辅助系统,并利用该系统完成了一篇文章。在官网发表涉案文章时,腾讯在文末注明“本文由腾讯机器人Dreamwriter自动撰写”。原告主张对涉案文章享有著作权,而被告上海盈讯科技在其网站上传播并使用了该文章,原告要求被告停止传播、刊登声明、赔偿经济损失和合理开支等。法院最终认定原告是适格的主体,被告侵犯了原告的著作权。与此类似的是北京互联网法院在线公开审理的“春风送来了温柔”纠纷案,此案著作权归属的判决依据在于AI生成内容过程中人类智力和独创性的体现,即人的参与程度。使用者训练越精准,可选择性越多,最终取得生成内容著作权的可能性越大。
与国内AIGC平台不同,国外AIGC平台更关注扩大收费用户规模,为此他们甚至愿意为用户承担潜在的诉讼费用。根据OpenAI的使用条款,只要用户遵守使用条款(包括使用限制),OpenAI就会将其在输出内容中的所有权和利益转让给提供输入内容的用户。微软、谷歌、OpenAI等多家公司都承诺,若付费用户因使用其提供的AIGC产品或服务而面临第三方侵权索赔,公司同意承担相应的赔偿责任。2023年9月7日,微软发布了Copilot版权承诺书,表示若商业用户因使用Copilot或其生成输出内容而遭到第三方基于版权的侵权诉讼,微软将同意为该用户辩护并支付因案件产生的赔偿金,前提是该用户已使用产品中内置的防护装置和内容过滤器,并遵守其他条款。平台通过用户协议明确权利归属和责任划分,是减少潜在冲突的有效方法[9]。此外,由于机器学习的特性,不同用户可能会从AI中获得相同或相似的输出内容。根据OpenAI的条款,只有独有且唯一的输出内容才有资格进行权利转让。
四、分层善治:法治框架内AIGC赋能文化产业高质量发展进路
AIGC赋能文化产业是数字化、智能化时代的需求,简单粗暴的“抵制”并不是明智之举,更为理性和前瞻性的做法是在法治框架内划分权责、制定适应AI新技术的规则。随着算法、数据和算力的不断提升以及AI芯片、智能传感器、云计算服务等关键技术的发展,AIGC赋能文化产业正逐渐形成一个多层次、高度集成的技术文化生态系统。这表明,随着AI等新兴技术在文化产业领域的深度应用,对相关法律问题的研讨——从知识产权保护到数据隐私,再到反垄断法规和内容版权,已成为文化产业可持续高质量发展的关键。
1. 上游基础层:AIGC赋能文化产业底层驱动的法规创新
AIGC赋能文化产业的上游基础层提供人工智能技术和基础设施,成为整个系统的重要支柱,这包括数据供给、数据分析与标注、创造者生态层和相关算法的开发。在基础层中,AI芯片、智能传感器、云计算服务、数据类服务以及5G通信等共同为AIGC赋能文化产业提供技术支撑,数据、算力和算法是其底层驱动的核心要素。在数据层面,AIGC依赖高质量且多样的数据资源,包括结构化与非结构化数据,来源涵盖用户、公开域和私有域数据,处理方式包括筛选、标注、增强等,以确保数据的质量与适用性。在算力层面,CPU、GPU、DPU等半导体设备与服务器,大模型算力集群和基于IaaS的分布式训练环境,为AIGC提供了坚实的基础。在算法层面,通过模型设计、训练、推理和部署构建完整的机器学习平台,实现对实际业务的全面覆盖和支撑。上游基础层依靠全面的人工智能技术与数智基础设施,奠定了AIGC赋能文化产业系统的重要基石。为确保这一体系的可持续发展,相关部门应完善AIGC法律和监管体系。
第一,健全与规范数据要素市场的法律体系。数据作为训练大模型的基础,其质量、可获得性和合规性直接影响AIGC的效能和安全。数据具有非竞争性、无限复制性和独特的生命周期,并在价值创造方面具有规模报酬递增、规模效应、质量依赖和高度异质性等特征[10]。一方面,由于数据的非竞争性,其可以被多个数据处理者同时使用,而不会影响其自身价值,因此传统的交易机制不再是最有效的资源配置方式。另一方面,数据要素的价值高度依赖于模型、模型中的其他数据以及应用场景等因素,导致其在交易中的价值具有高度不确定性,阻碍了数据的自由流通。例如,Reddit上的聊天内容成为谷歌、OpenAI和微软等企业训练AI大模型的素材,Stack Overflow计划从2024年起向大型AI开发商收取数据访问费用,这表明数据供应商对其内容的价值认识逐渐加深,通过商业化策略来实现其价值最大化,并促使行业制定更为精细和高效的数据管理和交易机制。这有助于确保数据来源的合法性、处理过程的透明度以及使用目的的明确性,减少数据使用中的侵犯隐私、数据盗用等不当行为,为AI公司提供清晰的合法获取和使用数据的途径。
第二,优化算力分配与监管的法律框架。在AIGC时代,算力已逐渐成为新的生产力标志。在数智时代,窃取算力如同电气时代盗窃电力,两者都是非法占有主要生产资源的行为[11]。我国已有司法实践表明,在安邦非法控制计算机信息系统案中,法院通过刑法对算力盗窃行为进行规制,但当前的处罚方式是在非法控制计算机信息系统罪和盗窃罪中选择较重的罪名进行处罚。由于缺乏针对算力规制和监管的措施,在各种软件均可潜在非法利用用户硬件算力的现状下,算法滥用和算力盗窃问题日益严重。在此情境下,应建立监管体系,规制算力市场,避免算力资源的滥用和窃取,维护数智时代的生产秩序和资源公平性,并推动算力资源和数字资源的开放共享,促进算力资源的健康发展。
第三,提升算法合规性与安全性评估的法律标准。“算法即权力”已成为技术领域的普遍共识。随着数字经济的持续发展,算法的作用和影响将愈发显著。然而,算法作为由人设计的分析和决策工具,往往具有固有的利益偏向,如果不加以管控,可能会损害社会的公平和秩序。当前我国尚未出台算法如何分类分级及实施监管的具体制度,在通过算法挖掘数据价值、推动经济发展的同时,应坚持遵循算法积极向上、向善的原则,在发展数字经济与保护个人权益之间找到平衡。一方面,建立算法开发和部署的合规性要求,特别是对于敏感应用场景;另一方面,引入第三方算法审核机制,确保算法的公平性和安全性,避免可能存在的偏见和歧视。此外,设立算法沙盒环境,便于企业在受控环境中进行算法测试。
2.中游技术层:增强AIGC赋能文化产业的大模型安全保障
AIGC赋能文化产业的技术层涉及AI的垂直化、应用化以及场景化的模型和应用工具,涵盖底层通用大模型和中间层模型,包括开源和非开源的基础模型,以及模型托管平台。当前,AIGC充分展现了高质量训练数据在文化产业价值创造中的叠加和倍增作用。大模型训练语料及其输出结果将成为未来社会和文化生产中的重要数据资产,其有序流转和合规使用是发展数字经济的应有之义。
第一,相关部门应加强大模型训练语料的安全合规认证与管理。随着AI技术在文化产业领域的应用日益广泛,其对语料的依赖也日益增加。在此背景下,确保训练语料的质量和安全性,防止误导信息或不当内容被学习和放大,保证大模型的输出结果符合公序良俗和法律法规要求,是促进AIGC赋能文化产业健康发展的必要条件。此外,建立合规认证体系不仅有助于监管机构有效监督管理AI产品的开发和应用,也为AI企业提供了规范操作的框架,使其在创新中注重伦理与责任。
第二,监管机构应规制AIGC大模型的网络安全风险和隐私泄露问题。从现有安全风险来看,攻击者可能通过恶意数据操纵模型,如输入带有特定关键词或结构的数据,试图使模型产生偏差或错误结果。对此,亟须加快制度设计,在数据输入上建立严格的过滤和验证机制。此外,如果模型在包含敏感信息或个人信息的数据上训练,攻击者可能通过特定查询推断出训练数据的内容,即所谓的“推断攻击”。因此,亟须在规制举措上采用差分隐私技术,减少特定数据对模型输出的影响,并在数据集中采取删除或匿名化敏感信息等手段保护用户的隐私安全。
3.下游应用层:完善AIGC赋能文化产业的内容规范
AIGC赋能文化产业的应用层面涉及向消费者提供文字、图片、音视频等内容生成服务,并根据不同的价值创造逻辑分为直接生产消费内容、结合底层系统生产高附加值内容、提供内容生产辅助工具以及提供体系化解决方案四大类别。目前,大型语言模型在生成过程中可能出现的“幻觉”现象如逻辑问题、关键信息混淆或无中生有等,仍难以完全消除[12]。这些问题源于模型的训练方式——通过大量文本数据的统计学习来预测下一词汇或句子,生成对话和文本。虽然这种方式能够提高输出内容的流畅性,但同时也可能引入事实性错误。因此,AIGC开发者和技术提供者需尝试结合生成模型与外部检索机制来提高内容的准确性和相关性,如在生成过程中实时查询外部信息源,以验证和丰富生成内容,规范AIGC赋能文化产业的健康有序发展。
第一,相关部门应加大对深度伪造技术的监管与打击力度。当前,AI换脸、语音模拟、人脸合成、视频生成等恶意应用手段生成的深度伪造信息,不仅加深了公众对公开信息的不信任度,还可能导致虚假的信息与形象被用于诈骗、政治干预、煽动暴力等破坏公共利益的行为,造成极大的安全风险。对此,应明确界定深度伪造技术的合法与非法用途,加大对非法使用的处罚力度,引入“恶意使用”和“知情同意”的法律概念,确保只有在获得被仿造者明确同意的情况下才能使用其面部或声音数据。对于利用深度伪造技术从事诈骗、政治干预、煽动暴力和犯罪的行为,应明确规定更为严厉的刑事处罚,并将深度伪造视为情节加重因素。
第二,相关单位应加强知识产权的配置与保护措施。上文提到的奥特曼案和《纽约时报》起诉OpenAI案表明,尽管此类诉讼不断增加,但并非所有指控都能得到法律支持,因为已有较多案例法支持转化性使用作为合理使用。例如:涉及剽窃检测器TurnItIn.com案件的判例允许吸收作品以创建数据库用于揭露学生的剽窃行为;“Kelly v.Arriba Soft”(凯利诉Arriba软件公司侵权案)案例认定以缩略图形式复制和展示照片属于合理使用;美国谷歌图书案中,法院认为谷歌在未授权的情况下将受版权保护的书籍电子化供检索并展示小部分内容属于“合理使用”。这些被认定为“合理使用”的案件通常依赖于具体事实,并不能作为完全的参考标准应用到不同程度类似的案件中。因此,应明确定义生成式人工智能产出内容的知识产权归属和使用界限,鼓励法院在判例中探索和阐述AI与知识产权关系的具体法律问题,使法律适应AI技术发展的需求。
第三,非营利性机构使用AIGC服务公共文化或公益活动时,应享有一定的豁免政策。如非营利组织在使用AI进行数据分析、健康管理、教育培训时,可以免于某些商业性规定的限制,以此更有效地利用AI技术提升文化服务质量和覆盖范围。特别是在传统文化领域,可通过AIGC赋能推动中华优秀传统文化的数智化创新进程[13]。此外,为确保AIGC赋能过程的透明和合法,可建立非营利AI应用备案制度,要求相关机构定期提交AI应用报告,接受社会监督和法律审查,确保AI应用不会对社会造成负面影响,并适时承担相应的法律责任和道德义务。
第四,相关部门应加快AIGC赋能文化产业应用的认证制度和补偿机制。如:对符合规定的AI应用进行认证,提供准入和信用评级参考;对AI应用进行动态监测和评估,及时发现和处理潜在的风险和问题。以算法责任为中心的美国模式提出 “反歧视、回馈与救济、算法可问责、算法可解释、数据来源、算法可审计验证与检测”的原则,主张建立算法失灵的社会补偿机制、算法脱轨的问责归责机制[14]。由此,确保AIGC技术既促进文化产业创新,又尊重传统价值,以开放式创新与伦理守正创新并举的发展基准,赋予AIGC赋能文化产业高质量发展的人文关怀和法律责任。
|参考文献|
[1]花建. 提升数字文化消费新机制:FCS研究框架、三大维度和提升重点[J]. 上海财经大学学报,2023(6):15-27.
[2]李晓宇. 博弈论下人工智能生成数据作品中利益冲突及破解[J]. 科技与法律(中英文),2022(3):51-59.
[3]周学峰. 生成式人工智能侵权责任探析[J]. 比较法研究,2023(4):117-131.
[4]司晓. 奇点来临:ChatGPT时代的著作权法走向何处:兼回应相关论点[J]. 探索与争鸣,2023(5):79-86.
[5]于文. 利益平衡的修辞术:“独创性”概念的生成、误读与反思[J]. 现代出版,2022(3):75-89.
[6]张春春,孙瑞英. 如何走出AIGC的“科林格里奇困境”:全流程动态数据合规治理[J]. 图书情报知识,2024(2):39-49.
[7]张凌寒,郭禾,冯晓青,等. 人工智能生成内容(AIGC)著作权保护笔谈录[J]. 数字法治,2024(1):1-26.
[8]种晓明. AIGC赋能出版业背景下版权监管新路径研究[J]. 科技与出版,2023(8):96-104.
[9]谭佐财. ChatGPT的法律风险与治理路径[J]. 湖南科技大学学报(社会科学版),2023(3):117-125.
[10]翁翕. 加快推进数据要素市场化建设充分发挥数据要素作用[J]. 中国经贸导刊,2022(3):31-32.
[11]汤道路. 算力盗用:一种新型财产侵害[J]. 政法论丛,2022(3):132-140.
[12]刘庄. 幻象与本相:法律人工智能及其他[J]. 中国法律评论,2024(2):128-138.
[13]雷文宣,解学芳. 从封存式到活态化:中华优秀传统文化的数智化创新[J]. 出版广角,2023(19):11-18.
[14]解学芳,祝新乐. “智能+”时代AIGC赋能的数字文化生产模式创新研究[J]. 福建论坛(人文社会科学版),2023(8):16-29.