[摘要]作为文生视频类人工智能,Sora不仅促进了技术的革新,还因自身独特的技术架构引发了人们对著作权法中关于文生视频认定标准的重新审视。AICG背景下,文生视频的著作权风险的规制是一项涉及政策、法律、科技、产业等多个领域的系统性工程,需要多方力量共同推进。为了有效规制AIGC背景下文生视频的著作权风险,相关主体应从文生视频的技术演进出发,系统分析文生视频的著作权风险,深入探究文生视频的著作权风险规制因应,从法律、制度、组织、平台等多方面提出有效的优化策略。
[关键词]人工智能;著作权侵权;生成式人工智能;Sora;文生视频;著作权风险
一、问题的提出:技术演进下的著作权保护困局
2024年2月15日,美国人工智能研究公司OpenAI再度颠覆人工智能研究领域的既定格局,推出名为Sora的文生视频模型。Sora能够根据用户提供的文本指令,生成时长最多可达60秒的逼真视频内容,其可以理解物体在物理环境中的实际存在状态,具备高度模拟真实物理世界的能力,并能创造出包含多个角色及特定运动模式的复杂场景。
相较此前的文生文、文生图等模态的大模型,以Sora为代表的文生视频模型具有突出特点。首先,文生视频模型的出现标志着人工智能模型的理解能力迈上了新台阶,它能够准确理解上下文关系和语境,从而生成更加贴合原始文本含义的视频[1]。其次,文生视频模型生成的视频效果极为逼真,无论在视觉呈现还是语境表达上都能模拟真实场景,如Sora不仅能够根据文字指令创作出新的视频内容,还能对已有的视频和图像进行扩展、框架调整、角度变换以及动态化处理等多种灵活操作。再次,Sora对知识库进行了优化,掌握了更广泛且更准确的知识内容。同时,从用户控制方面来看,Sora赋予了用户引导对话方向和风格的能力,用户可以通过指令明确表达自己的期望,从而控制对话的发展。最后,Sora实现了多模态融合,从模态支持的角度看,Sora是一种多模态对话模型,可以同时处理文本和图像。
当前,随着人工智能技术的飞速发展,文生视频的著作权问题,已经对我国著作权法律制度产生了不小的冲击。文生视频的获取与利用存在著作权侵权风险,学界需要着重探讨文生视频的著作权风险及规制路径。
二、AIGC背景下文生视频与传统视频的不同之处
(一)创作主体的差异
传统视频制作依赖人类创作者的想象力和创造力,强调不断创新,以探索新颖的故事表现形式及艺术风格,其与文生视频的核心差异在于,文生视频并非用户实际创作的视频,而是大模型从素材库中选取文本、图像或视频素材,依据用户输入的关键词进行精准匹配,从而生成视频作品[2]。此外,在传统视频制作过程中,人与人之间的合作与互动至关重要。从创意构思到后期制作,人类创作者之间的协同工作不可或缺。然而,文生视频模型在这一方面仍无法取代人类。
(二)生产形态的差异
短视频的制作与剪辑融入了诸多充满创意的元素,包括情节的巧妙构思、视觉效果的完美呈现以及氛围的精心营造等,这些环节深深依赖于人类的艺术感知和直觉判断,是单一算法或机器学习技术所无法完全替代的。相比之下,文生视频则更侧重于模仿与生成。文生视频模型通过广泛参考并整合众多人类作品,学习并模拟特定的创作模式,从而生成类似的内容。虽然文生视频模型能够在某些简单的场景中完成短视频的制作与剪辑任务,但在面对复杂场景时,其缺陷便暴露无遗。
(三)创作成本的差异
传统视频制作要求制作者具备专业的技能和丰富的经验,而文生视频模型的出现显著降低了这一门槛。现在,普通人只需通过简洁的文本指引,即可使Sora生成符合要求的视频内容。Sora凭借自身的深度学习和指令响应能力,让用户能够根据需求轻松输入关键词,快速生成高质量的视频[3]。相较之下,传统视频制作过程繁琐且耗时,从策划、拍摄到后期剪辑,每个环节均须制作者投入大量的时间和精力。
三、AIGC背景下文生视频的著作权侵权风险
文生视频的出现,不仅激发了学术界对作品创造性、表达形式及作品本质等深层次议题的热烈讨论,其对著作权法的潜在影响也日益显现,给著作权法带来了挑战。
(一)文生视频的著作权侵权风险梳理
1.侵犯复制权的风险
对Sora来说,用户输入的视图信息越丰富,Sora便越能为用户提供优质的交互体验。然而,从Sora的训练数据来看,这些训练数据的来源不仅包括公共领域的作品,还包括那些仍处于版权保护状态之下的作品。
从本质上来说,Sora的数据训练是一种机器学习。相关主体如果将机器学习视作一种复制行为,则文生视频模型处理著作权保护下的作品将需要获取原作者的授权,这会限制AI技术的创新发展。反之,相关主体若将机器学习排除在复制范畴外,则现行著作权制度或将面临保护不足之虞,进而危及原作者的合法权益。实际上,机器学习的核心在于文生视频模型通过详尽分析并汲取海量数据样本,以创作出前所未有的内容。这一过程与直截了当的复制或剽窃行为存在本质区别,其目标不在于简单复制既有作品,而是基于深度分析,生成独立且具有独创性的新作品[4]。尽管机器学习在技术层面上与直接复制行为不同,但是当前的著作权法律体系尚未对此给予清晰界定,因此产生了一个法律模糊地带,即文生视频模型利用受著作权保护的作品作为机器学习训练数据的行为,是否构成对原作者著作权的侵犯?从技术的视角审视,文生视频模型的优化高度依赖于充足的数据训练,这是提升其精准度与创造力的基础。但从法律维度来看,文生视频模型未经授权使用受著作权法保护的作品作为训练数据,则可能触碰到著作权法的红线,从而引发法律争议。即便已获得授权,文生视频模型超出授权范围的使用仍可能构成侵权。
2.侵犯改编权的风险
若未经著作权人许可,文生视频模型擅自对原作品内容作出变动并以此为基础创造出具备独创性的新作品,很可能构成对作者改编权的侵犯。就Sora的生成模式而言,其在训练过程中必然需要将所收集的数据转换为结构化形式,这一转换不可避免地涉及对原始数据内容的调整,这极有可能侵犯著作权人的改编权[5]。除了根据纯文本生成视频,Sora还具备文字与图片组合生成视频、扩展视频内容以及视频融合等功能。这些功能在本质上都是对原有作品内容的再利用,文生视频模型无论是将图片作品转化为视听作品,还是对已有视听作品进行改写或扩展,只要产生了具有独创性的新作品,即可能构成对原作品的改编。此外,当文生视频模型对用户输入的图片、音乐、文本等素材经过非线性编辑,通过二次编码生成新视频时,同样可能构成改编行为,侵犯著作权人的改编权[6]。相关主体须从新的审视维度重构新旧作品间相似性的评估准则。
3.侵犯信息网络传播权的风险
信息网络传播权指通过有线或无线手段,向公众提供作品内容,并允许公众自行选择时间与地点获取该作品的权利。对非公有领域的信息,他人获取和使用应当经著作权人许可并支付一定报酬。信息网络传播权本质上属于一种具有排他性质的权利,它赋予权利人对传播的范围与方式等关键要素的控制权,以确保其权益得以有效实现。作者通过“创作—发布至网络—广泛传播”的流程,以此向公众开放并对作品实施管理,进而达成收益目标。
用户在信息网络平台上发布由Sora生成的视频,可能引发信息网络传播权侵权风险。Sora基于算法自动生成内容,并通过可视化的形式呈现内容。在此过程中,所需的数据或素材须通过互联网进行传输。鉴于Sora生成视频的网络特性,若未经著作权人授权,无论是直接还是间接地整理、组合他人未获许可的作品,并通过互联网向用户提供,使用户能够在选定的时间和地点获取这些作品,甚至将这些作品上传至网络平台供公众浏览,这种行为很可能侵犯原作品的信息网络传播权[7]。信息网络传播权作为著作权体系中的一项经济性权益,旨在为创作者提供经济回报的渠道。目前,互联网已成为生成视频广泛传播的重要渠道。因此,用户使用Sora生成视频并在网络平台上进行传播,面临侵犯原作者信息网络传播权的风险。
4.文生视频技术驱动下的表演者权
随着文生视频模型的不断发展,我们面临新的法律挑战:文生视频模型能够生成以真实演员形象为角色的视频作品,那么当这样的作品产生时,是否赋予那些仅提供肖像但未实际参与创作的演员以法律上的“表演者权”?在文生视频的技术架构下,用户将包括真人演员实时表演的动作、语音及神态数据在内的多种数据输入模型[8],这些数据体现了数据来源者的表演者权利。然而,最终视频呈现的“表演”并非这些数据的直接展现,而是经过模型运算以及使用者细致筛选后的“再加工”产物。因此,对真人演员而言,他们无法对虚拟数字人的表演活动主张表演者权。尽管虚拟数字人的表演成效源自制作者的选择与解读,但在此语境下的“制作”应被理解为改编流程中的录制环节,而非传统意义上的表演艺术创作。因此,使用者同样无法获得表演者权利。
(二)文生视频生成物的邻接权保护
将邻接权机制应用在文生视频的保护中,是当前阶段相关主体调和多元利益的关键策略。
以Sora为例,尽管其创作过程有别于传统的电影摄制路径,但同样是通过先进技术将图像、音频、文字等多种元素巧妙融合,打造出动态且充满艺术魅力的表现形式。这一特性使得Sora生成的视频与传统视听作品具有高度的相似性,从而进一步增强了将其纳入邻接权保护范畴的合理性。文生视频背景下,虽然文生视频模型研发者、使用者对内容本身并未做出实质性贡献,但他们却对内容的生成与传播拥有直接的控制力[9]。与传统作品的保护不同,相关主体无须过分纠结文生视频是否具备独创性,而是应关注其在实际应用中的经济价值,将文生视频纳入邻接权的保护范畴,有助于激励内容的生成、传播与利用。此举不仅解决了文生视频与人类独创作品界限模糊的难题,还有助于明确权利归属,有效解决相关纠纷。
此外,鉴于文生视频的产出具有高速、批量等特点,相关主体若给予其等同于人类创作作品的长期保护期,可能会导致短期内形成著作权壁垒[10],阻碍文化交流与传播。因此,从提高文生视频使用率和降低交易成本的角度出发,相关主体应当适当缩短文生视频的邻接权保护期限。
四、AIGC背景下文生视频著作权风险的规制因应
(一)完善文生视频的法律规范体系
相关主体应设立法定许可规则,允许文生视频模型在未经许可的情况下使用这些作品,但必须向著作权人支付合理的报酬。这种制度设计旨在防止著作权人拒绝授权作品数据使用权给模型训练者,确保文生视频模型拥有充足的训练数据。此外,借鉴欧盟委员会在2021年4月21日发布的《人工智能法》,我国也应尽快出台一部综合性的人工智能立法,为人工智能治理提供坚实的“硬法”支撑。
相关主体通过立法在对文生视频的著作权进行规制的同时,还须综合运用宣言、行业惯例等“软法”,以发挥其在治理中的积极作用。“软法”具有灵活性、民主合法性、技术性和利益均衡性等特点,能有效弥补“硬法”在规制上的不足。鉴于文生视频的法律保护路径尚处探索阶段,且修改解释现行著作权法须经过繁琐的法律程序,因此相关主体可优先发布相关国家保护政策,为文生视频的保护提供宏观指导[11]。同时,相关主体应鼓励人工智能行业积极发挥主动性,形成具有共识性的行业标准和惯例,从而有效保障文生视频相关权益主体的利益。
(二)引入文生视频登记制度
为切实保障文生视频的权益,同时防范其过度挤占人类创作物的市场空间,以致阻碍人类创作的进步,相关主体应建立并完善文生视频登记制度。相关主体须明确著作权登记的主管机关。当前,我国的著作权登记体系采用的是由中国版权保护中心进行集中管理,而各地则采取分散登记的模式。面对登记机构众多、管理混乱的现状,国家版权局已于2023年7月发布了最新的全国作品登记机关和办理机构名录,对由各省设立的非官方登记机构进行了清理,旨在进一步规范作品登记流程[12]。因此,相关主体在选择人工智能创作物的登记机关时,可以充分利用我国现有的、已经发展成熟的登记机关管理体系,这样不仅能确保登记的规范性,还能在一定程度上节省设立新机构所需的成本。
通过引入文生视频登记制度,相关主体不仅能够筛选出劣质、低俗、违法的文生视频作品,还能够为文生视频打上专属标签,提供“由人工智能生成”的风险提示,从而便于公众在日常生活中区分人类作品与文生视频。在发生侵权事件时,由于已登记文生视频所有者的信息,这为被侵权人提供了便捷的维权渠道,使其能够迅速锁定相关责任人。若文生视频的所有权人未履行其管理职责,行政机关将依法对其处以相应数额的罚款[13]。相关主体通过构建一个健全的文生视频准入和退出机制,能够确保文生视频的有序发展。
(三)优化平台著作权自治模式
平台应肩负起主体责任,积极弥补数字时代法律治理的不足和监管资源的匮乏。在数据使用方面,平台应确保训练数据的真实性和合规性,并在信息生成的过程中,构建完善的风险防控与审核体系,以控制错误内容及侵权信息的生产与传播。
将成熟的著作权监控与内容识别技术运用纳入互联网平台的法定责任范围,将成为互联网平台发展及文生视频技术进步的必然趋势。以抖音平台为例,其要求人工智能生成的数字化形象必须备案,并在举报反馈选项中增加了“AI生成内容问题”的选项,以加强内容的监管[14]。Sora等文生视频模型的研发机构也须通过水印等方式,对人工智能生成的视频内容设置“由人工智能生成”的风险提示。此外,平台应建立投诉通知机制,允许用户和著作权人针对违法或不良信息向平台投诉[15]。平台在收到投诉后,应在合理期限内采取必要措施,如数据清理和算法调整,以防止违法内容的进一步传播。为完善技术审查环节,平台还应建立“通知—反馈”机制,一旦收到著作权人关于涉嫌侵权的通知,平台应立即进行审查,若确认内容侵权,其应赋予权利人选择权,即同意使用并支付合理报酬,或选择退出,要求删除或屏蔽相关内容[16]。这样的机制既尊重了著作权人的权益,也确保了平台内容的合规性。
五、结语
文生视频的法律监管不仅关乎著作权人的核心利益,还与行业的蓬勃发展、技术的不断创新紧密相连。不论人工智能技术如何演进,其依旧是人类智慧的产物,是人类的辅助工具,相关主体应确保著作权的合规性成为技术研发与应用不可触碰的红线,坚守以人为本的著作权应用原则,应立足本国国情,秉持开放包容的态度,适时调整现有的法律框架与作品判定准则,促进科技的进步与创新,推动整个社会的持续发展。
[参考文献]
[1]周文康,费艳颖.Sora生成视频的著作权规制困境及化解路径[J].出版广角,2024(05):35-42.
[2]丛立先,李泳霖.人工智能文生视频大模型的作品风险、著作权归属及有效治理[J].新疆师范大学学报(哲学社会科学版),2024(06):101-111.
[3]周文康,费艳颖.生成式人工智能创作使用作品的合理使用调适[J].科技与法律(中英文),2024(03):77-87.
[4]何萍,刘继琨.法域协调视角下生成式人工智能产物涉知识产权问题研究:以ChatGPT为例[J].法治研究,2024(03):47-56.
[5]顾男飞.生成式人工智能发展的产业促进与风险规制:以Sora为例[J].图书馆论坛,2024(11):120-128.
[6]吴汉东,刘鑫.生成式人工智能的知识产权法律因应与制度创新[J].科技与法律(中英文),2024(01):1-10.
[7]张新宝,卞龙.人工智能生成内容的著作权保护研究[J].比较法研究,2024(02):77-91.
[8]王瑶,李胜利.生成式人工智能的版权风险及其应对:以ChatGPT为视角[J].海南金融,2023(10):49-58.
[9]邓建鹏,赵治松.文生视频类人工智能的风险与三维规制:以Sora为视角[J].新疆师范大学学报(哲学社会科学版),2024(06):92-100.
[10]朱鸿军,李辛扬.ChatGPT生成内容的非版权性及著作权侵权风险[J].新闻记者,2023(06):28-38.
[11]马忠法,肖宇露.人工智能学习创作的侵权困境与出路[J].武陵学刊,2019(05):66-76.
[12]颜卉.算法驱动型虚拟数字人涉侵权纠纷的规范解决路径[J].重庆大学学报(社会科学版),2024(02):182-194.
[13]宋伟锋.生成式AI传播范式:AI生成内容版权风险与规制建构:以全球首例AIGC侵权案为缘由[J].新闻界,2023(10):87-96.
[14]郑飞,夏晨斌.生成式人工智能的著作权困境与制度应对:以ChatGPT和文心一言为例[J].科技与法律(中英文),2023(05):86-96.
[15]顾男飞,方舟之.ChatGPT等生成式人工智能使用作品的合理边界与侵权规制[J].数字图书馆论坛,2023(07):1-8.
[16]朱光辉,王喜文.人工智能文生视频大模型Sora的核心技术、运行机理及未来场景[J].新疆师范大学学报(哲学社会科学版),2024(04):149-156.
[作者简介]毛佳琪(2001—),女,河南许昌人,西安财经大学法学院硕士研究生。