新质生产力视域下人工智能生成内容的可版权性与治理路径

2024-09-30 00:00:00赵雅琦
出版广角 2024年15期

【摘 要】人工智能技术在内容创作领域的应用引发关于其生成内容的可版权性与治理路径的讨论。探讨人工智能生成内容的特性、版权归属及治理策略,分析其原创性、作者身份和创作意图的法律界定,提出立法、行政和技术层面的治理路径,以期为相关法律制度的完善与实践操作提供参考。

【关 键 词】新质生产力;人工智能生成内容;可版权性;治理路径

【作者单位】赵雅琦,洛阳师范学院。

【中图分类号】D923;TP18 【文献标识码】A 【DOI】10.16491/j.cnki.cn45-1216/g2.2024.15.010

2023年9月,习近平总书记在黑龙江考察调研期间首次提到“新质生产力”,同年12月,中央经济工作会议强调要“以科技创新推动产业创新,特别是以颠覆性技术和前沿技术催生新产业、新模式、新动能,发展新质生产力”。2024年1月31日,习近平总书记在主持中央政治局第十一次集体学习时,对发展新质生产力的一系列重大理论和实践问题进行了系统阐述,为推动高质量发展提供了科学指引。全国两会期间,“加快发展新质生产力”被写入政府工作报告,习近平总书记在参加江苏代表团审议时强调,“要牢牢把握高质量发展这个首要任务,因地制宜发展新质生产力”。随着以5G、云计算、大数据、人工智能、物联网和区块链为代表的信息技术革命成果的高效转化,全球进入产业数智化时代,出版行业的融合发展在人工智能技术场景化运用的推动下,从数字化阶段进入数字化数据化智能化协同发展的新阶段。新一代以ChatGPT为代表的生成式人工智能依托大规模数据集中学习并创造新内容,成为出版业态不断升级的新引擎,同时也为出版内容资源的整合和优化带来多重风险与挑战。在此背景下,研究人工智能生成内容的法律属性,探究其版权归属并对出版内容版权审查规则进行应对性调整,是确保供给优质原创出版内容,以创新驱动出版深度融合发展的关键。

一、算法模型差异化视角下人工智能生成内容的应然范围

在数字技术和媒体深度融合的影响下,知识信息来源趋向多元化,因知识生产主体存在身份、信息资源等方面的差异,导致内容生产模式呈现类型化的特点。相较于UGC(用户生成内容)、PGC(专业生成内容)而言,人工智能自21世纪10年代中期至今,在深度学习算法不断迭代的技术基础上,得到开源模式的强力推动,迅速融入产业化的探索之中。需要关注的是,人工智能的核心在于机器学习,机器学习依赖不同的算法模型产生不同的内容。生成式人工智能基于生成式模型得以运用,其工作原理是通过学习数据的生成过程,生成与训练数据类似的新数据,与之不同的是以判别式模型为核心的判别式人工智能。通过对两者的多维度比较,我们可以更透彻地理解人工智能生成内容的版权内涵。

第一,从数据生成过程来看,判别式人工智能基于对以往数据的学习形成模型,然后通过模型获取事物特征并进行预测。生成式人工智能则是基于对数据生成过程的学习形成模型,然后通过学习模型参数来建模以模拟数据生成过程,最终使用模型参数生成新的数据。

第二,在数据质量要求方面,判别式人工智能对所学习数据有量的要求,通过对海量数据的识别和学习来建模,在这个过程中,还需要对数据进行加工,即数据标注,经过标注处理后的结构化数据才可为判别式模型学习,类似于机器学习中的监督学习。生成式模型则不需要人工标记数据,即可从大量未标记的数据中挖掘数据之间的关系和模式,更接近无监督学习。

第三,从成果形式来看,根据2023年7月由国家网信办联合国家发展改革委、教育部、科技部等7部门发布的《生成式人工智能服务管理暂行办法》,人工智能生成内容(AIGC)的形式主要包括文本、图片、音频、视频等。事实上,生成式人工智能创建新内容的形式除了上述立法中概括的,还有代码、3D交互内容等,并且已在产业中广泛应用。判别式人工智能的成果形式主要有图像、文本、语音识别等,侧重运用于人脸识别、推荐系统、风控系统等场景。

当前学术界对人工智能生成内容的称谓五花八门,包括“人工智能生成物”“人工智能创作物”等,即使有些称为“人工智能生成内容”,但实际上仍然是在生成式模型如ChatGPT的技术背景下展开的探讨。因此,笔者认为有必要从逻辑上厘清人工智能生成内容的应然范围。人工智能生成内容这一个概念是以生成媒介为角度,比照用户生成内容、专业生成内容而产生的,这一层级的分类并未涉及对人工智能、普通用户或者专业用户这些生成媒介类型的层级划分。根据算法模型的区别,人工智能生成内容应进一步区分为生成式人工智能生成的内容、判别式人工智能生成的内容以及融合式人工智能生成的内容。当然,这种分类不够周全,随着新的算法模型建立,人工智能生成内容会产生新的形式并实现内容上的拓展。

现有技术支持下的人工智能模型,其生成的内容类型丰富,在数智出版领域应用于多元化的场景之中,但存在多重风险。例如,为分析受众阅读偏好、消费习惯或个性需求,或者在浏览用户中定位目标用户,判别式人工智能需要在互联网或社交平台上抓取用户评论、采集阅读数据,在海量数据采集的基础上,通过机器学习掌握用户的阅读偏好,进一步与目标用户特征进行匹配,从而判断目标群体。在这一过程中,用户无意共享的阅读主题选择偏好、一时兴起的评论观点等被挖掘提取,甚至应用于融媒出版,这不仅使用户面临个人信息失控的风险,对出版者而言,未经许可使用或在出版中使用收集来的评论或观点、运用用户群体数据等也可能面临侵犯著作权的风险。在内容输出环节,由人工智能基于数据挖掘、判别和整合而生成的文本能否作为作品出版发行也存在道德和法律双重风险。

生成式人工智能生成内容所产生的著作权争议与数智出版新业态发展息息相关。基于人类数据训练而建模的生成式人工智能,训练数据的质量及清洗环节决定了输出内容的准确性,如果出版机构使用带有偏见的生成内容,则可能导致侵权。此外,生成内容若包含他人的作品、作品的片段或数据时,是否构成合理使用,出版机构能否享有著作权等诸多问题仍缺乏法律依据,这制约了数字化智能化出版业态的升级。

二、人工智能生成内容可版权性的理论辨析与实践例证

人工智能生成内容的可版权性问题不仅是一个法律解释或法律规制问题,还是一个如何促进法律与产业、科技动态平衡和良性互动的问题。在界定人工智能生成内容基本外延的基础上,可版权性需要解决以下几个问题:基于算法模型的人工智能生成内容是否具备作品属性?具备作品属性的人工智能生成内容是否必然受著作权法保护?

1.人工智能生成内容具有作品属性

我国著作权法规定,受保护的作品应具备四个要素:其一,属于文学、艺术和科学领域范畴;其二,具有独创性;其三,能以一定形式表现;其四,属于智力成果。客观来讲,比照现行著作权法意义上作品的构成要件,无论是生成式人工智能还是判别式人工智能,其生成内容能够以一定形式表现且大多属于立法规定的“文学、艺术和科学领域范畴”。因此,我们讨论的重点集中于两点:一是人工智能生成内容是否属于智力成果;二是生成内容是否具有独创性。

按照通常观点,著作权涉及的是智力创作者对其创作所享有的权利[1]。现行著作权法将作品限定为智力成果,也正是基于“唯有人类才具有创造性思维,能够进行智力活动,实施创作行为并产生智力成果”这一论断,故而需要在作品与人类思想和情感的表达之间建立逻辑联系。然而,创造性思维和创作行为是人类独有的吗?蒙大拿大学学者开展了创造性思维测试(TTCT),通过对比GPT-4和正常成年人类(本科生)运行TTCT的结果,发现人工智能在思维原创性方面的得分达到或超过人类原创思维能力的得分。近期一些其他机构的类似测试也印证了上述结论。尽管目前的人工智能技术正处于由弱人工智能向强人工智能发展的阶段,但模型融合自我迭代的能力越来越强,人为干预因素由强变弱,立法的前瞻性亟须我们直面问题,为通用人工智能的出现搭建法律框架。在现有技术条件下,生成式模型已能够通过自主学习生成新数据、新内容,客观上与人类智力成果无异;判别式模型则是基于海量数据进行分类判别,虽然更多依赖人类设定的筛选条件,但判别模型的建立以及在判别过程中不断迭代仍依赖人工智能自主完成,其生成的数据或文本、图片等内容类似于人类智力成果。

“独创性”作为作品的构成要件之一,被认为是作品构成的实质性要件,也是作品“可版权性”的主要判断方向。基于著作权理论,独创性主要体现在对素材的选择、安排、取舍、设计、描述、判断等方面,在(2012)知行字第38号案件中,最高人民法院判决将之概括为“最低限度创造性”。尽管不同法系国家关于作品“独创性”的标准在信息技术发展的助力下不断调整,但应向客观化判断标准倾斜这一思路愈发得到理论支持[2]。笔者认为,现有人工智能具有创新思维能力,能够在算法基础上实现自我创造,能够根据不同受众的需求自行生成作品,其生成内容不受人类的严格控制。因此,无论是生成式人工智能还是判别式人工智能创作的产物,就新标准而言,是符合“最低限度创造性”要求的。

需要注意的是,判别式人工智能生成内容的独创性往往被忽视,如果否定其作品属性,则会导致出版传播环节存在大量无法受到版权保护的创作物,免费的许可使用、免费的流通等可能会改变我们创立知识产权的初衷,不利于促进新的人工智能大模型的开发和新的使用场景的探索。从长远来看,还会冲击版权许可使用秩序与市场化运行,不利于数智出版的纵深发展。

2.拟制法律人格:解决可版权性问题主体障碍的思路

尽管人工智能生成内容具有作品属性,但其权利归属问题仍然存在生物学意义上的障碍,根源在于人工智能作为著作权法意义上的权利主体或者侵权责任主体的规定缺位。对此,学界提出了两种具有代表性的解决方案。第一种方案秉持人类主体的法哲学立场,考虑到人工智能设计者对大模型这一工具的独创性贡献最大,而使用者对生成内容的贡献最为直接,在现有制度框架下,由设计者或使用者作为权利主体。第二种方案则需突破人类对自我属性的认知,以拟制技术赋予人工智能法律人格。有学者提出,结合人工智能的属性赋予人工智能拟制法律人格,有利于厘清人工智能产物的财产权利归属以及划分人工智能侵权责任[3]。

从司法实践来看,我国不同法院对人工智能作品著作权归属案件所作的裁决存在差异(见表1),但也有共通之处,即在现有人工智能技术和立法框架下,坚持“人与物二分法”和“人是目的”的哲学理念,强调创作过程中人发挥的能动作用,进而保护人类创作主体。通过既有案例的对比可以看出,随着人工智能模型的迭代加速,裁决观点也发生了细微的变化,逐步承认人工智能生成内容具备“独创性”要件,但仍否定其法律主体地位,同时也否定设计者对人工智能生成内容主张权利的资格。

司法实践的探索似乎印证了第一种方案的可行性,但从长远来看,按照此方案和现有裁判思路,需要在人工智能设计者和使用者之间权衡并明确权利主体的认定标准,即谁更加直接地参与了创作,谁对作品的完成作出了实质性贡献。客观来讲,相较于人工智能本身而言,设计者和使用者都不是最合适的答案。此外,业已出现的生成式模型与判别式模型融合生成的内容,包含设计者、使用者和人工智能共同创作完成作品的因素,上述标准如何平衡依然面临人工智能法律主体资格的问题。因此,采用法律拟制技术,参考法人制度,赋予人工智能拟制的法律人格,使其成为法律意义上的权利主体才是解决主体资格缺位的最佳路径。在此基础上改造权利分配机制,对推动出版业在数智技术条件下实现产业升级与高质量发展尤为重要。

三、数智出版背景下人工智能生成内容的治理路径

2022年,中共中央宣传部印发了《关于推动出版深度融合发展的实施意见》,明确要求“强化大数据、云计算、人工智能、区块链等技术应用,创新驱动出版深度融合发展”,人工智能与出版的结合最为密切,其生成内容在出版业中可能最先得到运用。

1.建立“出版者主导,协同共治”的治理主体体系

出版业是作品的出口和传播平台,其角色定位在数智出版的背景下尤为重要。出版业在数智出版背景下发挥作用的关键是构建“出版者主导,协同共治”的治理体系。这一体系旨在确保AIGC健康发展,同时维护出版业的生态平衡与版权秩序。出版者应引领内容筛选、编辑、发布,制定AIGC内容标准与审核流程,与技术开发者、法律专家等合作解决版权问题。

首先,出版者应发挥核心引领作用。作为内容筛选、编辑、发布的关键主体,出版者需承担起对AIGC内容质量、原创性及合法性的审查责任。通过制定明确的AIGC内容标准与审核流程,出版者可以有效过滤低质、侵权内容,保障出版物的合法性。此外,出版者还应积极与技术开发者等合作,共同探索AIGC的版权归属、权利分配等法律问题,为AIGC的合法出版提供有力支持。

其次,协同共治是保证AIGC治理效果的关键。应在出版者的主导下,建立包括技术开发者、创作者、法律机构、行业协会在内的多方协同机制:技术开发者应持续优化AIGC算法,提升生成内容的独创性与质量;创作者应明确自身在AIGC创作过程中的角色与贡献,积极参与版权协商与保护;法律机构应提供权威的法律咨询与裁判服务,为AIGC的版权归属、侵权责任等问题提供明确指引;行业协会应发挥桥梁纽带作用,推动行业自律与标准制定,促进AIGC产业的健康发展。在具体实施上,可探索建立AIGC内容登记与公示制度,借鉴传统作品的版权登记模式,为AIGC内容提供便捷的登记渠道与公示平台。通过登记与公示,不仅可以明确AIGC的版权归属与权利范围,还能为版权交易、侵权维权等提供有力证据。同时,建立AIGC侵权投诉与快速处理机制,及时响应版权纠纷,保护权利人的合法权益。此外,加强公众教育与宣传也是不可或缺的一环。通过普及AIGC相关知识、提高公众版权意识、引导合理合法使用AIGC内容,可以营造良好的社会氛围与舆论环境,为AIGC的健康发展奠定坚实基础。

2.健全“分层施策、分类治理”的内容监管模式

在数智出版领域,人工智能生成内容的监管不仅关乎版权保护与生态平衡,还直接影响信息传播的透明度和公信力。因此,在“出版者主导,协同共治”的治理框架下,进一步健全“分层施策、分类治理”的内容监管模式显得尤为重要。

首先,分层施策意味着要根据AIGC内容的生成阶段、应用场景及影响范围,采取不同层次的监管措施。在内容生成阶段,应强化算法监管,确保AIGC算法设计符合法律法规要求,避免生成违法、有害或具有误导性的内容。对于公开传播的内容,需建立更为严格的审查机制,确保内容真实、准确、健康,符合社会公序良俗。对于涉及国家安全、社会稳定、个人隐私等敏感领域的内容,应实施更为严格的监管,必要时进行前置审批或备案。

其次,分类治理是针对不同类型的AIGC内容,制定差异化的监管策略。对于文学作品、艺术创作等创造性内容,应重点关注版权归属、原创性认定及侵权防范;对于新闻报道、时事评论等新闻信息类内容,需强调真实性、客观性和公正性;对于教育、科普等专业知识类内容,需确保内容的准确性、权威性和科学性。通过分类治理可以更加精准地把握AIGC内容的特性和风险点,采取有针对性的监管措施,提升监管效率和效果。

在实施过程中,需注重技术手段与法律制度的有机结合。一方面,可利用区块链、数字水印等先进技术,对AIGC内容进行唯一标识和全程追溯,为版权保护、侵权追责提供技术支撑;另一方面,应完善相关法律法规和行业标准,明确AIGC内容bCmp+znRfw7olVPItW94MCnRULERCRtRiBU18t6+A48=的法律地位、权利归属和责任主体,为监管提供法律保障。同时,加强跨部门协作和国际合作,共同应对AIGC带来的全球性挑战和问题。

此外,提高透明度也是内容监管的重要方向。可公开监管政策、标准和流程,增强公众对AIGC内容监管的认知和信任;建立AIGC内容监管信息公示平台,定期发布监管动态、典型案例和风险提示等信息,引导公众理性看待和使用AIGC内容;鼓励社会各界参与AIGC内容监管的监督和评估工作,形成全社会共同参与的监管格局。

3.优化侵权责任承担机制

在探讨如何优化人工智能生成内容的侵权责任承担机制时,一个创新且具有前瞻性的思路是设立人工智能独立基金,以化解潜在的侵权责任风险。这一机制旨在平衡技术进步与法律责任之间的关系,促进AIGC技术健康发展,同时保障权利人的合法权益。基金的资金来源可以有多个渠道,如:政府拨款、行业自律组织捐赠、AIGC技术使用者及开发者按比例缴纳费用、侵权案件中的罚款及赔偿款等。通过多元化的资金来源,可确保基金的稳定运行和持续发展。应设立专门的管理机构运作基金,负责资金的筹集、管理和使用。管理机构应遵循公开、透明、公正的原则,定期公布基金的财务状况和运作情况,接受社会监督。同时,管理机构应建立科学的投资决策机制,确保资金的有效利用和保值增值。基金的功能与作用主要是侵权赔偿、分散风险及纠纷调解,基金可以作为第三方调解机构,通过提供专业的法律咨询和调解服务,帮助当事人达成和解协议,减少诉讼成本和时间成本。

4.构建一体化的全链条风险防御机制

构建一体化的全链条风险防御机制,是确保人工智能生成内容技术安全、稳定、可持续发展的关键步骤,机制的建立旨在从源头到终端,全方位、多层次地识别、评估、监控和应对AIGC技术可能带来的各类风险,包括技术风险、法律风险、伦理风险和社会风险等。构建全链条风险防御机制是确保AIGC技术安全稳定发展的关键,机制涵盖风险识别、评估、监控与应对,覆盖技术、法律、伦理和社会等风险。建立风险识别体系,应实时监测相关数据并以数据分析AIGC技术各环节,组织专家评估风险。在技术上,要加强算法和数据安全,建立应急响应机制。在法律上,要完善法律体系,明确法律地位和责任主体,加强执法。在伦理上,要建立审查机制,加强公众教育。在社会风险上,要通过政策、市场和社会监督应对风险。整体来看,全链条风险防御机制是AIGC技术可持续发展的保障。

综上所述,一体化治理模式是保障AIGC技术健康、稳定、可持续发展的必然要求。通过风险识别与评估、技术安全防控、法律合规保障、伦理道德引导、社会风险防控等多方面的努力,可以有效防范和化解AIGC技术带来的各类风险,推动其更好地服务于社会发展,增进人类福祉。

|参考文献|

[1]WIPO. WIPO Intellectual Property Handbook(Second Edition)[M]. Geneva:WIPO Publication,2004.

[2]李成亮,王惠敏. 机器人创作物的可作品性[J]. 理论观察,2017(6):87-89.

[3]杨清望,张磊. 论人工智能的拟制法律人格[J]. 湖南科技大学学报(社会科学版),2018(6):91-97.