摘 要:随着ChatGPT的爆火,生成式人工智能成为炙手可热的技术概念,其具有数据依赖、生成内容难以分辨以及通用性较强三个主要特征。生成式人工智能的应用前景可观,但也可能会引发数据安全、算法安全以及生成内容安全方面的社会风险。生成式人工智能运行的不透明性、不可理解性以及追责困难性,将会造成生成内容著作权归属不清和生成内容存在偏见,可能侵害个人信息权益、造成行业垄断甚至危害国家安全。针对生成式人工智能风险的治理方案,在法律层面应当从数据安全保护、算法治理以及生成内容审查方面构建全链条的治理规则。在平台监管层面,应当构建平台备案制度、实施激励措施以及畅通投诉渠道。在协同层面,形成用户、企业、政府以及国际组织等多元主体共治局面。
关键词:生成式人工智能;ChatGPT;社会风险;治理方案
中图分类号:D923 文献标识码:A 文章编号:1009 — 2234(2024)12 — 0071 — 07
自美国OpenAI公司开发的两款产品DALL·E2①和ChatGPT②相继发布以来,生成式人工智能这一概念正式进入大众视野,整个社会开始对大型科技公司开发的各种生成式人工智能产品抱有极大兴趣。Meta、微软、谷歌、百度、腾讯等网络巨头争相跟进,生成式人工智能成为了互联网投资的新风口和信息技术发展的新趋势。生成式人工智能作为一项新兴技术,未来应用前景十分可观。被誉为“互联网之父”的英国计算机科学家蒂姆·伯纳斯-李(Tim Berners-Lee)预测:未来人人都可能会拥有ChatGPT类生成式人工智能助手[1]。人类社会的发展进步离不开科技创新。自工业革命以来,每一次技术变革都会引发社会形态、社会结构以及治理方式的改变。正如海德格尔(Martin Heidegger)指出的,现代技术的本质体现了人类的技术性生存方式,这是人类不可逃避的“天命”[2]。因此,人类应当在守正的基础上不断进行创新。尽管新的技术可能会引发风险,但不能因此将其视为洪水猛兽而停滞发展。对科技风险进行合理的规制则能够使其消极影响降到最低,从而让科技更好地服务于人类社会。在生成式人工智能技术尚处于起步阶段的应用背景下,当前亟需对生成式人工智能的风险类型进行梳理,并提出具有前瞻性和可行性的治理方案,从而促进生成式人工智能的良性发展。
一、生成式人工智能的主要特征
生成式人工智能技术是指通过各种机器学习(ML)方法从数据中学习工件的要素,进而生成全新的、原创的、真实的工件(一个产品或任务)[3]。生成式人工智能技术本身已有60多年的发展历史。早在1957年,Lejaren Hiller和Leonard Isaacson完成了历史上第一部由计算机创作的音乐作品[4]。随着基础研究的不断深入,大数据、算法和算力等相关技术的迅猛发展,作为生成式人工智能关键技术支撑的生成模型,其性能得到了显著改善。生成式人工智能的生成模型包括:生成式对抗网络(GANs,其本质上是一种深度学习模型)、自回归模型以及基于流的模型等。利用生成模型,生成式人工智能可以在短时间内自动创建大量的内容,包括新的文本、图像、音乐、视频等。值得注意的是,生成式人工智能只是一种技术概念,而并非具体的应用概念,该技术可以被应用到搜索引擎、互联网平台等下游场景中。元宇宙数字虚拟世界,本质上就是生成式人工智能应用到数字空间构建的结果,也就是说生成式人工智能技术的出现才使得元宇宙不再是“空中楼阁”[5]。结合生成式人工智能的技术原理,本文认为其具有极其依赖数据、生成内容难以分辨以及通用性较强三个方面的主要特征。
(一)数据依赖性
生成式人工智能从本质上来说是一种大语言模型,离开了数据,生成式人工智能就成了无源之水、无本之木[6]。生成式人工智能需要通过算法技术不断训练语言模型,以此提升生成内容的质量,而语言模型训练的背后离不开数据的支撑。生成式人工智能“聪明”的关键因素是其具有强大的推理能力,然而,这种能力需要通过深度挖掘大量数据中丰富的内在信息进行获取,这样才能使得生成式人工智能可以更好的满足用户需求。因此,要想生成式人工智能输出高质量的内容,就必须为其提供数量足够多、种类足够广、质量足够高的“数据口粮”。就技术角度而言,数据对于人工智能应用程序的开发以及迭代至关重要[7]。例如,作为生成式人工智能典型应用代表的ChatGPT,从2018年发展至今,已经迭代出4个版本。ChatGPT-1拥有117M训练参数,ChatGPT-2拥有15亿参数和800万个网页的训练数据集,ChatGPT-3拥有1750亿训练参数,如今ChatGPT-4拥有百万亿级训练数据参数[8]。由此可见,ChatGPT的每次升级迭代都极其依赖于训练数据的指数级增长。正是由于海量级训练数据的积累,ChatGPT才能不断进步完善,最终能够提供更好的应用服务。
(二)生成内容难以分辨
生成式人工智能作为一项引领未来的新兴技术,其生成内容有时具有难以分辨的特征。生成式人工智能的生成内容高度依赖于训练数据和算法设计,训练数据的选取、算法的设计均会对生成内容产生较大的影响。这就意味着生成内容易受到训练数据偏向、技术开发者价值观念以及相关资本因素的影响,因此很难确保生成内容的绝对正确性与可分辨性。除此之外,生成式人工智能为了生成符合人类偏好的知识,其不仅需要输入和学习大量既定相关的客观知识,而且还需要向语言模型中不断输入人类的反馈意见[9]。这些反馈意见可能包括人类和机器之间的互问、互答等带有主观方面的语料,因此也就意味着生成式语言模型的训练数据可能包含有人类价值偏好、主观臆断等方面的内容。正是由于生成式人工智能语言模型输入的内容带有不可避免的主观知识因素,从而可能会导致其生成内容的客观性难以分辨,这也构成了生成式人工智能的另一个重要特征。
(三)通用性较强
生成式人工智能还具有通用性强的基本特征,主要表现为以下两个方面:一是能够广泛应用在各个领域;二是拥有大量的产品用户。生成式人工智能可以被广泛应用在科技写作(如文献回顾、数据分析)、教育培训、医疗问诊、辅助软件开发、工具管理以及其他各种类型的应用程序之中。除上述领域之外,生成式人工智能还可以应用于财务统计、会计运算以及法律咨询等方面。另外,生成式人工智能所生成的内容不仅能够满足用户的基本需求,而且还能够通过互动以增强用户对其的使用依赖性。与过往所开发的智能语言助手相比,ChatGPT类生成式人工智能可以通过对话等方式精准、动态地对接用户需求,能够多维度回答用户提出的各种问题,天然具备能够贴近用户需求的优势。正因为如此,ChatGPT也创造了最短时间内智能产品用户数量最高的一项记录。自ChatGPT投入使用后的两个月内,已经拥有超过1亿名用户[10],成为史上用户数量增长最快的智能应用产品。
二、生成式人工智能的风险类型
一项新技术在促进经济社会发展的同时,也可能会引发从未有过的风险问题。毋庸置疑,生成式人工智能作为一项新的技术,亦会带来一些新的社会挑战和风险因素。总体来看,生成式人工智能对个人信息保护、网络安全、数据跨境流动等带来冲击,对现有数据、算法、算力的治理范式提出挑战。为了保障生成式人工智能的健康可持续发展,本文将从数据安全、算法安全以及内容安全三个层面,对生成式人工智能存在的风险类型进行全链条的梳理和反思。
(一)数据安全的风险
数据作为生成式人工智能的“原料”,是其运用和发展的基石[11]。因此,在梳理生成式人工智能的风险类型时,应当首先分析作为“原料”的数据是否存在安全风险。生成式人工智能引发的数据安全风险主要表现为侵害个人信息权益、造成行业垄断甚至危害国家安全。
其一,侵害个人信息权益。生成式人工智能本身具备收集、储存和使用个人信息的功能,包含有个人信息的数据可能会被窃取、过度收集或者不正当使用,从而侵害个人信息权益及隐私。首先,生成式人工智能对数据具有极强的依赖性,数据的质量决定了生成内容的质量和决策的质量。然而,这些数据大多来自于数据爬取,可能在用户不知情的情况下,包含其个人信息的数据会被收集和处理,这不符合数据收集的授权—同意规则,同时也侵害了用户的个人信息权益及隐私权。其次,当用户在与生成式人工智能进行互动的过程中,可能会向其输入含有个人信息或隐私的数据,这些数据会被生成式人工智能用来“训练”,那么生成式人工智能输出的内容中就可能包含用户提供的个人信息或隐私。再次,生成式人工智能作为由大型科技公司开发的一项新兴技术,可以被嵌入到相关平台之中,然而,一些实力不强的平台可能不具备与其面临的数据安全风险相匹配的安全防护能力。如果含有用户个人信息的平台被黑客恶意攻击,这不仅将会造成个人信息及隐私泄露的风险,而且还会对用户的财产安全带来风险隐忧。
其二,造成行业垄断。作为一种大型语言模型,生成式人工智能最大的优势在于能够基于用户的反馈给出答案,其可以被应用到搜索引擎、微博、电商平台中。相对传统的平台而言,嵌入生成式人工智能的平台也因其“聪明”引起用户的广泛青睐。由于散落在用户手中的数据资源将再次被聚集到互联网平台中,极易导致互联网行业形成垄断,生成式人工智能亦会可能成为网络集权的工具,从而导致互联网平台的“再中心化”成为可能[12]。互联网寡头通过对用户的数据进行挖掘和处理,从而对用户进行精准画像,进而为用户建立个体或集体档案。在利益和权力的驱使下,互联网寡头可能对事实进行捏造,导致用户在嵌入生成式人工智能平台中获取的是带有价值导向信息。用户难以搜索到客观、中立的信息,可能导致真相掌握在少数人手中,社会公众愈发难以识别谎言,间接剥夺了用户的知情权,使用户受困于“信息茧房”之中。
其三,侵犯国家安全。随着数据在治理能力与治理体系中的地位越来越重要,利用深度挖掘后的数据来定义规则和标准已经成为现实,包括政府在内的主体也不得不利用私有资本控制的大数据分析结果来实现社会治理。生成式人工智能的推手主要是大型科技公司与私人资本,这些大型科技公司、私人资本将成为数字空间乃至社会空间隐形权力的主体[13]。这种权力随着生成式人工智能的规模化应用,可能会向社会的公平正义提出挑战。在生成式人工智能全球化应用的背景下,可以利用生成式人工智能技术获取不同国家、不同地区的数据,尤其是在进行数据跨境流动时,将会对国家安全带来风险。
(二)算法安全的风险
算法作为生成式人工智能的“框架指南”,是其硬实力的保障,算法在智能时代的重要性不言而喻。然而,当算法被大规模应用后,在无形中会给人类和社会带来风险。这种风险具有一定的隐蔽性,典型的如“算法黑箱”。由于算法的不透明性、复杂性以及快速迭代,使得传统法律的责任规制无法适应算法带来的风险,这将会对整个社会带来潜在危害。“黑箱”是社会发展历史的基本特征,各类行业都存在一定程度的黑箱属性[14]。算法运行过程复杂,不可控性更强,且难以人为干预,这使得它天然具备很强的黑箱属性。如达纳赫所言:“我们生活在一个算法时代,数据和计算机科学以强大的方式结合在一起,以算法来助推、偏向、引导、激发、控制、操纵和约束人类行为,从而影响、塑造、指引我们的行为和社会的治理”[15]。算法使用的计算机编程语言和法律的自然语言之间存在信息转化的鸿沟,由此带来当前社会算法黑箱的规制难题,其主要原因有以下三个方面。
其一,算法的不透明性。算法准确性的提高往往需要牺牲透明度[16],算法治理的一个明显问题是总体缺乏透明度。用户对它们如何利用知识影响我们以及它们做作的重要决策知之甚少,甚至一无所知,这是因为算法所做的决策隐藏在用户无法轻易阅读和理解的代码后面。在算法治理或者通过代码进行规制的语境中,我们始终面临着“算法未知”的困境,这在机器学习和算法不断迭代的复杂背景之下更加如此。其二,算法的不可理解性。当出现算法纠纷时,解读计算机代码变得至关重要。然而,计算机代码的解读过程非常复杂,即使在特定时间解读了代码的含义,未来也可能因代码的持续迭代而变得不准确。这表明算法解释的难度非常大,即使作出了解释,也难以起到实质性的作用[17]。更复杂的还有大多数人工智能技术不仅只包含一种算法,而是包含有多重执行特定任务的算法。其三,算法的追责困难性。当前生成式人工智能正处于起步阶段,算法作为企业发展的核心机密,企业出于对其自身利益的考虑,可能会选择不予公开相关算法,这将对责任认定带来极大的挑战。
算法规制的法律常常运用算法备案或者算法公开的方式,使得算法本身更加公开透明和易于理解,从而有助于防控算法黑箱在具体场景下引发的风险,但是同样面临可欲性与可行性的障碍。由于生成式人工智能的迭代能力过强,导致侵权的类型范围、场景与样态更加多样化,算法黑箱的规制难题在生成式人工智能技术领域有增无减,甚至被进一步放大,导致风险源头更难识别、过程追溯更加困难。
(三)生成内容安全的风险
针对生成式人工智能生成内容的安全问题,本文主要从生成内容著作权归属不清与生成内容存在偏见两个方面展开论述。
创作属于智力活动,只有自然人才能完成,这是人类和动物的根本性区别。自然人具备作者身份,应当不存在争议。从这个层面上来说,生成式人工智能不应当成为创作的主体。我国《著作权法》在特定情况下允许拟制法人或者非法人组织可以成为“作者”,但是生成式人工智能不是法律意义上的法人或者非法人组织,世界范围内亦无相应国家立法或者国际条约明确赋予人工智能“作者”身份。因此,生成式人工智能本身不具备“作者”身份。但是,对于生成式人工智能生成内容的著作权归属问题以及其生成物能否称为“作品”,值得进一步明确。
生成式人工智能生成的内容是由底层数据、生成模型与操作者指令共同完成的。底层数据、生成模型的构建依托科技公司强大的算力和算法。虽然操作者在交互界面上使用提问或指令的方式发出指示,但是这种指示本身能否具有著作权意义上的内容,也存在探究的必要性。生成内容涉及的三个主体分别是算法设计者、平台和用户,生成内容的著作权究竟应该归属于算法设计者、平台抑或是使用者,需要予以界定。依据我国《著作权法》第三条的规定,著作权的指向对象为作品。仅从法律文本来看,我国现行知识产权法律体系均规定法律主体为享受权利、履行义务和承担责任的自然人,著作权保护的逻辑是“作品—创作—作者”。从这个意义上来说,生成式人工智能生成内容不能成为“作品”,当然也难以得到《著作权法》的保护。这种观点在2018年“北京菲林律师事务所诉百度公司案”的裁判结果中得到支持。该案法院认为,搜索软件形成的文章不具有独创性。①然而,在2020年“腾讯公司诉网贷之家网站转载机器人自动撰写的文章作品案”中,法院认为在满足独创性要求的情况下,人工智能撰写的文章属于著作权保护的范围。②法律规则的模糊易出现司法裁判的不统一。生成式人工智能生成内容归属不清,不仅可能导致生成式人工智能创作的内容无法获得著作权法的保护,阻碍人工智能技术发挥其创作价值,还可能因为生成式人工智能的海量撰写行为稀释既有作品权利人的独创性,影响他人合法权益。
目前ChatGPT类生成式人工智能所挖掘的数据库文本中英文语料占比高达92%,中文资料仅占比0.16%[18]。当生成式人工智能实现全球化应用后,在这种结构数据的“训练”下,ChatGPT类生成式人工智能的“偏见”或者“歧视”也会越来越严重。长此以往,用户基于主体意志的独立思考和批判意识会被削弱,人类社会也会因自由意志迸发出的多样性和创新性而随之枯竭,这会对文化的多样性及语言的丰富性造成冲击,甚至动摇国家的意识形态。
生成式人工智能可以在短时间内生成大量的书面信息,可以用于信件、评论。如果被用来引起公众舆论,煽动民众情绪,将会对网络治理甚至国家民主安全带来严重的挑战。例如,哈佛大学本科生使用生成程序提交1001条评论,回应政府就医补助征求公众意见[19]。一旦生成式人工智能被相关用户用来瞄准相关事件,利用其生成速度快、传播效率高的特点,将会以难以置信的速度在社会中引起较大的舆论影响。
三、生成式人工智能风险的治理方案
针对生成式人工智能的主要特征及风险类型,治理方案需要在有效规制生成式人工智能带来的社会问题和营造宽松发展环境之间寻找平衡点。本文认为,对于生成式人工智能的治理方案,应当遵循全方位治理和系统化原则,推进多元主体协同共治,保障生成式人工智能朝着稳定、可预期的方向良性发展。
(一)构建全链条法律治理规则
目前,我国民法、刑法、行政法能够在某种程度上对生成式人工智能进行分散治理,但尚未形成完善的法律体系。现有的法律规则无法妥善规制生成式人工智能引发的各类风险。过于宽泛而固定的人工智能立法模式,并不能适应潜在变革性强的立法框架,因此有必要构建一种敏捷性较高的治理规制[20]。这样既可以维护用户权益、防止生成式人工智能对社会的潜在危害,又可以规范生成式人工智能的健康发展。本文从数据安全保护、算法治理以及生成内容监管三个方面着手,构建生成式人工智能全链条的治理规则。
第一,强调对数据进行分类分级保护。生成式人工智能技术因其迭代能力强,无法适应固定的立法框架,因此应当根据生成式人工智能数据的具体使用场景进行分类分级治理。欧盟《通用数据保护条例》(GDPR)依据个人数据的敏感程度进行区别保护,同时也颁布了《非个人数据在欧盟境内自由流动框架条例》,总体来说将数据分为个人数据和非个人数据[21]。澳大利亚将个人数据分为一般数据和敏感数据[22]。我国《数据安全法》将数据分为一般数据和重要数据,《个人信息保护法》界定了敏感个人信息。基于此,本文认为应当根据应用场景对生成式人工智能数据进行分类,在具体的分类中再来探讨数据分级保护制度。可以将生成式人工智能数据分为一般用户数据、经济组织数据、重要产业数据以及国家秘密数据。针对一般用户数据,可以分为极度敏感数据、一般敏感数据、不敏感数据三个等级;针对经济组织数据,可以分为重要数据和非重要数据两个等级;针对重要产业数据,分为核心数据和非核心数据两个等级;针对国家数据,可以分为可公开数据和不可公开数据两个等级。
第二,加强对生成式人工智能算法的监管。算法技术专业性强、壁垒高,有必要设立专门的监管机构。可以考虑设立生成式人工智能办公室[23],明确其职责,加强算法监管。由于网络传播速度快、范围广,算法带来的后果往往十分严重。针对算法监管而言,事前防范就显得十分重要,这有助于加强对算法本身的监管[24]。首先,要增强算法的透明度。欧盟立法者支持生成式人工智能的透明度和安全规则,要求基础模型的提供者在将其模型投放市场之前,应当对数据治理措施和风险缓解措施进行安全检查[25]。算法开发者应当履行信息披露义务,定期向社会公布选取训练数据的来源,确保选取高质量的训练数据。另外,还要通过可视化的方式向用户展示算法运行特征、算法决策以及潜在的风险。其次,要加强对算法技术研发人员的职业伦理教育,确保研发人员设计的算法遵循道德标准和伦理准则。最后,生成式人工智能办公室要根据算法潜在的风险等级,要求算法开发者进行自我备案或者向监管部门备案,同时还要履行算法变更和注销手续。
第三,强化对生成式人工智能生成内容的审查。欧盟和美国均有相关立法实践与审查措施[26]。2023年7月我国发布的《生成式人工智能服务管理办法》第4条明确规定,提供和使用生成式人工智能服务,应当坚持社会主义核心价值观。依据我国《互联网信息服务深度合成管理规定》第17条的规定,深度合成服务提供者应当对生成内容进行标识。虽然该条款要求对生成内容进行标识,但是针对不同的应用场景以及用户的个人行为,有些深度合成服务提供者会在实际操作过程中绕开这些限制,因此生成式人工智能生成内容的标识需要进一步提高。首先,需要配备人工过滤审核机制。针对不符合社会主义核心价值观的内容,督促平台履行停止传输义务;针对恶意发表煽动民众的评论,要实行强制熔断,并对相关用户进行处罚。其次,实施辟谣机制和举报机制,增强用户参与治理的主动性,确保生成内容真实准确。再次,需要增强技术应用,确保生成式人工智能始终可控[27]。通过开发生成内容检测技术来准确区分生成式人工智能生成的内容和人类创造的内容[28]。准确区分生成内容和人类创造内容是判定生成内容能否称为“作品”的前提,若生成内容符合“作品”要件,生成内容的所有权应归于用户;若生成内容完全依赖平台技术,则生成内容的所有权应归于算法设计者或者平台。
(二)塑造全方位平台监管体系
生成式人工智能作为一项先进技术,可以应用到新闻传播、网络购物、移动社交、搜索引擎等下游场景中。在嵌入生成式人工智能后,Web3.0时代互联网平台的监管也变得尤为重要。在保障数据安全、算法安全、生成内容安全的基础上,加强对平台的监管有助于增强用户对平台的信任程度,为生成式人工智能的发展营造良好的商业环境,形成良好的正向循环,促进人工智能技术实现由弱人工智能向强人工智能的转变。针对平台监管,本文从构建平台备案制度、实施守法激励措施以及畅通投诉渠道三个方面展开。
第一,对嵌入生成式人工智能的平台进行备案。对于快速发展的生成式人工智能而言,可能无法适应干预度较高的行政许可、行政处罚等规制手段,因此备案制度的构建必须以系统观念全面协调、有机推进。应当针对不同领域设立不同的备案等级。针对教育、医疗等容错率较低的行业,实施最高等级的备案制度;针对媒体、金融等传播广泛的行业,实行一般等级的备案制度;针对科技写作、软件开发等影响较小的行业,鼓励其自愿备案。
第二,对嵌入生成式人工智能的平台采取守法激励措施[29]。守法激励措施能够在一定程度上提升主体的行动积极性。但是如果一味地依赖守法激励措施,不仅会提升总体社会成本,而且也会对中小型企业的生存和发展带来消极的影响。因此,应当针对不同类型的企业设置不同的义务和责任。在明晰义务和责任的前提下,设置不同的激励方案,让每个企业都能感受到激励措施的效果。另外,还应当开展守法激励方案的宣传,让企业充分了解激励方案的优越性。
第三,畅通对嵌入生成式人工智能的投诉渠道。首先要创新服务平台,拓宽投诉渠道。采取电话投诉、短信投诉、线上投诉等多种渠道的方式,确保信息畅通并及时将办理情况反馈给用户,保证用户的投诉能够得到及时回应。其次要简化投诉流转环节。为保障投诉的实效性,简化投诉流转环节,提高办事效率,减少诉求的环节和层次,用户针对平台的违规行为能够进行有效投诉。最后要建立督查制度,针对用户投诉较多的平台、重点难点问题进行分析排查,分析原因并制定解决措施。
(三)推进多元化协同共治秩序
2022年我国发布的《人工智能治理白皮书》指出,人工智能治理的重要特征之一是治理主体的多元化。通过多元主体共治的方式,不仅能够汇聚多元主体的力量参与到生成式人工智能治理的过程中,而且还能够有效平衡各方利益。对生成式人工智能多元主体共治的具体措施如下。
第一,社会公众作为生成式人工智能的服务对象,应当鼓励其参与到生成式人工的治理和监督之中。欧盟《人工智能法》中也提到要确保AI系统由人类监督。政府在生成式人工智能治理中发挥着主导性作用,通过建立专业的管理机构针对用户定期开展生成式人工智能的宣讲活动,让公众了解生成式人工智能的优势和劣势,学会辩证看待生成式人工智能技术,鼓励公众参与到生成式人工智能治理的整个流程之中。第二,企业作为生成式人工智能的开发者和拥有者,应当承担相应的主体责任。生成式人工智能的研发企业应当以高标准进行自我约束,实现自律自治。科技人员作为生成式人工智能技术发展的重要力量,企业应当对科技人员开展科技伦理教育,创造科技向善的氛围,使得科技人员能够自觉担负起社会责任。技术开发者相较于公众而言,能够判断人工智能存在风险的可接受度,应当及时将潜在风险告知用户[30]。相关企业应当联合起来,成立生成式人工智能发展协会。一方面,不同企业能够通过协会实现资源共享,促进整个行业的发展;另一方面,协会又可以提升企业的自我约束能力。第三,生成式人工智能的发展需要国际合作,需要借助政府、国际组织来加强国家之间的协作。不同国家之间生成式人工智能发展水平不一,质量层次不齐。政府、国际组织负有缩短国家间数字鸿沟,促进各国生成式人工智能健康、协作发展的使命,进而有助于丰富生成式人工智能的“学习资料”,减少生成式人工智能的“偏见”。
四、结语
生成式人工智能作为通用人工智能技术发展进步的重要标志,有助于加速社会的智能化进程。在生成式人工智能处于起步发展阶段时,针对其所存在的风险进行合理规制,有助于促进生成式人工智能的健康发展,增强社会对技术的信任,避免其“昙花一现”。基于生成式人工智能的主要特征以及风险类型,生成式人工智能的治理应当遵循系统化原则,推进多元主体协同共治。在法律层面,强调对数据进行分级分类保护、加强对生成式人工智能算法的监管以及强化对生成式人工智能生成内容的审查。在平台层面,对嵌入生成式人工智能的平台进行备案、采取守法激励措施以及畅通投诉渠道。在协同层面,要鼓励社会公众参与生成式人工的治理和监督,生成式人工智能研发企业应当以高标准进行自我约束,政府和国际组织要加强相互间的协作。
〔参 考 文 献〕
[1]智通财经网.“互联网之父”畅谈网络愿景:未来可能人手一位ChatGPT式助理[EB/OL].https://www.zhitongcaijing.com/content/detail/878404.html. 2023-2-17/2023-5-16.
[2]张绒. 生成式人工智能技术对教育领域的影响——关于ChatGPT的专访[J].电化教育研究, 2023(02): 5-14.
[3]Van Dis E A M, Bollen J, Zuidema W, et al. ChatGPT: Five priorities for Research[N].Nature,2023-2-09.
[4]中国通信研究院. 人工智能生成内容白皮书[R].2022.China Academy of Information and Comm-
unications Technology.
[5]王文玉. 元宇宙的主要特征、社会风险与治理方案[J]. 科学学研究, 2022(11):1-14.
[6]杨晓雷. 人工智能治理研究[M].北京:北京大学出版社,2022:35.
[7]Hacker, Philipp. A legal framework for AI training data—from first principles to the Artificial Intelligence Act[J]. Law, Innovation and Technology, 2021(2):257-301.
[8]Chao Ning Zhang,Chen Shuang Zhang,Cheng Hao Li,et al. One Small Step for Generative AI, One Giant Leap for AGI: A Complete Survey on ChatGPT in AIGC Era [EB/OL]. https://doi.org/10.48550/arXiv.
2304.06488. 2023-4-4/2023-5-16.
[9]Shattuck,Christopher C. ChatGPT Artificial Intelligence: Will It Replace Lawyers and Legal Staff?[J]. Wisconsin Lawyer, 2023(2): 41-49.
[10]Chris Smith, ChatGPT has the fastest user growth of any app in history[EB/OL]. https://bgr.com/tech/chatgpt-has-the-fastest-user-growth-of-any-app-in-history/.2023-02-02/2023-5-16.
[11]林伟.人工智能数据安全风险及应对[J].情报杂志,2022(10):105-111.
[12]陈全真.生成式人工智能与平台权利的再中心化[J]. 东方法学,2023(03):61-71.
[13]袁曾.生成式人工智能的责任能力研究[J]. 东方法学,2023(05):18-33.
[14]余成峰.从马的法律到黑箱之法[J]. 读书,2019(03):18-27.
[15]伊格纳斯·卡尔波卡斯. 算法治理:后人类时代的政治与法律[M]. 上海:上海人民出版社, 2022:57.
[16]Peter Margulies. Surveillance By Algorithm:The NSA,Computerized Intelligence Collection and Human Rights[M]. Social Science Electronic Publishing, 2016:1054.
[17]Edwards Lilian & Veale Michael. Slave to the Algorithm Whya'Right to an Ex-planation’is Probably Not the Remedy You are Looking for[J]. International Duke Law & Technology Review, 2017(16):18-84.
[18]GitHub. Dataset of GPT-3[EB/OL].https://github.com/openai/gpt-3/blob/master/dataset_statistics/languages_by_character_count.csv. 2020-01-02/2023-4-15.
[19]Bruce Schneier. How ChatGPT Hijacks Demcory[EB/OL].https://www.hks.harvard.edu/centers/mrcbg/programs/growthpolicy/how-chatgpt-hijacks-democracy.2023-01-15/2023-05-20.
[20]Walter G.Johnson, Diana M.Bowman. A Survey of Instruments and Institutions Available for the Global Governance of Artificial Intelligence[J]. IEEE Technology and Society Magazine,2021(40):68-76.
[21]Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC [EB/OL].https://eur-lex.europa.eu/eli/reg/2016/679/oj.2016-04-27/2023-02-20.
[22]Parliament of Australia.The Privacy Act1988[EB/OL].https://www.legislation.gov.au/Details/C2014C
00076. 2014-03-12/2023-03-20.
[23]European Parliament. Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts.[EB/OL].https://eur-lex.europa.eu/legal-content/EN/TXT/uri=CELEX:52021PC0206. 2021-04
-21/2023- 03-20.
[24]罗杰·布朗斯沃德. 法律3.0——规则、规制和技术[M]. 北京:北京大学出版社,2023:48.
[25]Kimia Morgan, EU lawmakers back transparency and safety rules for generative AI [EB/OL]. https://www.technewsholding.com/2023/05/11/eu-lawmakers-back-transparency-and-safety-rules-for-generative-ai.2023-5-12/2023-05-16.
[26]石婧,常禹雨,祝梦迪. 人工智能“深度伪造”的治理模式比较研究[J]. 电子政务,2022(05):69-79.
[27]Matthijs M. Maas. How Viable Is International Arms Control for Military Artificial Intelligence Three Lessons from Nuclear Weapons[J]. Contemporary Security Policy, 2019(3): 285-311.
[28]Alessandro Pegoraro, Kavita Kumari,Hossein Fereidooni et al. To ChatGPT, or not to ChatGPT: That is the question![EB/OL]. https://arxiv.org/abs/2304.01487. 2023-04-05/2023-5-10.
[29]张欣. 人工智能时代的算法治理:机制与方案[M]. 北京:法律出版社,2022:147.
[30] Johann Laux,Sandra Wachter, Brent Mittelatadt,Trust artifical intelligence and the European Uninon AI act: On the conflation of trustworthiness and acceptability of risk[R], Regulation&Governance, 2022.
〔责任编辑:侯庆海,周浩〕