商建刚
关键词:ChatGPT 生成式人工智能数据风险元规则算法大型语言模型
一、引言
生成式人工智能(AIG),也称生成合成类人工智能,本文采用生成式人工智能的提法。作为一种生成式人工智能,ChatGPT的技术原理可用“预训练+微调”进行简单概括。支持ChatGPT运行的是算法与数据,两者的不断优化,提升了ChatGPT利用数据的能力及输出内容的质量,算法与数据的叠加效应使ChatGPT的智能级别不断提高。随着GPT-4的发布,ChatGPT除输入输出文本外,还包括图像识别、前端设计等功能。有学者认为,GPT-4可能具备改造人类思想和创造的能力,形成人工智能超越专业化和大众化趋势,可能在某些方面替代人类。对ChatGPT这一新兴事物,互联网之父Berners-Lee称,今后每个人都将有类似ChatGPT的个人助理。比尔·盖茨评价,ChatGPT的出现不亚于互联网和个人电脑的诞生。可以说,ChatGPT的出现具有划时代的意义,其进一步解放了人类创造力。
关于生成式人工智能的法律定位尚存争议。王迁教授认为,ChatGPT是“智能搜索引擎+智能文本分析+洗稿器”,智能搜索策略功能可以根据关键词找到最相关的信息;智能文本分析功能支持列举相同和不同点并进行智能组合;智能洗稿功能实现同义词替换。郑戈教授则认为,GPT-4的出现赋予其更多能力,这种定位具有局限性。根据2023年1月10日施行的《互联网信息服务深度合成管理规定》,利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术统称为“深度合成技术”。2023年4月11日,我国网信办发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)采用了近似的定义,将生成式人工智能定义为“基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”。故此,本文认为以ChatGPT为代表、具有上述生成合成類功能的生成式人工智能,当属于深度合成技术规制范围。
新技术可能带来从未有过的新问题, 也可能并未产生新问题而仅是凸显了原本存在的问题,应首先厘清哪些问题是值得研究的“真问题”。有些问题,例如“微调”环节致使部分工作人员产生心理疾病等,还停留在纯粹的道德问题层面,并不能作为数据法学研究的客体;而有些问题,例如ChatGPT复刻人类的偏见和歧视等,则暴露了相应的数据风险。生成式人工智能突破了虚实边界,带来的风险级别更高、风险范围更为广泛,其在数据收集、加工、生成等方面引发的一系列风险值得关注。对此,2023年3月29日,著名安全机构生命未来研究所发布公开信,呼吁暂停开发比GPT-4还要强大的AI系统,并提倡在6个月的暂停期间内出台相应治理制度,这份公开信已经获得了包括马斯克、苹果联合创始人等在内一千余名科技领袖和研究人员的签名,且人数还在持续增长,进一步体现了生成式人工智能治理的迫切性。
在这种需要应急治理的情形下,既往治理措施却难以为继。我国行政法、民法、刑法能在某种程度上对生成式人工智能进行分散治理,但尚未形成周延的法律体系,表现为对底层技术治理不足、对技术提供者监管不充分,数据与场景分类分级标准繁杂且未形成有机体系,相应的规则需要作出调整。同时,在生成式人工智能的现有理论研究中,人工智能的法律主体地位、人工智能生成物的法律地位和“换脸”是核心场景,但研究场景分散。在治理原则方面,以生成式人工智能的上位概念人工智能为主体的研究居多,尚未有学者针对生成式人工智能进行理论统合的研究。总体上看,生成式人工智能对现有数据、算法、算力分而治之的不成体系的治理范式提出了严峻挑战,与网络安全、数据安全、个人信息保护、数据跨境流动等现有制度存在不适恰性,生成式人工智能的治理范式、现有制度和理论均存在缺失,亟需理论补强,以促进制度完善。
构建生成式人工智能风险治理体系,应首先提出生成式人工智能风险治理的元规则。所谓元规则,是指最基本、最具全局影响的规则。在本文中,元规则是生成式人工智能风险治理中的首要、起始和关键的规则,被广泛认同和明确定义,可成为生成式人工智能风险治理的基本准则,以至于渗入法律和政治制度层面。简言之,元规则是决定规则的规则。构建元规则的目的在于对目前分散的治理体系和研究进行统合,以形成生成式人工智能的治理框架。元规则是生成式人工智能风险治理规则谱系中最为基础的部分,它源于理性、实践与社会核心价值,反映技术风险治理的客观规律、价值选择和内在逻辑,构成技术风险治理体系的神经中枢。生成式人工智能风险治理的现有法律制度和理论研究不能为此提供充分镜鉴,但目前存在相当多的人工智能治理原则,从该视角切入,通过梳理不同国家、地区、组织、企业所构建的人工智能治理原则,提炼其共性,有针对性地提出生成式人工智能风险治理元规则是可行进路。
二、构建生成式人工智能风险治理元规则的必要性
生成式人工智能在国家、社会、私权利三个层面产生的风险,具有损害方式隐蔽、损害结果严重两大特点。该类型技术应用便捷、场景丰富,生成内容具有价值取向和诱导性,通过简单的人工提示和算法运行即可产生高风险系数的输出,实质上起到风险放大作用。然而,生成式人工智能的责任承担机制不明确,相关法律制度分而治之,不成体系,理论研究呈现缺失,需要在实践、制度、理论层面形成统一的元规则,为生成式人工智能的治理提供底层逻辑。
(一)损害方式具有隐蔽性
数据与算法是生成式人工智能的核心,但其数据固有瑕疵、数据处理瑕疵、数据标注瑕疵,以及算法设计理念瑕疵、算法模型设计瑕疵、算法安全保障瑕疵等问题会传导并生成负结果,以人类无法感知的方式造成损害。
在国家层面,以ChatGPT为代表的生成式人工智能基于西方价值观和思维导向建立,其回答也通常迎合西方立场和喜好,可能导致意识形态渗透。相较于其他人工智能,ChatGPT能根据用户的意愿修正回答,有针对性、选择性地输出结果。并且,在ChatGPT的学习语料库中,中文资料比重过低,根据GPT-3数据仓的语言比例,中文资料仅占0.16012%,而英文资料占比达92.09864%,不利于真实中文信息的分析。同一问题用不同语言提问,其措辞的激烈程度会明显不同。可以说,ChatGPT具备明显的偏见,并会潜移默化影响用户,动摇国民意识形态,形成新的国家安全风险。
在社会层面, 类ChatGPT生成式人工智能的输出内容可能会以人类无法察觉的方式对人类进行道德操控,从而影响社会整体伦理道德风尚。通过对ChatGPT的道德影响能力进行社会实验,〔由研究人员向志愿者提出具体问题,证明ChatGPT缺乏稳定的道德标准,其道德建议会对人类产生影响,且人类往往会因为“过于自信”而低估了这种影响。换言之,不具备稳定道德标准的ChatGPT,以人类难以察觉的方式对人类道德标准产生的影响超过人类预期。
在私权利层面, 生成式人工智能的训练数据多源自数据爬取, 而数据爬取行为具有隐蔽性。ChatGPT的训练数据似乎并未获得个人授权,不仅因未列明要收集的信息而违反知情同意原则,也因收集与个人使用ChatGPT无关的数据而违反最小必要原则, 更加违反我国司法实践中的三重授权原则。值得说明的是,虽然三重授权原则受到学界一致批评,但司法判决是现有个人信息保护法律制度下“行动的法”,是现有规则不完善所导致的结果。除通过数据爬取获取训练数据外,ChatGPT的对话数据也会被收集并用来“喂养”该模型,员工向类似语言模型中输入商业秘密等敏感信息,可能在企业不可知的情况下侵犯企业权利。
(二)损害结果具有严重性
生成式人工智能及其结果通过网络传播,能直接或间接对国家、社会、私权利造成严重损害。类似深度伪造技术,ChatGPT所生成内容具有难以分辨的特征,其算法和数据瑕疵可能产生“胡编乱造的真话”,从而造成严重后果。
在国家层面,生成式人工智能可能直接或间接诱发暴力冲突,被用于煽动暴力与对立。西方政治活动中经常使用互联网引导舆论,包括美国前总统特朗普的竞选,利用了诸如Twitter、Facebook、Telegram等平台服务其政治目的,最终导致“国会山”事件。一些聊天机器人已被恶意编程,用于传播虚假信息或实施非法行为, 可见某些生成式人工智能可能被植入恶意程序或被政治和阴谋论所利用,引发暴力冲突。
在社会层面,生成式人工智能可能形成数据垄断和基于数据的垄断,最终形成信息垄断,提高信息辨别成本。相较于传统搜索引擎,ChatGPT可通过对数据库或语料库的学习获得竞争优势,从而通过应用来垄断数据,以此形成基于数据的垄断。根据OpenAI《使用条款》第3(a)条声明,OpenAI保留了自己对用户交流与输出内容的使用权,证明了其具有垄断数据的意图。一旦ChatGPT进入“获得用户—获得数据—提升模型—再获得用户”的正循环,就可能形成数据垄断和基于数据的垄断,通过算法共谋、算法推荐等方式推动企业进一步扩大垄断,甚至采取算法预警的方式扼杀其他生成式人工智能企业。一但形成信息垄断,将导致人类无法真正辨别生成式人工智能所产生的结果是否真实,从而产生数字鸿沟。
在私权利层面,生成式人工智能的强大性能和简单的操作逻辑,可进一步降低犯罪门槛,提高犯罪治理难度。当ChatGPT与Codex,一起使用时,可能生成被注入恶意代码的钓鱼邮件。研究人员已构建了始于钓鱼邮件、终于包含恶意应用程序语言(VBA)代码Excel文档的完整恶意软件传播链,这意味着可以将恶意软件编译成可执行文件并在终端运行。ChatGPT可以间接地侵犯个人权利,而利用ChatGPT进行编程直接攻击网络所带来的风险更高。一些黑客已开始使用ChatGPT开发恶意工具,如用于盗取信息和建立暗网市场。尽管使用ChatGPT应用开发恶意软件仍需一些技术手段,但随着这些应用的不断迭代与学习,未来可能会为犯罪分子提供更便利的犯罪手段。可以说,ChatGPT通过简单便捷的交互方式和强大的生成能力,对潜在犯罪分子的恶意起到放大作用,甚至某种程度上促生了犯罪行为。
(三)责任承担机制不明
生成式人工智能在国家、社会、私权利层面都可造成损害,然而其损害过程和结果隐蔽,责任承担可能横跨国家、地区、部门、私权利主体等多层次,如何承担责任难以界定。生成式人工智能仍然是数据驱动型产品,OpenAI的相关协议是生成式人工智能治理范式的良好镜鉴。应当基于数据生命周期,对OpenAI公司的相关协议进行责任分析,但其相关协议表现出责任承担机制不明的情况。
首先,生成式人工智能过度收集个人信息,但未明确数据挖掘原则。OpenAI可能对其所收集的用户信息进行挖掘,了解用户喜好甚至突破匿名,从而侵犯用户权利,但未明确数据利用规则。如在消费领域,可能实现对部分用户的恶意欺诈或误导性宣传,导致用户的知情权、公平交易权等权利受损;在信息传播领域,可能引发“信息茧房”效应,拉大不同群体的认知鸿沟,侵犯用户自由选择权。事实上,数据实际控制者和数据挖掘者并不满足于简单调取数据原始主体资源披露的数据和其他必要数据,而是运用智能再识别技术复合勾勒零散无序的准标识符属性值与敏感属性值之间的特殊关联,这很可能打破匿名状态,侵犯用户隐私,从而“降低参与者对于数据隐私匿名存取的信任与参与热情”。因此,过度收集行为和尚不明确的数据挖掘原则伴随的侵权隐患对生成式人工智能产品的数据合规、数据挖掘可责性提出了新的要求。
其次,生成式人工智能对其数据共享与传输的规定语焉不详,可能造成用户访问权、修正权等数据主体权利失效。根据OpenAI《用户隐私协议》,OpenAI会向供应商、服务提供商、关联公司共享个人信息;如果发生合并、重组、破产或其他导致数据移交的情况,数据会同其他资产被交易至第三方。OpenAI特别说明,加州用户享有个人信息删除权、更正权、访问权等数据主体权利,并表示不会出售加州用户的信息。然而并未声明其他州、地区、国家的用户是否享有相应数据主体权利,反而规定了“用户的个人信息将从用户所在位置传输至OpenAI在美国的设施和服务器”。换言之,根据OpenAI现有规定,其笼统的数据共享与传输处于无序状态,大概率会违反以欧盟《通用数据保护条例》为代表的用户权利保护模式,在数据跨境流通方面也規避了许多国家的监管程序,可能对数据主体的基本权利造成侵害。类似OpenAI的公司如何承担数据处理者责任、数据主体如何保障自身权益的问题,对生成式人工智能的数据安全和数据主体权利保障等方面提出了要求,也对不同国家、政府之间的数据监管协作提出了要求。
最后,生成式人工智能所输出的内容归属不明,容易产生争议。尽管OpenAI试图给予用户Chat-GPT输出内容的所有权,但其自身仍能对输出内容进行实际控制,甚至,OpenAI还禁止用户转让或委托《使用协议》中包括控制权在内的权利或者义务,致使用户无法行使“输出内容所有权”。生成式人工智能的输出内容的归属仍然是学界尚存争议的问题,OpenAI此举目的在于形成“所有权”和“使用权”的二分,将“所有权”给予用户实际上是希望用户承担更多责任,而OpenAI反而能通过“使用权”实质上对数据进行利用。不明确责任划分无疑会助长生成式人工智能企业对个人权益的剥削和利用法律漏洞逃避责任的风气。
总之,OpenAI試图逃避数据侵权责任,给用户施加过高的义务。《使用条款》声明用户对内容负全部责任,且OpenAI对输出的可靠性、适用性、质量、不侵权、准确性等不作任何保证,甚至“在被告知有损害可能性的情况下,也不对间接的、偶然的、特殊的、后果性的或惩戒性的损害负责,包括对利润、商誉、使用或数据损失或其他损失的损害承担责任”。这一系列免责条款几乎完全免除了Ope-nAI对输出内容的责任,但同时却对用户责任进行了较为详尽的规定,如在保密、安全以及数据保护等方面,要求用户采用“像保护自身机密信息的方式一样”对待OpenAI定义的“机密信息”;要求用户发现安全问题后立即汇报;并且,如果在用户使用过程中涉及个人数据处理,要求用户已经获得相关主体同意并提供相关法律说明。权利归属不明确和责任承担不平衡不利于研发公司开发负责任的人工智能产品,不利于社会整体效益,这也是人工智能风险治理中亟待解决的问题。
(四)生成式人工智能治理范式的缺失
正如上文所述,目前生成式人工智能损害隐蔽、破坏性大,且相关责任承担机制不明。然而,我国尚未形成周延的法律体系,对生成式人工智能进行规制。生成式人工智能应当属于深度合成技术的范围。然而,深度合成相关的法律规制也尚未形成体系,仍需进行法律体系的构建。现有行政责任无法进行事前规制,民事责任不具体且难以落实,刑事条款可能直接适用,但仍存在弊端。理论中的制度构建无法涵盖生成式人工智能的特征,相应治理范式研究分散,生成式人工智能的综合治理范式缺失。
1.现行法律制度不足
在行政责任方面,政府能对生成式人工智能起到监管作用,但仅从政府视角无法充分规制。行政责任并不能充分规制生成式人工智能风险。例如在算法层面,由于生成式人工智能通过对数据制作标签的方式进行微调,难以解释从“输入层”到“输出层”的原理,大大提高了政府的监管成本,无法对其进行充分治理。此外,数据流动涉及多主体,现有机制无法联动不同部门展开数据监管协作,更无法在数据跨境中同他国机构进行协作,不具有协同治理的可能。若采取行政责任路径,现有事前监管、事后处罚的模式不足以应对生成式人工智能损害隐蔽、损害结果严重的特点,表现为事前无法侦测损害风险、事后损害结果无法恢复。
在民事责任方面,相关实践不足,理论研究有所缺失。现有实践中的涉数据治理范式集中于采用著作权、反不正当竞争等途径保护相关数据权益,这些保护范式大多基于涉案企业进行了人力、物力等投入,所形成的产品带来了竞争利益,从而给予相关数据的专门保护。采取上述模式进行风险治理无法规制生成内容,以人格权利益作为保护路径可以作为一种尝试。但生成式人工智能的侵权行为隐蔽,无法及时进行规制,同时其危害结果严重,通过人格利益令相关主体承担“停止侵害”“赔偿损失”等责任规制名誉权受损等情况,无法消除业已产生的影响。此外,如何承担民事责任涉及知识产权、反垄断、生成内容归属等尚未形成结论的新问题,又涉及数据、算法等底层问题,还可能牵涉公平公正等价值判断问题,而“算法黑箱”下的举证困难也是导致现有民法体系难以对生成式人工智能进行规制的原因。
刑事法律确有一些具体条款能进行规制,但均有缺陷。例如,“编造、故意传播虚假信息罪”仅能涵盖“编造虚假的险情、疫情、灾情、警情”的行为,然而ChatGPT生成内容是通过用户“提示”自动生成的,并不限于这四种情况,能否追责尚存疑问。再如,“煽动颠覆国家政权罪”的构成要件要求犯罪嫌疑人以积极、主动的方式实施煽动行为,然而生成式人工智能应用通过与用户互动的形式提供信息,与上述刑法规定的犯罪构成要件不完全吻合,因此即便能起到煽动的有害作用,仍难以用刑法煽动颠覆国家政权罪予以规制。同时,刑法作为更谦抑的法,不能越过行政法、民法规制的可能而直接采取刑事治理模式,过高的刑事责任和过低的入刑门槛不利于该类技术的创新。
2.统一治理原则缺失
生成式人工智能的输出结果包括文本、图像、音频、视频、虚拟场景等,理论研究多集中于人工智能生成物的权属、生物信息保护、主体地位及其责任承担,而未有全场景下的生成式人工智能治理理论,也未形成统一治理原则。
文本、图像等创作场景下,现有研究集中于著作权归属及其责任承担。有学者认为,生成式人工智能的著作权应归属于人工智能的使用者,生成式人工智能的输出存在侵犯复制权、改编权、信息网络传播权风险,并提出“人工智能创作”合理使用制度来化解风险。类似观点认为,在生成式人工智能语境下,人类作者的角色正在淡出,作者中心主义与三步检验法限制了生成式人工智能的发展,构建适应人工智能的著作权合理使用制度是必要的。非创作场景下,相关研究内容多样,但不成体系。不少学者对规制“换脸”进行了研究,个人生物信息保护、加工利用、存储保管往往被作为制度构建的重点,甚至有学者将深度合成技术下的深度伪造与个人生物识别信息的滥用问题画等号。人工智能的主体资格、责任承担等问题也是研究热点。从法哲学视角看,法律主体不限于人,人工智能法律主体化也存在可能,可将人工智能作为自然人、法人和非法人组织之外的“技术人”。还有学者提出算法法人的概念,赋予人工智能基于算法构架的实体独立地位。反对观点则认为人工智能的可解释性才是解决人工智能主体地位和法律责任的基础,应首先明确人工智能的可解释性,基于不同场景进行算法公开或者算法透明,不应考虑将人工智能法律主体化。显然,现有理论研究局限在权属、地位、责任等生成式人工智能制度构建的基础层面,且研究较为分散,未对生成式人工智能的治理模式进行全盘考量,不能解决生成虚假信息、道德操弄、数据处理不合规等问题。
总之,我国行政法、民法、刑法能在某种程度上对生成式人工智能进行分散治理,尚未形成周延的法律体系,理论研究无法涵盖生成式人工智能治理,现有治理范式缺乏统一的元规则。现有法律框架下生成式人工智能无法得到妥善规制, 深度合成技术理论研究更多聚焦在人工智能主体地位、人工智能生成物著作权地位、个人生物识别信息保护等领域,其所形成的制度设计主要目的在于明确责任承担、降低侵权风险、防止个人生物识别信息滥用等。已有研究过于分散,不能作为生成式人工智能治理的理论基础,亟须以更广阔的视角构建生成式人工智能治理理论,通过整体原则统合分散的治理体系。
三、生成式人工智能的治理原则
生成式人工智能由數据和算法驱动,促进社会发展的同时也带来巨大隐患,应建立相应制度对其进行规制。制度构建中,最重要、最核心的议题即针对生成式人工智能,建立相应的风险治理元规则(Meta-rule)。然而现行制度和研究中并未形成生成式人工智能的体系化思维,需从人工智能治理原则入手进行分析。
世界各国针对人工智能数据安全与风险治理已进行了一些探索。美国注重数据集质量的提升和数据风险的应对。2016年,美国连续发布《为人工智能的未来做好准备》和《国家人工智能研究和发展战略规划》两份报告,提出“人工智能公开数据计划”,为人工智能提供高质量和可追溯的联邦数据、模型和计算资源并将其作为训练集;2019年发布新版《国家人工智能研究和发展战略规划》,要求所有机构负责人审查联邦数据与模型,确保数据安全、隐私和机密性;2022年,美国政府发布《人工智能权利法案蓝图》,对人工智能数据安全、算法歧视、数据隐私等方面给予指导。可见美国人工智能数据风险治理的元规则主要围绕数据质量与数据安全展开。
欧盟在人工智能数据治理方面则较为关注个人数据与个人权益保护。2018年3月,欧洲政治战略中心发布《人工智能时代:确立以人为本的欧洲战略》,战略提出要扩大人工智能所需的数据源,避免数据偏见,确保数据的收集、使用和共享遵守通用数据保护条例的规定。2018年4月,欧盟委员会发布《欧盟人工智能发展战略》,鼓励在遵守个人数据保护相关法律的基础上更广泛地分享私人数据。2019年欧盟委员会人工智能高级专家组发布的《可信AI伦理指南》确立了3项AI道德原则,即遵守所有适用的法律法规、尊重道德原则和价值观、技术和社会效应的稳定。2020年,经过350多人的参与,欧盟委员会人工智能高级专家组发布了《可信人工智能评估清单》,确定了7项关键评估标准。可见欧洲人工智能数据治理的元规则以数据公平和个人隐私保护为核心,总体上以保护人权为核心进行人工智能制度构建。
我国也在规制人工智能方面进行了一定的探索。最具代表性的是,2021年9月,新一代人工智能治理专业委员会发布《新一代人工智能管理规范》,提出“增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养”6项基本伦理要求,以及针对管理、研发等特定活动的18项具体伦理要求。最新的《征求意见稿》则提出生成式人工智能应体现社会主义核心价值观、避免算法偏见和歧视、尊重平等竞争、内容真实、保障个人权益的5项基本规定,总体上我国现行的生成式人工智能治理框架比较完善。
除了美国、中国以及欧盟为代表的国家和地区外,大型企业与一些世界性组织也曾发布人工智能治理文件。如2018年,谷歌曾提出7项人工智能应用的原则用以自律,分别是:对社会有益、避免制造或加强不公平的偏见、构建并测试安全性、对人负责、隐私保护、坚持高标准的科学追求、使用符合目的。此外,微软、英特尔、IBM也曾提出过类似AI准则。2021年5月,经合组织(OECD)也确立了5项人工智能基本原则:包容性增长、可持续发展和福祉;公平及以人为本的价值观;透明性和可解释性;稳健性、保护与安全性;可问责性。大型企业与世界性组织所构建的规则为生成式人工智能的治理提供了商业和人类共同体视角,补足了相关国家所提出治理原则的缺失之处。
不同国家与国际组织可能制定不同的原则,但不同原则之间又具备一定程度的共性。正如上文分析,人工智能具有不确定的技术风险、偏离设计应用的风险、非法使用的风险、社会风险、伦理风险。由此带来人工智能产业“代替排挤”“差异扩展”“风险聚集”3类消极效应。为尽量降低人工智能技术带来的社会负效应,安全、可信、公平、可解释性、保障数据主体权利等内容已经成为人工智能治理的基本原则。季卫东提出了更多原则,认为应当将共享互信、个人尊严、民主参与、国际合作、相机规制、公开透明、双重规制、追踪制裁、预防响应9个方面作为人工智能开发的主要原则和实施方法。何渊则认为,应从政府与市场、立法与行政、中央与地方、政府与社会4个维度构建授权与集权的双向治理模式,打造以多元、开放、分享为基础的治理体系。总之,国内学者认为在人工智能时代,确立风险控制理念,构建法律、伦理、行业、自律等元素下的多元互动规制体系是人工智能发展的重要保障。
然而,这些原则或治理范式多是针对人工智能的领域通则,面对不同人工智能应用,还应具体细化其原则。例如,对于医疗健康领域的人工智能应用,有学者提出“数据与隐私保护、可责性和政府监管、可信和可理解、医患关系、衡平”5项原则,前3项原则是通用型原则。医患关系原则是指病人与医生之间存在信任关系,仅用AI诊断无法代替医生对病人的心理支撑。衡平原则是指对人工智能应用所产出的结果进行利弊分析,衡平考量。可以说,治理人工智能应用的元规则除考量数据、监管、算法等因素,还应将应用场景、用户心理和社会效应等因素纳入考量。还有学者认为现已形成人工智能的多主体、多部门、多学科的多中心治理模式,社会效益与人工智能系统之间具有三层结构。最下层为技术层,对该层要利用数据管理、数据可责、数据标准等进行管理;中间层为道德层,需要建立相关原则;最上层是社会和法律层,需要采取立法、合作等措施进行管理。也就是说,构建元规则的过程中要考虑结构性与可行性。总之,尽管现阶段已有大量的元规则对人工智能应用进行规范,但仍应当结合具体行业的要求进行更为细致的法律制度设计,从而将元规则落地。对生成式人工智能领域,亦应当构建有针对性的元规则。
四、生成式人工智能治理元规则
原则导向的治理机制,能在宏观道德和微观原则之间寻找平衡点,以平衡技术发展和人工智能治理。通过上文对风险的梳理,吸取国家、组织、企业人工智能数据风险治理的经验,对现有人工智能数据风险治理的原则进行梳理可知,现有国家、组织、企业实践中的人工智能治理制度体现了14个原则,这些原则彼此关联,可被进一步提炼总结,形成普遍适用的生成式人工智能风险治理元规则。
在元规则的构建过程中,要在核心价值上达成充分共识,保证人类自主性、责任承担的有效性。其中,算法公开透明、数据主体权利保护是人工智能法律规制的核心。采取算法解释、算法审核、非歧视开发准则和精准的数字平权行动等治理措施有助于人工智能治理。同时,数字福祉、内生监管、合作治理等机制不可缺失。总的来说,生成式人工智能元规则的构建要以维护人类主体地位为核心,以算法和数据规制为主要内容,保持多元利益的动态平衡,并时刻防范社会风险。对于生成式人工智能,应当从4个角度进行元规则的构建:第一,协同共治,涵盖算法监管、算法安全、社会效益、算法可责;第二,提升透明度,涵盖目的正当、算法透明、保护隐私、数据安全;第三,保障数据质量,涵盖算法可信、算法公平、算法公正;第四,伦理先行,涵盖以人为本、价值多元、反对歧视。
(一)协同共治
协同共治包含国家内部不同部门、不同主体间的协同,也包含国家间的协同合作。通过对生成式人工智能的风险分析可知,跨部门甚至跨国家的治理合作具有必要性。我国《网络信息内容生态治理规定》强调网络信息内容生态治理的主体是政府、企业、社会、网民等,体现了国家内部多主体参与的协同治理思路。首先,政府与其他机构相比更具合法性,能确保算法监管、算法安全;其次,政府具备强制执法能力,能确保数据的稳定、可靠以及合规;最后,政府能更好地收集信息并开展协调工作,保障工作效率。当政府调节机制成效不明显时,可发挥企业、社会和个人的能量,让相应主体承担更多的自治责任,特别是在生成式人工智能这样的新领域,法律法规尚未充分更新,采用公私结合的路径能让目前的治理手段发挥更大效用,充分释放社会效益,而协同共治的理念也能实现算法责任合理分配,使算法可责性落地。
同时,不同国家采用的不同治理方式可能会对人工智能的创新和扩散造成阻碍,如数据访问限制、数据本地化、歧视性投资等,不同的风险分类制度和治理要求会增加全球性企业的服务成本与合规成本,尤其可能对一些小规模企业造成致命的打击。因此,除各国内部需促进多主体、多部门协同治理外,还应积极推进生成式人工智能风险治理方面的国际协同合作。2023年1月27日,欧盟-美国贸易技术委员会签署《公益人工智能管理办法》,该协议遵循了《互联网未来宣言》中的原则,建立在双方共同利益和使用数字技术手段应对新兴挑战的共同需求之上,并规定双方会联合支持人工智能的社会应用,包括农业、医疗、天气等领域。协议签署后,双方官员表示美国和欧盟的研究人员将在5个主要领域合作开发“联合模型”。2022年12月,委员会就多项人工智能事项达成一致,包括承诺制定人工智能国际治理标准以及就人工智能对劳动力的影响开展合作研究。未来,该委员会可成为欧美开展人工智能治理合作的主管机构。美欧这一合作协议虽然着重于人工智能的应用,但未尝不能作为生成式人工智能风险治理国际合作的可参考范例。
2021年10月,人工智能合作论坛(FCAI)发布的一份中期报告评估了彼时人工智能国际合作的前景,并提出了发展建议。报告阐述了缺乏合作的国际环境的消极后果以及加强合作的好处,强调了人工智能国际合作在应对全球挑战方面的积极影响,认为“没有国家可以单独行动”,并展示了合作性国际框架对人工智能的治理和开发有何种积极影响。在治理合作方面,报告建议将治理合作视为一个循序渐进的过程,可从较小的合作逐渐展开,最终形成较为全面的合作。于我国而言,可通过双边、多边合作的形式,与价值取向相近或享有共同利益的国家开展合作,共同制订人工智能风险治理的标准和程序。以促进国家安全为基础,人工智能应用和数据在合作各国间可以流通,并循序渐进构建较为全面的人工智能风险治理合作体系。
互联网作为当今社会的重大核心技术已蓬勃发展60余年,但至今未成立以联合国为核心的国际多边机构,这不利于互联网行业的有序发展及相关国际合作的展开。目前大部分互联网自治委员会和自我监管机构都由美国控制,它还阻止了一些国家试图建立国际互联网监管机构的努力,只为繼续利用其科技霸权地位在政治、社会、商业领域主导舆论甚至操控不同国家的公民。马长山认为:“掌握了数据,就意味着掌握了资本和财富;掌握了算法,就意味着掌握了话语权和规制权。”互联网是国际公共产品,关系着全人类的共同利益,不能任由个别国家或利益集团摆布,因此,以联合国为核心构建国际多边互联网监管机构是各国面临的紧迫任务。应在开展双边或多边人工智能风险治理国际合作的同时,推动建立联合国框架内的互联网监管机构,以此为包括人工智能在内的全球互联网活动提供机构保障与制度框架,推动出台公平、统一的人工智能风险治理标准,降低不合理的成本,充分利用人工智能进一步解放生产力。
(二)提升透明度
为防止人工智能应用侵犯各类主体的权利,应提高人工智能工具在算法、挖掘原则及数据共享方面的透明度。我国算法治理体系将算法定位为“互联网信息服务算法”和“算法推荐服务”,要求算法信息服务应公平公正、透明可释,企业应及时、合理、有效地公开算法基本原理、优化目标、决策标准等信息,作好算法结果解释;鼓励算法推荐服务提供者综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性。算法监管制度中已经创新性地提出了针对特征库、用户标签、算法机制机理等技术规范的措施,但这些具体的措施很难应对生成式人工智能滥用造成的风险,应结合生成式人工智能的新技术发展与应用场景作出相应调整和改进。
算法是人工智能的决策原理,即其使用数据的方式。包括ChatGPT在内的生成式人工智能均使用了神经网络,因神经网络技术的特征,要求这类应用达到算法透明化客观上非常困难,若强制要求透明化可能会阻碍神经网络技术的应用。因此,立法者应结合类似的应用场景、应用效果和受众等因素,对算法透明度要求进行调整。如用于降低轻型飞机碰撞率的FLARM系统并未采取任何提升算法透明度的措施,但它在降低飞机碰撞几率方面取得了明显的成效,保护了大量乘客的生命安全,若仅因算法透明度不达标就禁用该系统显然有悖常理。目前越来越多的算法开发机构将算法解释纳入人工智能学习的一部分,针对“算法黑箱”的反向推理研究也已展开,算法透明度问题可能随着技术的发展得以解决。
除算法原理解释外,还应增加生成式人工智能挖掘原则方面的透明度。比如ChatGPT“看人下菜碟”的能力昭示了其为西方价值观服务的本质,为防止别有用心的政府或企业利用类似工具潜移默化向广大受众强加己方意图和观念,应确保各方参与者拥有平等的数据表达机会,以保障相关技术不会完全沦为政治工具。同时,应对数据挖掘的范围有所限制,确保数据挖掘满足最小必要原则且具有合法目的,数据挖掘的范围不得超出最初声明的范畴。此外,数据挖掘能长久留存和控制巨量信息,为不侵犯包括数据遗忘权在内的数据主体权利,在主体要求、授权超期、数据资源超范围等情况下,应确保相关数据能得到彻底删除。综上所述,提升生成式人工智能挖掘原则的透明度是为确保数据挖掘的公允、保证不同主体的公平参与、限定挖掘范围并及时删除不必要的数据以确保数据主体的权利在数据挖掘过程中不受侵犯。
提升生成式人工智能数据跨境流动方面的透明度能确保国家安全,加深各国政府对人工智能的信任。ChatGPT的一大特点是获取跨境数据流,它可以在不同国家和地区获取数据,不受数据跨境流通障碍的束缚。为满足我国数据跨境流动国家安全的要求,生成式人工智能必须明确数据跨境流动的原则,确保对一般数据和敏感数据进行区分,且重要数据的流动应按照要求进行审批。生成式人工智能数据跨境流动应以数据安全主权为原则,该原则不仅可从规制风险的角度统一各国在人工智能数据跨境流动上的思路,还与我国安全与发展兼顾的规制进路相符,有利于我国发展独立自主的数据话语体系,为全球提供促进数据有序跨境流通的生成式人工智能产品。
(三)保障数据质量
保障数据质量应关注原始数据的准确性与产出结果的准确性。原始数据的准确性决定了产出结果的准确性,而产出结果的准确性还受到算法的影响。保障数据质量是正义的要求,保障正义能预防人工智能带来的极端分化。算法透明原则能够促进算法可信,算法公平与公正是输出质量的基石。生成式人工智能设计人员应当秉持公平公正的道德观进行数据标签工作,并要求结果符合公平公正的道德标准。
正如《降临》一书的作者特德·姜所描述的那样,ChatGPT是网上所有文本的“有损JPEG”,虽然保留了大部分信息,但只能形成原图片的近似值。特德·姜认为,ChatGPT并未从互联网逐字引用,而是重新表达材料,给人ChatGPT已经理解了材料的误解。ChatGPT的输出结果只是在模仿人类对信息进行压缩,而非真正理解信息,因此ChatGPT无法保证内容的真实性。例如,ChatGPT撰文称纽约市市长“通过金钱收买权力”。但经核实,该自述为编造,并引用了虚假材料。一方面,ChatGPT会压缩信息,并可能将经压缩的内容收集作为训练素材,使人类信息库中充满信息的“有损JPEG”。例如,人类信息库中本来只有“无损信息”,但随着ChatGPT使用的增多与数据收集,人类信息库中的“有损信息”会越来越多,最终真正的“无损信息”可能会被淹没在“有损信息”中。另一方面,ChatGPT在撰写新闻、论文、社评等文章时生成虚假信息,让用户难辨真伪,致使人类信息库变得“模糊”。为避免生成式人工智能可能带来的人类信息库“失真”,应当保障数据质量。
具体而言,生成式人工智能应尽可能达到信息的无损压缩与复现。ChatGPT生成的答案是对学习文本的压缩和重新包装,这也在一定程度上解释了ChatGPT有时会编造事实并输出一些“幻觉”,即当一个压缩算法将原件有损压缩成1%的大小并重建时,原件的内容会有很大程度的损失,输出的结果就可能是捏造的。保障输入的真实性是提升数据质量的关键板块,应增加对所收集信息进行真伪鉴别的模块。ChatGPT的预学习模型并未鉴别信息的真伪,只通过人工标注的方式去除有害信息,而互联网本就含有大量的虚假信息,将这些信息作为学习材料无疑会降低模型输出的真实性,从而对用户造成错误印象或财产损失。此外,在复现阶段应对生成式人工智能的产出进行质量把控,可将相关开发企业是否愿意用模型生成的文本作为新模型的训练材料当作判断指标, 若不能作为训练材料,则意味着模型生成的文本较为模糊(训练价值低),若可以作为训练材料,则意味着生成的文本与原件具有相近的“清晰度”(训练价值高),由此入手管理大型语言模型的数据质量。
(四)伦理先行
伦理先行的理念作为生成式人工智能设计、使用时的典范性原则,不能成为空洞的表达,应当贯穿于公法和私法的法律实践中,体现以人为本的理论内涵,反对技术滥用带来的歧视风险,最终实现对人类尊严的维护。现有生成式人工智能缺乏全面的伦理道德过滤机制。人工智能技术应当以最大程度造福全体人类技术为伦理基石,同时不设定统一的价值判断标准,促进多元价值判断体系的生成,尤其是不能形成价值立场,潜移默化进行文化输出,其应用应当是客观的陈述,需要尊重不同人群的国家、地区、民族、性别、宗教等元素,不良信息甚至违法犯罪信息的输出可能对社会造成严重影响,伦理先行是必要原则。
开发人工智能应用时,相关法学研究与制度构建的目的是为了避免引发人类风险与灾难,其最终目的应以人为本。新技术的出现带来人类尊严危机,数据瑕疵和算法瑕疵都可能导致人格尊严受损,人格尊严等以人为本的理念不能作为空洞的原则性指引要求,而应当积极融入法律制度构建之中,并对公共决策起到规制等实质性作用。另外,还应注重对用户的引导。实践中存在用户超授权使用生成式人工智能的情况,应当避免用户通过诱导绕开系统限制,违反相关准则,输出有害内容。加强用户引导不是仅仅提示人工智能有违反伦理的可能性,而是还应告知人工智能的能力和局限,确保用户知晓如何降低伦理风险,朝正确的方向使用人工智能,而非突破底线滥用生成式人工智能。
结论
ChatGPT的惊艳表现昭示了生成式人工智能带来的技术革新,市场为之沸腾的同时,生成式人工智能的数据风险逐渐显现,在国家、社会和私权利三层面带来了不确定性。基于现有企业、国际组织、国家不同的人工智能治理模式,应通过四大元规则针对生成式人工智能进行风险治理:协同共治、提升透明度、保障数据质量、伦理先行。协同共治包含国家内部不同主体、不同部门之间的协同,旨在发挥政府、企业和个人的不同作用,确保数据风险处于可控范围;还应开展国际合作,先以价值取向相似的国家为起点展开合作,共同制定人工智能风险治理的标准和程序,并循序渐进地构建范围更广、更全面的国际合作。提升透明度意在提升生成式人工智能算法、挖掘原则及数据共享方面的透明度,帮助数据主体了解数据的获取和处理过程,建立個人、企业和政府对人工智能应用的信任。保障数据质量,一是要提升生成式人工智能训练数据的质量;二是要对输出内容进行真伪鉴别,避免人工智能应用输出具有迷惑性的错误言论,从而降低侵犯用户权利导致用户损失的可能。伦理先行意味着将伦理道德融入人工智能研发和应用的全生命周期, 需不断强调其实质性指引作用, 避免成为空洞表达。无论技术怎样变革,以上四个元规则是生成式人工智能数据风险控制方面不能突破的底线,随着生成式人工智能与社会规则、伦理规范、群体意识的融合,未来可对上述元规则的内涵和外延进行适当的调整和解释,以适应技术的发展和社会的变化。