从GPT迈向AGI:人工智能治理的未来路径探索

2024-09-22 00:00:00吕昭诗李金平陈宇
科技智囊 2024年8期

摘 要:[研究目的]GPT(生成式预训练模型)已经展现出未来AGI(通用人工智能)的技术端倪,AGI将成为未来社会的基础设施,应用于各行各业。我国目前已经形成了“算法—深度合成—生成式人工智能”的治理推进脉络,但从GPT迈向AGI的进程中,数据资源匮乏、算力供给短缺、模型开源建设落后、责任承担不明确等问题仍是其发展的掣肘,因此亟待探索适应人工智能时代发展的治理路径。[研究方法]立足于国内人工智能发展与治理的现状,深入分析目前人工智能发展所面临的问题,结合美国的灵活监管和欧盟的统一治理等国外人工智能治理经验,从逻辑更新和政策优化两方面破解人工智能目前面临的发展困境。[研究结论]在逻辑更新方面,我国应在明晰AGI为可自主无限处理复杂任务的通用性人工智能系统的情况下,制定面向AGI的包容审慎人工智能治理新模式,重视伦理建设从而规避安全风险。在政策完善方面,应鼓励数据共享流通,加大对算力基础设施的投入,积极推动开源建设,完善人工智能生成物的责任承担制度,以期促进我国人工智能的健康发展。

关键词:数据;算法;算力;通用人工智能;人工智能治理

一、问题的提出

近年来以ChatGPT为代表的生成式人工智能技术席卷全球,迈进通用人工智能时代的曙光已经展现。在这一进程中虽然存在多模态AI、具身智能、类脑神经等多种进路,但由GPT大模型迈向AGI是研究最多也最具可能性的进路。2023年4月28日召开的中共中央政治局会议提出,要重视通用人工智能发展,营造创新生态。有学者指出,在未来,AGI会具备实现无限任务、自主生成任务、价值驱动且能实现价值对齐的特征[1],将成为未来社会的基础设施,技术应用覆盖各行各业。

任何行业的健康发展均离不开合适的治理路径,良好的人工智能治理将通过制定和实施各种法规、政策和技术手段来实现,它们会确保人工智能的开发和应用符合伦理、安全和公共利益的需要。我国目前在人工智能相关技术治理方面已经积累了一定的实践经验,并在中央层面出台了一系列文件,已经初步构建了由《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等共同组成的生成式人工智能法律规制体系[2],呈现“算法—深度合成—生成式人工智能”的治理推进脉络,但随着人工智能技术的发展,越来越多的新问题又纷纷涌现。人工智能训练优质数据短缺、算力资源遭遇瓶颈、模型开源建设落后、责任承担机制不清等问题愈发突出。在训练数据方面,目前我国的人工智能训练数据仍十分匮乏,并且面临着数据质量不高的隐忧和数据泄露的风险;在算力供给方面,优良芯片短缺和算力建设不完善导致的算力支撑不足,已经成为目前制约我国人工智能发展的重要因素;在开源生态方面,目前我国模型研发创新驱动不足,相比于国际上成型的模型开源体系,我国的开源生态建设仍不完善;在责任承担方面,人工智能生成的内容往往真假难辨,此外模型“幻觉”生成的虚假信息已开始在社会中蔓延,而人工智能造成损害的责任承担仍面临诸多障碍。由此,在由GPT迈向AGI的新阶段,我国人工智能治理体系亟待逻辑更新与制度优化。

二、现实挑战:我国人工智能发展的实际障碍

自2015年《关于积极推进“互联网+”行动的指导意见》首次提出发展人工智能以来,我国陆续出台一系列有关人工智能发展和监管的文件。在国务院统筹规划下,我国正在实施人工智能发展的“三步走”战略,目标是到2030年,让人工智能理论、技术与应用总体上达到世界领先水平,成为世界主要人工智能创新中心1。但面对未来通向AGI的现实治理需求,我国目前的人工智能治理仍显得捉襟见肘,有以下主要问题尚待解决。

第一,数据资源匮乏。大规模的数据训练是人工智能功能实现的基础,但当前训练数据面临诸多问题,可供利用的数据资源极为匮乏。首先,数据共享机制尚未建立,数据流通不畅。不同机构和部门之间的数据壁垒导致了数据孤岛的形成,限制了数据的充分利用。其次,数据来源良莠不齐,缺乏高质量的数据集,导致人工智能模型可能产生“幻觉”[3],即模型在处理不可靠数据时可能得出错误结论,这将给最终结果的数据带来严重危害。第三,数据安全风险依然存在,一旦发生数据泄露等问题,将会给社会带来巨大影响。数据泄露不仅威胁个人隐私,还可能导致商业机密和国家安全信息的外泄。

第二,算力供给短缺。随着社会经济水平的快速发展,各行各业对算力的需求急剧增加,然而,当前算力供给的短缺已经成为制约我国人工智能发展的瓶颈。一方面,我国算力的支撑设施建设相对落后,各地发展差异较大。尤其在一些欠发达地区,计算基础设施建设十分滞后,限制了当地人工智能产业的发展。另一方面,芯片成为制约我国算力释放的阻碍,高性能计算芯片是人工智能发展的核心硬件,但我国在这方面的技术积累和产业化水平仍与国际先进水平存在巨大差距。由于我国芯片研发的滞后与国外对我国芯片购买的限制,导致现有芯片无法满足人工智能算力需求。

第三,模型开源建设落后。开源建设在人工智能开发中极为重要,开源软件和平台不仅能降低开发成本,还能促进技术创新和知识共享。未来我国将成为世界最大的开源项目应用市场,开源生态的合理建设迫在眉睫。然而,目前我国并没有形成成熟的开源生态,国内人工智能厂商大多加入国外主导的开源生态中,核心技术受制于人。此外,国内开源项目数量有限、质量参差不齐、缺乏全球影响力等问题都进一步制约着我国人工智能产业的发展。

第四,人工智能责任承担不明确。在当前的人工智能发展阶段,人工智能生成物基本上属于“排列组合式创新”,尽管在形式上人工智能生成物非常接近人类的创作内容,但其是否构成《著作权法》中认定的作品尚无定论。由此,人工智能侵权责任的承担面临着极大的争议。目前我国立法暂未对此问题有针对性回应,这种责任的不明确性将导致未来在面向通用人工智能发展时面临更大的法律风险。例如,人工智能生成的内容一旦涉及侵权,如何认定侵权主体和责任归属将是一个复杂的问题。

综上所述,在由GPT迈向AGI的重要阶段,数据、算力、开源建设、责任承担等问题均亟待解决。我国可在分析借鉴国外人工智能治理政策的基础上,逐步探索符合我国实际的人工智能治理道路,最终实现由GPT向AGI的健康发展。

三、比较借鉴:域外人工智能治理经验

面对人工智能如火如荼的发展态势,美国、欧盟等国家和地区已经开始对其展开针对性监管,以确保技术发展与社会伦理、法律框架相协调。美国在人工智能治理方面强调技术创新与市场驱动,鼓励企业和科研机构积极参与人工智能研发。欧盟则采取了一种更加综合和严格的监管方式,其通过《人工智能法》实施统一监管。此外,日本、韩国、加拿大等也在大力推进人工智能治理。

第一,美国采取灵活监管措施。美国采取的是较为灵活、分散和多元的监管模式。强调尽量少地采用“硬性”监管,鼓励行政机构与私营部门合作,主要强调安全原则,参议院、联邦政府、国防部、白宫等先后发布《算法问责法(草案)》《人工智能应用的监管指南》《人工智能道德原则》《人工智能权利法案蓝图》《国家网络安全战略》等文件,注重个人隐私权利的保护和产业发展的平衡,以“联邦—州”二元立法结构建立符合产业现状的人工智能治理模式,将提高透明度、反歧视作为监管AI的重要原则,利用技术标准和指南促进行业自律,提高治理效率。

同时,美国注重在各个州开展区域性治理实践,由各个监管机构在其业务范围内发布新规定或对现有规定进行解释,将人工智能纳入其职责范围[4]。例如,美国《数据法案》要求拥有3 000万以上用户的互联网平台在使用用户数据时,需告知用户数据处理情况,获取用户明确同意,并保障用户的撤回同意或要求删除数据的权利[5]。《过滤气泡透明度法案》则对平台的算法推荐进行规制,要求大型互联网平台(实施某种行为时)需显著告知用户[6]。《算法正义和在线平台透明度法案》则要求提高算法处理的透明度,清晰而充分地向用户披露算法处理收集个人信息方法[7]。2023年1月,美国商务部的国家标准与技术研究所(NIST)发布了《人工智能风险管理框架1.0》(AI RMF1.0),目标是帮助设计、开发、部署或使用人工智能系统的组织和机构,提高人工智能风险管理的能力,并促进发展可信和负责任的人工智能[8]。

第二,欧盟实施统一治理。欧洲是世界范围内人工智能立法的领跑者,其采取统一监管规则和行政干预为主的治理路径,从“软性”伦理规范原则走向“硬性”法律监管规则。早在2018年,欧盟便发布《欧盟人工智能战略》和《欧盟人工智能协同计划》,提出了要加强对算法风险应对策略的研究[9]。《欧盟通用数据保护条例》赋予用户被遗忘权、可携权等新型权利,加强用户对个人数据的保护,同时规定所有数据处理者都应当设立“数据保护官员”,负责数据保护相关工作。《数字市场法案》则对处于优势地位的“守门人”2的数据获取与利用进行进一步限制。

2021年4月,欧盟提出《人工智能法案》,积极推动人工智能法案的统一立法工作。在此后的两年中,《人工智能法案》立法工作进展迅速,2023年12月,欧盟委员会、欧洲理事会、欧洲议会三方就《人工智能法案》达成政治协议。2024年7月,最终确定的《人工智能法案》正式公布,成为全球首部人工智能领域的综合性法规。该法案将以风险为基准对人工智能进行分类分级监管,并在欧盟内部设置了人工智能办公室,统一负责人工智能的治理。

第三,其他国家逐渐重视。世界范围内,以日本、韩国、加拿大为代表的发达经济体也在逐步推进人工智能的立法工作,是人工智能发展重要的推动力量。韩国近期提出《人工智能发展新计划》,计划建立数字权利法案、确保人工智能的伦理可靠性;日本发布《生成式人工智能指导方针草案》,着力推进制定面向企业的人工智能责任承担指导方针;加拿大公布《人工智能行为准则》和《生成式人工智能技术的基本原则:负责任、可信和隐私保护》等监管文件,旨在建设强大、负责任的人工智能生态系统。

在世界各国纷纷出台针对本国的人工智能立法文件的同时,国际的人工智能协同立法进程也在加快,国际组织、发达经济体之间的人工智能合作与交流愈发频繁,以《布莱切利宣言》《美欧联合申明》《促进人工智能风险管理互操作性的共同指南》《安全人工智能系统开发指南》等为代表的多国联合文件纷纷出台。诸多文件对人工智能的安全伦理、风险管理、行为准则等问题进行了明确规定,进一步推动了人工智能的规范化治理进程。

四、逻辑更新:人工智能治理的思路转变

面向未来的通用人工智能,我国不应禁锢于传统治理思路,而应随着科技和社会的发展转变治理思路,在明晰通用人工智能定义的前提下,采取面向AGI的人工智能治理新模式,注重伦理安全,确保人工智能安全可信。

首先,明晰通用人工智能定义。通用人工智能是人工智能发展到高度智能化阶段的形式,对通用人工智能的探讨恰能体现我国对人工智能治理的前瞻性。目前我国立法中并未有关于通用人工智能的一致性定义,但近年来我国部分政策文件对通用人工智能的定义做出了一定的探索,如公安部第三研究所的《通用人工智能AGI等级保护白皮书(2023版)》提出,一种能够像人类一样拥有智能、学习、推理、解决问题和适应新环境的人工智能系统,也称为强人工智能3。同时,相关新兴科技的立法也可以为通用人工智能的定义提供一定的参考。以生成式人工智能、深度合成技术为例,生成式人工智能技术被认为是指具备内容生成能力的模型及相关技术4,深度合成技术被认为是利用深度学习、虚拟现实等生成合成类算法制作文本、图像等网络信息的技术5。由此可见,我国对新兴科技的定义往往是结合技术的实现路径、应用形式、最终目的而做出的。在未来立法中我国亦可借鉴此定义方式,结合通用人工智能的学习自主性、任务无限性、价值认知性特点,对通用人工智能做出合理定义。

从这个角度来说,通用人工智能是指能够在多个领域和任务上表现出人类水平或者超越人类水平的智能,具有自主学习、自我进化、自我决策等能力。虽然达到通用人工智能存在多模态AI、具身智能、类脑神经等多种进路,但最终要实现的目标却是类似的:通用性、无限性、可处理广泛和复杂的任务。从通用人工智能的共同目标出发,借鉴我国已有的生成式人工智能、深度合成概念,可以尝试对通用人工智能做出合理性定义:可自主无限处理复杂任务的通用性人工智能系统。

其次,明确面向AGI的人工智能治理新模式。通用人工智能与传统人工智能有着巨大区别,在运算方面,传统人工智能依靠符号的编码规则来进行运算,生成式人工智能则依托于经验的概率预测[10],而通用人工智能则是依据经验进行更为智能化的运算,具有更强的自主性、适应性、意识性和泛化性;在商业模式方面,未来的通用人工智能生态将会呈现“1个通用基础大模型+N个行业专用子模型”的形式[11],即通用人工智能的基础大模型将如电脑的操作系统Windows/Linux和手机的操作系统android/iOS一样,在世界范围内只剩下少量几家人工智能基础模型提供商,而有大量的专业模型服务提供商;在技术运用方面,人机交互将会成为日常生活方式,人工智能服务能力和用户的自我运用综合决定人工智能的最终用途。通用人工智能带来的巨变将会对人类生产生活方式产生深远的影响,人工智能的监管也需随着科技的发展而创新,随时修改和废止各种不合时宜的、阻碍人工智能发展的监管政策,增强监管的适应性和灵活性。

我国的人工智能治理,既要立足于生成式人工智能发展的现状,又要前瞻性地着眼于通用人工智能发展的未来,以问题为导向,坚持可靠、可控、可信原则,促进人工智能发展,保障人工智能安全。科学有效的创新性监管要在保障人工智能安全的同时促进人工智能的发展,可以从以下几个方面着手:其一,建立试错容错监管制度,对于新兴人工智能科技发展要保持宽容态度,设置合理的观察期。对于人工智能在观察期内产生的风险,在未对市场、用户等产生重大影响的情况下可以适当减轻处罚或免于处罚,并对其进行风险防范合规指导[12],通过价格、声誉、对话等柔性机制[13]来促进人工智能企业自我约束和自我完善;其二,构建公私多元主体协同的治理机制[14],人工智能监管要实现多部门之间的沟通协作,明确各部门的职责分工和协作方式,形成统一协调的监管政策和措施,避免政出多门而导致抵触,以实现监管的有效衔接和协同。同时,要尊重市场规律和社会需求,平衡各方利益和诉求,实现多元主体的共同治理;其三,实行企业自我合规减责措施,要鼓励人工智能服务提供者自觉遵守相关规则,建立健全内部管理和风险控制机制,对于在自我合规过程中发现并及时纠正的问题或者隐患,给予免于处罚或者减轻处罚的待遇;T8hV9FOhmYlsOGclPSdHxg==其四,推进人工智能先行试点机制,对于一些具有重大创新意义的人工智能领域,允许一部分人工智能企业在安全的前提下进行创新[15],即在一定范围内放宽市场准入条件,允许企业开展创新活动,为人工智能创新提供政策空间和制度保障。

最后,注重伦理安全,确保人工智能安全可信。人工智能伦理涉及人类的价值、权利、道德等方面的规范问题,而将在社会中广泛使用的通用人工智能,会对社会道德伦理和生产生活秩序有着重要影响,这需要通用人工智能承担起相应的、多方面的社会道德伦理义务。目前,生成式人工智能所带来的虚假内容、知识侵权等风险已然引发了科技伦理领域的剧烈讨论。在由弱人工智能迈向通用人工智能的过程中,人工智能的自主性和意识性将会不断加强,现有科技的伦理规范显然不再适应未来人工智能技术的迭代革新,一旦缺乏伦理规范的有效规制,人工智能的发展便有可能走入歧途,甚至威胁整个人类社会。

随着人工智能的逐步类人化,可以在人工智能发展的各个阶段引入“人因工程”理念,令人工智能遵循人类社会的伦理道德[16]。具体而言,可以从以下几个方面加强人工智能的伦理建设:其一,建立人工智能的伦理原则,明确人工智能的发展和应用应遵循的基本价值和目标,尊重人类的尊严、自由、平等,保障人类的安全、利益、隐私;其二,建立科技伦理的风险识别与跟踪机制。科技伦理风险识别旨在基于风险分级的理念为后续差异化的应对机制提供初步的事实基础[17]。因此,需要完善生成式人工智能领域的风险分级具体规则,在明晰分级规则的基础上,开展风险识别与跟踪工作;其三,建立科技伦理审查与监管制度,敦促技术研发使用者提高人工智能技术使用的规范性[18],确保人工智能的发展和应用符合伦理原则,及时处理人工智能的伦理问题和伦理纠纷;其四,加强人工智能的伦理教育,强化人工智能的伦理意识和伦理素养的培养,提高人工智能的伦理认知和伦理判断的能力。

五、政策完善:人工智能治理框架的优化

为实现通用人工智能的健康发展,我国应从数据、算力、开源建设、责任制度等多方面入手,推动数据共享和流通,加大对算力基础设施的投入,积极开展开源建设,明确人工智能生成物的侵权责任归属和知识产权保护,为通用人工智能的健康发展提供坚实保障。

第一,支持数据共享流通,不断提升数据质量。生成式人工智能依靠大量数据训练学习,缺乏足够的数据支撑将使其举步维艰。目前我国许多数据并未能够充分流通和利用,应构建相应机制使数据充分发挥价值。用户在处理和运用海量数据的同时也面临着不良数据的使用和数据泄露的法律风险。数据泄露会侵犯用户的隐私,企业数据泄露还可能导致不正当竞争或商业秘密曝光,政府数据泄露则将带来更为严重的后果,包括侵害“重要数据”安全和“国家秘密”安全等特别利益[19]。为了有效防范和应对数据泄露的法律风险,可以从以下方面进行立法规制:其一,支持数据共享流通,建立数据共享平台和标准化的数据接口,制定完善的数据交易规则和程序,激发创新活力和社会参与,鼓励公共数据开放,为企业、科研机构和公众提供丰富的数据支持;其二,建立数据处理环境安全防护体系,要求人工智能的服务提供者对其语料库数据进行分类分级,根据数据的重要性和敏感性采取相应的安全保护措施,以防止数据被非法获取、篡改、删除等。同时,还应加强数据的风险监测和评估,定期检查数据处理活动的安全性能,及时发现和修复数据安全漏洞,向有关部门报送风险评估报告,完善安全评估、认证和跨境标准合同的“三个并行”具体制度[20];其三,赋予人工智能的服务提供者数据透明义务,要求其向用户和社会公开数据处理的必要信息,包括数据的类型、来源、处理方式、标注规则等,以保障社会公众的知情权和选择权,促进数据处理的可信和公开。

第二,加强算力设施建设,促进算力协同发展。算力是决定人工智能发展的关键要素,正如电力的发展需要全国完善的电力网络作为基础一样,算力网络的建设将关系到人工智能的未来发展高度。即使在算法没有进步的情况下,仅依靠大模型的自我学习和大量训练,其自身性能也会不断进行优化,正所谓“量变引起质变”,而这些大规模的学习和训练,均离不开其背后强大算力支撑。高性能芯片、算力中心、算力平台是影响算力发展的关键因素:高性能芯片决定单元算力的释放,算力中心影响算力的整体提升,算力平台关系着算力的共享和协作。同时,“双碳”目标之下,人工智能算力需要在节约能源与促进发展之间进行平衡,可将《民法典》的绿色原则引入人工智能立法,并借鉴《科学技术进步法》第三条第二款。具体来说,可以从以下几个方面加强算力建设:其一,发展绿色算力,提升资源利用效率,实现算力供应的充足可持续;其二,加大高性能芯片的研发和生产,打破国外的技术封锁,实现芯片的自主可控;其三,统筹建设分级算力中心,针对不同地区的发展和需求,将算力资源进行有效的分配和利用;其四,培育开放的算力平台,实现算力的共享和协作,形成算力生态网络。

第三,推进开源生态建设,实现科技进步与革新。大模型的训练和优化是一个智力密集型工作,开源生态在人工智能技术发展中占据了极为重要的地位。在开源环境中,世界各地人工智能工作者能够互相分享技术思路和新发现,促进科技的迭代革新。纵观生成式人工智能的发展历程,数据抓取、数据训练、模拟架构等创新性技术均是在开源平台上出现,经过开源社区人员的讨论和实验后逐步完善并应用。未来可预见的是,通过开源方式促进大型模型的发展将成为一种不可逆转的趋势,也是克服大数据和大算力障碍的有效方法[21]。我国的开源建设相比于西方仍存在较大差距,在面向通用人工智能发展进程中,我国也应完善自身的开源生态建设。一方面,应科学制定开源政策,在部分领域支持建立开源平台,培育开源文化氛围;另一方面,也应建立政府参与的开源监督机制,防止开源技术的不合理使用,最终形成良性运转的开源生态。

第四,加强内容安全治理,完善责任承担机制。生成式人工智能通过数据训练和微调可以生成各种文本、图像、视频等内容,但这些内容面临着很多潜在的风险和挑战,如生成不良、虚假或违法信息,影响用户的信息判断和选择,甚至危害公共秩序和社会稳定。加强人工智能内容安全监管,防止不实信息的传播和误导是时代所需,具体来说,可以从以下方面对该问题进行纾解:其一,支持建立和完善人工智能的自检测和过滤机制,确保生成的内容基于既有事实和可靠来源,提高信息的真实性和可信度;其二,生成式人工智能服务提供者应明确告知用户其生成内容的准确性,对不确定内容提醒用户进行辨别和核实,避免误导用户、防止用户对人工智能的盲目信任,如因未履行该义务而导致用户或第三方受到损害,应承担相应的法律责任;其三,应建立和完善生成式人工智能的辟谣和举报机制[22],鼓励用户和社会组织参与信息内容的监督和核查,及时揭露和纠正不实信息,增强公众的信息素养和防范意识。

同时,对生成式人工智能生成内容进行标识是重要的,这样做既能有效实现数据的溯源,追责相关主体,又能对用户进行有效提示,避免虚假信息的泛滥。在内容生成环节,人工智能技术服务者应当添加可识别的水印或警示信息,配备人工智能过滤审核机制。在内容展示环节,应当在合理的位置和区域进行显著的标识[23],以提示公众内容的合成情况,避免公众的混淆或误认。特别是在涉及医疗、金融、教育等关键领域的问答服务,应当进行更加明确的风险提示。在标识的形式上,应当根据不同的需求和内容类型,采取明标识或暗标识的方式,实现对内容的有效识别和溯源。

六、结语

人工智能技术的发展,不仅是科技进步的体现,也是社会变革的推动力。从GPT迈向AGI,是人工智能技术的必然趋势,也是人类社会面临的重大挑战。通用人工智能是可自主无限处理复杂任务的通用性人工智能系统,未来将会成为社会的基础设施。我国作为人工智能世界产业的重要参与者和引领者,应该把握好这一历史机遇,积极应对这一现实问题,在注重伦理安全的基础上,推进人工智能制度优化,构建适应未来的人工智能时代治理体系,促进人工智能制度优化,保障人工智能的安全可信。

注释:

1. 国务院于2017年印发《新一代人工智能发展规划》,对我国人工智能未来发展进行战略部署,确立了新一代人工智能发展三步走战略目标:到2020年人工智能总体技术和应用与世界先进水平同步;到2025年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平;到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。

2. “守门人”指的是在数字市场中占据支配地位的企业,这些企业需要承担更多的责任和义务。

3. 《通用人工智能AGI等级保护白皮书(2023版)》术语和定义:通用人工智能(Artificial General Intelligence,AGI),是一种能够像人类一样拥有智能、学习、推理、解决问题和适应新环境的人工智能系统,也称为强人工智能。

4. 《生成式人工智能服务管理暂行办法》第二十二条:生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。

5. 《互联网信息服务深度合成管理规定》第二十三条规定:深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。

参考文献:

[1] PENG Y J,HAN J H,ZHANG Z L,et al.The tong test:evaluating artificial general intelligence through dynamic embodied physical and social interactions[J].Engineering,2023,34:12-22.

[2] 刘霜,张潇月.生成式人工智能数据风险的法律保护与规制研究:以ChatGPT潜在数据风险为例[J].贵州大学学报(社会科学版),2023,41(5):87-97.

[3] 邓建鹏,朱怿成.ChatGPT模型的法律风险及应对之策[J].新疆师范大学学报(哲学社会科学版),2023,44(5):91-101,2.

[4] 陆凯.美国算法治理政策与实施进路[J].环球法律评论,2020,42(3):5-26.

[5] Data and algorithm transparency agreement act[EB/OL].[2024-01-05].https://www.congress.gov/bill/117th-congress/senate-bill/1477/text?r=2&s=4.

[6] Filter bubble transparency act[EB/OL].[2024-01-05].https://www.congress.gov/bill/117th-congress/house-bill/5921?q=%7B%22search%22%3A%5B%22%5Cu00aa0Filter%5Cu00a0Bubble%5Cu00a0Transparency%5Cu00a0Act%22%2C%22%5Cu00a0Filter%5Cu00a0Bubble%5Cu00a0Transparency%5Cu00a0Act%22%5D%7D&s=4&r=1.

[7] Algorithmic justice and online platform transparency act[EB/OL].[2024-01-05].https://www.congress.gov/bill/117th-congress/senate-bill/1896/text.

[8] 周志峰,胡奇,周健工,等.启明创投x未尽研究:生成式AI报告[EB/OL].(2023-07-12)[2024-01-05].https://www.doc88.com/p-19029466638393.html.

[9] 腾讯研究院.人工智能时代的算法治理报告(2022):构建法律、伦理、技术协同的算法治理格局[R/OL].(2022-12-28)[2024-06-02].https://max.book118.com/html/2022/1220/5313213040010034.shtm.

[10] 王沛然.从控制走向训导:通用人工智能的“直觉”与治理路径[J/OL].东方法学,2023(6):188-198.

[11] 张璐.通用人工智能风险治理与监管初探:ChatGPT引发的问题与挑战[J].电子政务,2023(9):14-24.

[12] 侯东德.人工智能法的基本问题及制度架构[J].政法论丛,2023(6):61-72.

[13] 冯俏彬.发展新经济关键要改进政府监管“旧”模式[N].中国经济时报,2016-10-31(5).

[14] 马长山.数字社会的治理逻辑及其法治化展开[J].法律科学(西北政法大学学报),2020,38(5):3-16.

[15] 王伟.数字经济治理体系的运行逻辑:以合作治理为视角的考察[J].电子政务,2023(10):14-27.

[16] SALMON P M,BABER C,BURNS C,et al.Managing the risks of artificial general intelligence:a human factors and ergonomics perspective[J]. Human factors and ergonomics in manufacturing & service industries,2023,33(5):366-378.

[17] 石佳友,刘忠炫.科技伦理治理的法治化路径:以基因编辑技术的规制为例[J].学海,2022(5):185-195.

[18] 陈兵.通用人工智能创新发展带来的风险挑战及其法治应对[J].知识产权,2023(8):53-73.

[19] 钭晓东.论生成式人工智能的数据安全风险及回应型治理[J].东方法学,2023(5):106-116.

[20] 张凌寒.论数据出境安全评估的法律性质与救济路径[J].行政法学研究,2023(1):45-61.

[21] 张伟男,刘挺.ChatGPT技术解析及通用人工智能发展展望[J].中国科学基金,2023,37(5):751-757.

[22] 张凌寒,于琳.从传统治理到敏捷治理:生成式人工智能的治理范式革新[J].电子政务,2023(9):2-13.

[23] 张欣.生成式人工智能的数据风险与治理路径[J].法律科学(西北政法大学学报),2023,41(5):42-54.

Moving from GPT to AGI: Exploring the Future Pathways of Artificial

Intelligence Governance

Lv Zhaoshi1 Li Jinping2 Chen Yu3

[1. China University of Political Science and Law, The Institute for Data Law, Beijing, 100088; 2. State Administration of Science, Technology and Industry for National Defence, Center for Military Project Vetting, Beijing, 100037; 3. National Development and Reform Commission, Center for Innovation Driven Development (Center for Digital Economy Research and Development), Beijing, 100038]

Abstract:[Research purpose] GPT (Generative Pre-training Model) has already shown the technology prototype of AGI (General Artificial Intelligence) in the future, and AGI will become the infrastructure of the future society, and be applied to all walks of life. China has already formed the governance of “algorithm-deep synthesis-generative artificial intelligence”, but in the process of moving from GPT to AGI, the lack of data resources, shortage of arithmetic supply, backward model open-source construction, and unclear responsibility are still constraints to its development. There is an urgent need to explore the governance pathways adapted to the development of AI era. [Research method] Based on the status quo of AI development and governance in China, we analyze in depth the problems it faced, and combine foreign AI governance experiences such as the flexible regulation of the United States and the unified governance of the European Union, so as to crack the development dilemmas faced by AI in terms of logic updating and policy optimization. [Research conclusion] In terms of logical updating, China should formulate a new model of inclusive and prudent AI governance for AGI and pay attention to ethical construction so as to avoid safety risks, while making it clear that AGI is a general-purpose AI system that can autonomously and infinitely handle complex tasks. In terms of policy improvement, we should encourage data sharing and circulation, increase investment in computing power infrastructure, actively promote open-source construction, and improve the system of assuming responsibility for AI-generated objects, with a view to promoting the healthy development of AI in China.

Key words: data; algorithm; arithmetic power; general artificial intelligence; artificial intelligence governance

作者简介:吕昭诗,男,1997年生,博士研究生,研究方向为数据法学。李金平,女,1965年生,研究员,研究方向为科研项目评估。陈宇,男,1996年生,国家发展改革委创新驱动发展中心(数字经济研究发展中心)干部,研究方向为数字经济、平台经济。