【摘要】生成式人工智能展现出一种共生发展的特性:技术层面,算力、算法与数据协同并进,交织前行;市场方面,多主体共同参与,资本与人才等生产要素协力推动,共同构建起生成式人工智能发展的创新飞轮。尽管生成式人工智能尚处于发展初期,但其潜在风险已逐步显现。如何在确保监管的同时,保持其持续成长,成为传统管理方式难以应对的挑战。基于此,脱胎于软件开发的敏捷治理概念应运而生,其主张生成式人工智能发展共同体的协同参与,以及软法与硬法相结合的综合治理模式,通过采用低制度化负担的管理方式,实现生成式人工智能在发展中监管,在监管过程中保持创新活力。
【关键词】敏捷治理;共生发展;生成式人工智能;管理机制
2023年10月,中央网信办发布的《全球人工智能治理倡议》指出:“实施敏捷治理,分类分级管理,快速有效响应。研发主体不断提高人工智能可解释性和可预测性,……打造可审核、可监督、可追溯、可信赖的人工智能技术。”党的二十届三中全会通过的《中共中央关于进一步全面深化改革、推进中国式现代化的决定》指出“完善生成式人工智能发展和管理机制”。我国近些年十分注重保持人工智能创新发展的同时实现风险规避。纵观世界GenAI(生成式人工智能)领域的治理实践,推动GenAI与人类价值的对齐并非一朝一夕的工作,开放、弹性的治理策略能够有效促进GenAI的发展,而亦步亦趋的硬性监管策略,不仅限制了GenAI的发展潜力,治理成效也并不显著。为了保持发展与风险规制的平衡状态,需要管理模式的突破与治理工具的创新组合,敏捷治理这一新范式,成为重要思路。
一、共生发展:促进GenAI健康发展的有效路径
(一)技术维度:数据、算力和模型三者的交织发展
OpenAI发表的论文中,提出了GenAI发展的尺度定律(ScalingLaw),这一理论认为更大的参数、更多的数据和更强大的算力能够引领大模型更为智能[1]。换言之,数据、算力和模型共同构成了GenAI发展的三驾马车。
(1)ScalingLaw未达边界,数据仍是GenAI发展的重要动力。根据ChatGPT的迭代趋势来看,数据的“质”“量”齐增仍是驱动GenAI的底层逻辑。一方面,要确保GenAI学习的数据量足够大,目前GPT的迭代基本沿着大参数方向发展,2019年2月发布的GPT-2参数量为15亿,而2020年5月的GPT-3,参数量达到了1750亿。根据Semianalysis机构测算,2023年发布的GPT-4达到了1.8万亿参数,使用了13万亿tokens的数据集训练。另一方面,要提升数据的质量,噪声数据会对GenAI的模型训练造成负面影响,而高质量的数据是训练大模型的基础,能够显著提高GenAI的精度与可解释性,降低GenAI模型的过拟合风险,适应未见过的数据资源,并缩短训练GenAI模型的时长。一言以蔽之,GenAI发展的源头在于高质量的大数据。
(2)算力换智能仍然成立,对硬件设备更新迭代提出更高要求。GenAI模型训练数据的提升对计算资源提出了更高的要求。[2]算力又称“人工智能发动机”,算力越高,处理数据的速度越快,训练所需时间更短,也能够完成更为复杂的任务。特别是GenAI在未来走向各类应用场景,如自动驾驶、智能医疗等领域需要GenAI做到低时延的实时反应,算力的价值将会更为突出。OpenAI的研究和《昇腾计算产业发展白皮书》的报告显示,从2012年到2018年6年的时间里,AI的计算需求增加了30万倍,而在AI发展的初始阶段,所需的算力基本按照摩尔定律的规律,即所需要的算力在18个月左右翻倍,而伴随着算法日趋复杂、数据日益庞大,强化了对算力的需求,平均换算下来,每3.4个月对算力的需求翻一倍,颠覆了摩尔定律。驱动算力的提升离不开GPU和TPU等专用硬件的迭代升级,GenAI的发展,一度拉高NVIDIA的市值,因此,推动GenAI的发展与突破,需要培育出先进的芯片制造、高性能计算、云计算和边缘计算等领域的企业,为GenAI的发展提供硬件支撑。
(3)算法机制持续推动模型优化,思维链机制开拓安全与价值对齐新思路。近些年来,MoE(Mixed Expert Models,混合专家模型)成为带动GenAI发展的又一模型技术,MoE的最大优势在于相同计算资源下,训练速度更快、效果更好、推理成本更低、扩展性更好,而且可以训练更大的模型。2024年9月,OpenAI发布了新模型o1-preview和注重经济高效的o1-mini版本。这一模型做到了两点优化:一是改善模型的训练过程,强化模型的自我纠错能力。二是引入思维链机制(CoT),可以让GenAI在回答问题前花更多时间思考,模仿人类先分析问题、进行思考再回答问题的逻辑思维方式。安全性与模型性能的提升一直是GenAI发展过程中的核心问题,OpenAIo1系列模型的发布,揭示了在实现AI价值对齐、提升安全性的基础上,通过模型算法的方法提升GenAI性能的可能性。针对o1系列模型,OpenAI改善了训练方法,将模型的行为策略整合到推理模型的思维链中,使其能够更好地遵循安全和对齐指南。与传统的层层算法限制AI不同,OpenAIo1模型是根据上下文内容进行逻辑推理,自己“学习”人类的安全规则,从而更有效地应用这些规则。这种新训练方式能够使得研发人员以更清晰的方式观察模型的“思考”路径,还可以显著提升在各场景应用的稳定性。
(二)生态维度:多重要素共现的市场飞轮效应
根据当前GenAI的发展趋势来看,创新飞轮对于GenAI的驱动作用效果显著。何为创新飞轮?GenAI表现出了强大的跨领域融合作用,即“GenAI+”,GenAI的诞生,改变了原有的工作流程、思维方式和认知结构,在这一事实得到广泛认同后,多元主体通过采用投资促进、政策引导、适时调整等方式,构成创新生态系统,合力推动GenAI创新飞轮的运转,使得GenAI获得了更多发展资源,从而推动GenAI的快速进步。
(1)宽松包容的发展政策营造GenAI发展的良好环境。我国对人工智能的发展一直持积极促进的态度,侧重于人工智能技术与工业、制造业的结合,倡导以应用需求为牵引,立足自主创新,鼓励平台企业构建产业创新生态,推动中国自主研发的芯片、操作系统、大模型等人工智能技术体系的发展。不过,我国更加强调人工智能技术的实际应用与落地、对各行各业的支持,而在基础研发,特别是软件开发等领域强调的相对较少。在相关政策的支持下,截至2023年6月,我国人工智能核心产业规模已经达5000亿元,人工智能企业数量超过4400家,仅次于美国,全球排名第二。[3]2022年ChatGPT3.5诞生后,监管政策陆续出台。2022年发布的《关于加强科技伦理治理的意见》中用词为“严格执法、违法必究”,而次年发布的《生成式人工智能服务管理暂行办法》指出,要“发展和安全并重”“包容审慎”“分类分级监管”。可见,我国对于GenAI的监管更加务实,为其发展营造了相对宽松的环境。
(2)金融资本与GenAI风险共担,利益共享。因为创新更多的是解决从无到有的问题,所以GenAI的技术创新与商业模式创新是一件不确定性极高的事情,正因为创新失败的概率非常之高,对风险有较高容忍度的金融市场对于GenAI的发展发挥着重要作用。以美国为例,斯坦福大学的报告显示,2023年,美国的人工智能投资达到672亿美元,几乎是第二大投资国中国(78亿美元)的8.7倍,2022年到2024年,中国和欧盟(包括英国)的私人人工智能投资分别下降了44.2%和14.1%,而美国在同一时期内则增长了22.1%[4]。2023年仅OpenAI一家公司,获得的投资就超百亿美元,可见,资本对GenAI的发展推动作用十分重要,为创新提供了金融支撑。
(3)AI领域人才加速GenAI的落地与创新进程。人才是推动GenAI的重要动力,智库MacroPolo发布的研究报告显示,美国仍然是世界顶尖AI人才的首选工作目的地。2022年,在美国的研究机构中,美国和中国的研究人员占顶尖AI人才的75%,高于2019年的58%。此外,美国仍然是世界上最精英AI人才的首选目的地,并且仍然是60%顶尖AI机构的所在地。绝大多数非美国籍人工智能人才留在美国,美国机构顶级人工智能研究人员的主要原籍国,华人占比从2019年的27%提升到了2022年的38%,甚至超过美国本土数量。[5]而关键人才对于GenAI的发展更是发挥着重要作用,例如,有“ChatGPT之父”之称的萨姆·奥尔特曼(SamAltman)被董事会宣布免职之后,迫于各种压力,奥尔特曼又迅速复职,研发人才对于技术的研发有着重要作用。AI人才的价值主要体现在两个方面:一是大模型逐渐落地,需要更多AI人才推动“GenAI+”融入各行各业;二是GenAI的突破性发展也需要领军人才的引领。
(4)商业模式催化GenAI发展,推动融入更多应用场景。大型语言模型(LLM)的技术与应用发展由来已久,直到2022年11月,OpenAI推出的ChatGPT才以友好的自然语言交互界面,拉近了GenAI与普通用户之间的距离,不仅激发了用户对GenAI的兴趣,同时也引起了政府、资本、其他行业的关注与重视。ChatGPT的出现是GenAI发展过程中的一个重要转折点,它不仅仅是一个技术上的突破,更是商业模式上的创新,通过提供易于使用的平台,使得非专业用户也能轻松地与AI系统进行交互,从而极大地拓展了GenAI的应用场景。随着ChatGPT的成功,GenAI的商业潜力逐渐被开发,GenAI的应用场景日益丰富多样,渗透到生活的方方面面,成为推动数字经济转型的关键力量。简言之,ChatGPT的发布标志着商业模式的创新会进一步挖掘GenAI的发展潜力。
(三)管理误区:强监管阻碍创新陷入“科林格里奇困境”
创新的过程往往是不可预测且非线性的,这意味着创新成果难以按照预定计划实现。因此,在管理GenAI时,一个相对宽松的环境更有利于激发其潜力,促进技术的进步。过于严格的监管措施可能会抑制创新活力,导致开发者在既定的框架内操作而无法探索更具突破性的解决方案。例如,美国在AI领域的管理相对宽松,尤其是在技术发展的早期阶段,政府倾向于采取审慎的态度,给予技术足够的成长空间。相比之下,欧盟则更倾向于采用较为严格的监管手段,试图通过政府的强力介入来预防潜在的风险,并对非欧盟企业保持高度警惕。[6]然而,这种严格的监管环境反而限制了欧盟在技术创新和投资方面的竞争力,斯坦福大学的研究报告显示,在某些领域,欧盟国家的表现甚至不及新加坡和韩国。[7]GenAI的管理问题实际上反映了“科林格里奇困境”:如果在技术发展的早期就因过度担忧而实施严格管控,可能会扼杀创新的苗头;而如果等到技术成熟后再加以控制,则可能面临高昂的成本和复杂的局面。[8]为此,越来越多的研究认为应当从传统的单一、刚性监管模式转向更加灵活的治理方式,通过多方参与的合作共治模式,以及“低制度化”的弹性治理方案来寻找发展与监管之间的平衡,以期在保障安全的同时,不阻碍技术的进步和创新。
二、独特风险:生成式人工智能的风险特征
(一)自进化的能力:技术黑箱的不可见性导致的涌现风险
GenAI的算法模型机制具有“不可见性”风险,如鲁棒性、透明度和可解释性不足[9]及其在运算过程中可能的算法偏见[10]等。用户,即便是产品开发者也未能对信息的生成机制全知全解,因此复杂的“技术黑箱”和不可预测性增加了其内在风险的识别与应对难度。[11]此外,GenAI系统在训练过程中会自发产生新的能力或特性,这些能力和特性并非由设计者直接编程实现,而是随着GenAI系统接收大量数据并不断训练后自然形成的结果,当GenAI系统达到一定复杂度时,它们会展示出未曾预料的行为或能力,这些行为或能力将对人类社会造成正面或负面的影响,即“涌现风险”,这一风险的产生机制加大了源头治理的难度。
(二)深度融合的能力:应用场景较为分散易导致风险扩散
GenAI当前表现出了与各个行业深度融合的能力,它将渗透至各个领域,形成“GenAI+”。GenAI深度嵌入各种应用场景,个性化且多元的场景治理措施各异,不同领域的风险之间可能存在复杂的相互影响和耦合效应。例如,在传播领域,GenAI的数据来源不明且生成的内容具有“拟主观”性的特点[12],这不仅引发了知识产权管理、个人数据安全保障等法律层面的问题,任由虚假信息的传播,还会引发更为深层次的社会问题。
(三)马太效应:资源禀赋差异加深智能鸿沟
当GenAI作为赋能的技术时,也会带来新的使用、接入不平等的问题,即智能鸿沟。就国家层面而言,技术先进的发达国家会因为更快地采用和整合GenAI技术而拉开与技术相对落后的国家之间的距离,更为严重的是,部分发达国家可能会通过自身的优势地位对后续追赶的国家进行制裁和打压,进一步拉大智能鸿沟。就社会层面而言,进一步拉大了代际间的技术使用差异,使得老年人在与年轻一代形成AI使用上的断层。此外,GenAI的应用正在重塑劳动力市场,导致部分技术含量低的岗位需求减少甚至消失[13]。就企业层面而言,拥有先进技术和资源的企业可能会进一步巩固其市场地位,挤压其他企业的生存空间,从而加剧企业之间的不平等。
三、范式呼唤:乌卡(VUCA)时代急需新的GenAI管理制度
(一)基于技术机理的治理范式,易陷入“技术决定论”误区
首先,GenAI模型本身具有透明度与可解释性较低的特点。深度学习等现代AI技术所展现出的高度复杂性和黑箱特性,使得模型的决策过程难以被全面理解和解释,运行机制不清则难以找准问题的根源着手进行治理。其次,计算资源有限是制约GenAI管理的另一大瓶颈,现阶段GenAI发展所需的算力资源尚且不够,如果在GenAI运行时套上一层治理算法的“紧箍”,既限制了GenAI的发展,又导致巨大的计算资源和能源消耗,导致成本的大幅上升。从根本上讲,GenAI技术领域仍面临着许多未解难题,如算法的收敛速度、模型的泛化能力、过拟合与欠拟合的平衡等,现阶段使用技术治理存在着瓶颈,单纯依赖技术容易陷入“技术决定论”,且难以应对潜在威胁。
(二)基于伦理道德的治理范式,执行操作难度较大
基于伦理道德的AI治理范式重视通过共享式的文化价值对GenAI导致的风险进行制约,十分警惕AI对道德的僭越,主张通过达到价值的最大公约数,约束AI朝着人道化方向发展。然而这一范式仅能提出底线式的治理方案,在实际操作中难度较大。一是不同文化背景的群体之间,价值观和伦理道德方面存在显著差异,在基于伦理和道德制定规范时,如何平衡不同群体之间的利益以达到广泛认同是一个复杂的问题。二是伦理和道德原则往往较为抽象和模糊,难以直接转化为具体的操作规范和法律条款,导致在实际执行过程中存在模糊地带和争议,影响治理效果。三是即便有了完善的伦理框架,实际执行过程中也面临主体责任不明确的问题。生成式人工智能导致的风险,主要源于技术的开发者、产品的提供者和使用用户等,而在实际应用中,如何明确提供者、使用者、设计者等各方主体的伦理责任也是一大难题。
(三)基于规则制度的硬性治理范式,逐渐暴露出弊端
我国在人工智能的管理时较为依赖立法工具,希冀通过硬性治理手段为监管部门提供执法依据,但是GenAI尚处在发展的初期阶段,在这样的背景下规定的法律责任较为缺乏系统性的逻辑考量,存在一定的治理弊端。
(1)政策运行成本较高,难以实现GenAI管理的“帕累托最优”。帕累托最优是指在管理决策过程中,充分利用现有资源,通过最小成本创造最大效益。法律法规的制定并非是单纯的政治行为或者法律行为,同时也是经济行为,法律法规的出台需要历经漫长的程序,而技术的迭代速度往往是非预期的,很有可能一部法律出台之后就面临着“过时”的问题。此外,新法的颁布、宣传、学习、执行、查漏补缺等活动都需要大量的人力、物力和财力成本,甚至会产生难以预料的后果,这就需要不断修订法律,而在时机不成熟时的立法,往往会导致立法成本大于立法效益,尽管起到了一定的管理作用,但要付出大量的成本。
(2)单一化管理方式无法真正激起多元主体的积极性。传统基于严格规章制度的管理方式通常呈现出单一化的特征,缺乏对多方利益相关者协同参与的重视。我国在最初的探索型治理时,缺乏明确的行动主体,而到响应型治理阶段,仍是国家机构的引领作用,再到集约型治理中多个政府部门的合作,这些模式均未能在真正意义上促进多样化主体的广泛参与。在监管与监察过程中,政府往往是唯一的主角。[14]随着GenAI技术的迅猛发展,单凭政府一方的力量已经难以应对随之而来的各种挑战,并且这种方式抑制了企业、非政府组织及公众的主动性和创新力。单方面的行政监管已不足以有效防范和管理相关风险。因此,人工智能领域的治理越来越需要政府调动专家、企业、社会组织及公众等多方面力量,共同献计献策,丰富GenAI治理的工具箱。
(3)主体责任权责不协调限制了GenAI发展的创新活力。非政府组织缺乏AI治理的权利,为了达到风险防控的目的又要承担相应的管理义务,这种管理模式下,各个主体的行为受到严格的规范和约束,导致各个参与方在行动上变得谨慎保守,甚至产生畏惧心理,担心因违反规定而遭受处罚或承担不利后果。在这种情况下,无论是企业还是个人,在尝试新技术或是推动创新时都可能变得犹豫不决,生怕触碰到法律法规的边界。特别是在GenAI领域,这样的管理方式导致从业者在研发过程中过于谨小慎微,从而抑制了技术创新的速度与深度。从长远来看,这不仅限制了GenAI的发展,也会阻碍社会的技术进步。
四、敏捷治理:平衡发展与管理的GenAI管理新理念
(一)敏捷治理的概念
敏捷治理并不与传统的治理方式相悖,而是在传统的治理范式上融入柔韧性、灵活性等敏捷治理的理念,使得传统的治理方式更具应变能力。敏捷治理呈现出八大特点:降低风险的同时又可以保持管理的灵活性、能够快速动员各利益方并形成合力、自我组织和管理的能力、灵活的治理工具、积极拥抱变化、各利益主体和组织内部的充分沟通、信息的开放与贡献、包容的容错机制。[15]敏捷治理的核心是一种自适应、具备包容性和可持续的管理理念。敏捷治理与技术社会的发展需求相一致,它强调要找到一种平衡点,既要保证GenAI的创新式发展,又要确保GenAI的发展符合社会的基本利益和道德伦理准则。敏捷治理与传统的“命令和控制”的治理思维不同,重视“放权”的重要性,激发各利益方的创新能力、多元主体彼此间沟通与协作的能力,以快速感知响应变化,更好地应对时代挑战。
(二)敏捷治理的具体路径
(1)治理对象:分层分级,把握张弛有度的管理节奏。敏捷治理需要建立容错机制,政府应在行业发展现状的基础上进行监管,允许人工智能在试验和探索的过程中出现风险,适当放松监管并积极吸引外资和人才,推动中国人工智能产业的发展。具体来看,应实行分层分级管理的方式,一是形成“普适性底线约束 个性化场景规制”的治理框架。[16]对于各平台和GenAI产品的共性问题提出底线式的约束,而对于个性化具体应用场景的问题,应当给予一定容忍。二是GenAI治理应当与相关产业架构相契合。对于底层的基础模型等研发活动营造宽松的发展环境,发展为主,而对于面向客户终端的应用,采取较为严格的监管制度。三是要针对不同风险特征进行弹性治理。[17]一方面,结合国际经验和已有的问题,对严重的风险问题进行重点防范,强化事前防范机制。另一方面,对于创新技术可能带来的未知风险进行低制度化的软约束,避免因管控过严导致的创新力匮乏。
(2)治理主体:改善授权方法,实现GenAI发展共同体的协同参与。敏捷治理倡导参与式治理的原则,不同于传统由政府单向主导的管理模式,鼓励构建一个更加开放、包容的治理生态。通过公众、企业、学术机构及非政府组织的全方位参与,共同编织起一张GenAI治理的多元共治网络。在这一治理网络下,治理授权从“自上而下”的单一模式升级为“自上而下与自下而上相结合”的模式。在此框架下,政府机关不再直接介入具体的监管执行事务,而是通过制定行为准则、参与技术治理等手段来间接管理。同时,企业设立内部管理机构,强化自律,通过制定风险治理准则、提升自身风险识别和防范的技术能力、加强前沿技术探索、重视科技伦理研究等手段,赢得政府和公众的广泛信任,从而实现协同治理。例如OpenAI对新推出的o1系列模型进行压力测试,根据安全准备框架对模型进行全面测试,使用更为专业的技术人员来模拟真实攻击行为,进行针对性强的安全测试。此外,在董事会级别层面设立了安全与安保委员会,全面主持对GenAI模型的安全审查流程。为了有效实施这一模式,学术界和行业协会以第三方的身份共同发挥着政企之间有效沟通的渠道作用,政府可以获得有关人工智能技术发展的客观动态,如优缺点等,企业也能及时了解政府的政策导向。此外,各行业协会要积极制定标准,填补法律制度的不足,提供兼具前瞻性和灵活性的解决方案。需要指出的是,采取这一治理方式的前提是各治理主体参与治理的机制较为完备。如GenAI研发企业有着较为健全的现代企业管理制度,能够通过董事会、监事会等企业内部管理机构主动作为,自行约束自身的研发活动。
(3)治理方式:渐进迭代,灵活响应。敏捷治理理念来源于软件开发的敏捷研发(Agile Development)概念,敏捷研发利用高频次、短周期的迭代策略,逐步精练与升级产品功能,不断满足市场需求。类似的,敏捷治理秉承了迭代与灵活的核心原则,构建一个“持续交流互动—过程动态监控—即时反馈循环”的长效运行框架[18],在持续的交流和动态的监控中,及时反馈治理问题。治理并非是一次性的,需要根据实际的需要进行迭代响应。
(4)治理工具:利用“软”“硬”制度组合,扩充GenAI治理工具箱。当前的AI管理中,已经基本形成了“宏观—中观—微观”的三层法律法规框架。宏观层面通过《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律为其他法规的制定提供依据。中观层面上,网信办等监管部门和行业协会通过制定法规、行业标准、伦理守则和技术指南等为GenAI的发展与应用提供柔性指导。微观层面上,各平台企业通过社区公约、用户守则等方式对用户使用生成式人工智能做出约束和规范。硬性规定逐渐完备,但是缺乏非正式或较低制度化水平的“软法”进行协调补充。如设立监管沙盒,为新技术提供一个试验空间;制定详细的企业合规保护措施,鼓励企业在合法范围内大胆尝试;确立避风港政策,为某些特定行为提供一定的法律豁免。通过这样“软”“硬”多层次治理工具箱,可以更好地支持新兴技术的发展,并确保GenAI的应用既安全又符合社会的整体利益。[19]
[本文为北京市社会科学基金规划重点项目“首都互联网平台企业社会责任与协同治理体系研究”的阶段性成果,批准号(22XCA002)]
参考文献:
[1]KaplanJ,McCandlishS,HenighanT,etal.Scalinglawsforneurallanguagemodels[EB/OL].https://arxiv.org/abs/2001.08361.
[2]HoffmannJ,BorgeaudS,MenschA,etal.Trainingcompute-optimallargelanguagemodels[C]//Proceedingsofthe36thInternationalConferenceonNeuralInformationProcessingSystems(NeurlPS).Cambridge,USA:MITPress,2022:30016-30030.
[3]中国式现代化发展研究院.中国新一代人工智能科技产业发展报告[EB/OL].https://icpm.nankai.edu.cn/2024/0624/c32797a546186/
page.htm.
[4]StanfordUniversityHuman-CenteredArtificialIntelligence.ArtificialIntelligenceIndexReport2024.[EB/OL].https://aiindex.stanford.edu/report/.
[5]MacroPolo.TheGlobalAlTalentTracker2.0.[EB/OL].https://macropolo.org/digital-projects/the-global-ai-talent-tracker/.
[6]宋华健.论生成式人工智能的法律风险与治理路径[J].北京理工大学学报(社会科学版),2024,26(3):134-143.
[7]StanfordUniversityHuman-CenteredArtificialIntelligence.ArtificialIntelligenceIndexReport2024.[EB/OL].https://aiindex.stanford.edu/report/.
[8]宋华健.论生成式人工智能的法律风险与治理路径[J].北京理工大学学报(社会科学版),2024,26(3):134-143.
[9]罗昕.聊天机器人的网络传播生态风险及其治理:以ChatGPT为例[J].青年记者,2023(7):91-94.
[10]刘艳红.生成式人工智能的三大安全风险及法律规制:以ChatGPT为例[J].东方法学,2023(4):29-43.
[11]王洋,闫海.生成式人工智能的风险迭代与规制革新:以ChatGPT为例[J].理论月刊,2023(6):14-24.
[12]王建磊,曹卉萌.ChatGPT的传播特质、逻辑、范式[J].深圳大学学报(人文社会科学版),2023,40(2):144-152.
[13]Acemoglu,Daron,amp;Restrepo,Pascual.(2018).Artificialintelligence,automation,andwork.InTheeconomicsofartificialintelligence:Anagenda(pp.197-236).UniversityofChicagoPress.
[14]姜李丹,薛澜.我国新一代人工智能治理的时代挑战与范式变革[J].公共管理学报,2022,19(2):1-11+164.
[15]于文轩,吴泳钊.AIGC与敏捷监管[J].信息技术与管理应用,2023,2(2):8-17+93.
[16]姜李丹,薛澜.我国新一代人工智能治理的时代挑战与范式变革[J].公共管理学报,2022,19(2):1-11+164.
[17]邓悦,许弘楷,王诗菲.人工智能风险治理:模式、工具与策略[J].改革,2024(1):144-158.
[18]韩兆柱,申帅杰.敏捷治理:人工智能治理新模式[J].华东理工大学学报(社会科学版),2024,39(1):105-119+132.
[19]张凌寒,于琳.从传统治理到敏捷治理:生成式人工智能的治理范式革新[J].电子政务,2023(9):2-13.
作者简介:郭全中,中央民族大学新闻与传播学院教授,互联网平台企业发展与治理研究中心主任(北京 100081);彭子滔,中央民族大学新闻与传播学院硕士生(北京 100081)。
编校:董方晓