陈万球
《麻省理工技术评论》(MIT Technology Review)将生成式人工智能(GAI)描述为过去10 年AI 领域最有前途的进步之一,高德纳咨询公司(Gardner Consulting)则把其列为最有商业前景的AI 技术[1](1)。与此同时,生成式人工智能带来的政治安全、虚假信息、算法歧视、侵害知识产权、侵害隐私和个人信息、虚假训练数据、数据标注错误等挑战层出不穷。作为对挑战的回应,我国政府颁布了《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)。该办法是我国生成式人工智能的顶层设计,也是全球首部专门立法,它确立了发展与治理的原则与方法,对处理技术发展与技术治理之间的关系和推动生成式人工智能技术健康有序发展具有十分重要的意义。
根据《暂行办法》的释义,生成式人工智能是指“具有文本、图片、音频、视频等内容生成能力的模型及相关技术”。“相关技术”的主体主要指技术的提供者和使用者。作为一种正在崛起的新兴技术,其发展趋势引发人们的反思和担忧:如果一项新兴技术因担心其后果不良而过早对其实施控制,它就难以发展;反之,控制过晚则有可能走向失控。这就是技术发展中所谓的“科林格里奇困境”。
世界经济论坛创始人克劳斯·施瓦布将技术进步描述为革命,因为技术进步具有速度、范围和系统的影响。在认识与改造自然的过程中,人类祖先积淀了丰富的经验与知识体系。技术作为“对象化的知识力量”[2](785),其发展往往是从慢到快。在农耕文明时代,一次重大的技术革命要历时数百年甚至更长的时间;在工业文明时代,一次重大的技术革命往往也要经历数十年。在当代,人们常常惊叹于科技革命日新月异,摩尔定律就是明证。当代技术发展的显著特点是加速迭代。人工智能从20世纪50 年代诞生开始算起,发展至今已70 余年,从弱人工智能到强人工智能,呈现加速发展的趋势。以ChatGPT 为代表的生成式人工智能为例,OpenAI 在2018 年首次开发应用生成对话模型,此后不断开发和改进GPT 模型,5 年间完成了5 次迭代,推出的技术和产品不断创新进化(见表1)。
表1 GPT 的发展历程
技术创新跑出的“加速度”让人们始料未及,对其后果的失控警示人们暂时停下发展的脚步。2023 年3 月,包括马斯克在内的千余名科学家和工程师,签署一封公开信,提议暂时停止研发巨型人工智能模型6 个月,因为担心“开发和部署更强大数字思维的竞赛失控”[3]。
技术发展的“加速度”与传统技术治理的“滞后性”形成鲜明对比。技术是呈指数级增长的,但是社会、经济和法律系统只会缓慢增长。在以往技术治理中,治理主体面对快速迭代的技术及产生的社会问题和挑战,往往需要审慎妥当的方法予以回应和解决,而这个过程较为漫长。尤其是生成式人工智能借助5G 互联网技术服务应用落地提速,操作使用快捷方便,推广应用价值广泛。因而生成式人工智能技术的快速发展亟须治理速度与之相匹配。
技术影响的全局性有两个维度:
从广度上看,技术对社会影响的路径是从局部走向全局。一项新技术的传播范围,受到地域、国别、文化、宗教等因素的限制,起初是在比较小的范围内传播。技术的发展史表明,第一次技术革命时期,从瓦特根据科学原理于1769 年发明工业用蒸汽机到1868 年中国人自主研制的第一艘蒸汽轮船“黄鹄号”下水,技术传播花了100 年左右的时间。从1804 年英国工程师德里维斯克制造出世界上第一台蒸汽机车到1909 年詹天佑主持修建的我国第一条铁路京张铁路通车,技术传播也花了100 年左右的时间。可见,在第一次技术革命时期技术传播速度较慢,技术对社会的影响局限在一定时空范围之内。20 世纪以来,随着信息技术、电子计算机的发明,特别是在互联网技术的加持下,技术传播以前所未有的速度推进,万物互联互通,技术从局部到全局,涵盖政治、经济、文化、生态等领域。今天,生成式人工智能技术发起了新一轮影响人类社会的革命,其全局性影响领域可能包括:国家安全与意识形态,科技、教育与文化发展,广播电影电视产业,商业模式和产业升级,社会发展与改革等。甚至有学者称,生成式人工智能技术“有可能成为一种影响各行业的底座型技术”[4](3)。
从深度上看,技术对社会的影响是由浅入深。技术的当代性不仅表现为技术呈指数级增长,而且其影响极为深远。进入工业化时代以来,物理学、生物学、工程学、化学在近代得到了发展,技术应用在资本主义社会获得了巨大推动力。《共产党宣言》指出:“自然力的征服,机器的采用,化学在工业和农业中的应用,轮船的行驶,铁路的通行,电报的使用,整个整个大陆的开垦,河川的通航,仿佛用法术从地下呼唤出来的大量人口——过去哪一个世纪料想到在社会劳动里蕴藏有这样的生产力呢?”[5](405)可见,自资产阶级产生以来的几百年时间里,技术对社会和人类自身的干预程度明显加深。“人工智能正在快速发展和广泛应用,其强大的重塑力必然对生产方式、生活方式乃至人的自身烙下深深的印记。”[6](36)生成式人工智能的深度影响表现在:就社会而言,在一定程度上重构人类社会的政治、经济、文化、社会、生态等;就个人而言,对人的干预从体外到体内,从身体到意识逐步加深。
生成式人工智能对社会影响的全局性客观上要求技术治理的全球性和全方位性。如果生成式人工智能的社会治理视野不够宽阔、领域不够广泛、程度不够深入,就会导致治理的“局部性”,无法与技术发展在广度上相匹配。
科技是发展的利器,也可能成为风险的源头。“人工智能、基因编辑、大数据、纳米技术、合成生物学、异种移植等科技创新发展对人类社会提出诸多伦理挑战。”[7](7)随着新兴技术成熟曲线从“触发期”过渡到“期望膨胀期”,新兴技术蕴含的技术红利和技术后坐力(风险)逐渐显现。生成式人工智能可能带来社会风险、伦理挑战与规则冲突,造成社会的无序状态。具体表现在:(1)伪造性。即技术生成的图片、视频和声音造假。南京大学阮锦绣提出了“AI 幻觉”的新概念,认为“AI 幻觉”的危险之处在于,模型输出看起来正确,而实质上错误[8](4)。《福布斯》杂志认为,生成式人工智能存在“深度造假”问题,侵蚀政治选举,伪造的视频、音频令选民难辨真伪,很多人担忧AI 会毁了2024 年美国总统选举[9](4)。美国国会山网站报道,人工智能的发展可能会引发两大关键问题,一是虚假信息传播;二是导致歧视与偏见[10](4)。(2)个人隐私与信息侵犯。人脸是公民最敏感的生物信息和核心隐私,如果被滥用、盗用,可能会成为诈骗、网络色情等非法活动的素材来源。2023 年5 月24 日,中国互联网协会发文提示“AI 换脸”新骗局,利用“AI 换脸”“AI 换声”等生成虚假音视频图片,进行诈骗、诽谤、色情等违法行为屡见不鲜。《科技日报》报道,有骗子通过AI 换脸和拟声技术佯装好友,对福州某科技公司法人代表实施诈骗,10 分钟内骗走430 万元[11](5)。(3)高风险性。生成式人工智能具有高风险性,有学者称之为“AI 巨风险”[12](104)。实际上,生成式人工智能的伦理和社会风险可以归结为以下几类:歧视、仇恨言论和排斥、信息危害、虚假信息伤害、恶意使用、人机交互危害以及环境和经济危害。欧盟《人工智能法案》对“高风险”进行了界定,高风险是指这种情形,它可能“对人们的健康、安全、基本权利或环境造成重大损害”[13](4)。《科技日报》报道,意大利、德国、英国、加拿大、西班牙等国对ChatGPT及其开发者展开调查,可能将ChatGPT 等生成式人工智能列入高风险人工智能清单[4](3)。高风险性和不确定性,导致AI 可能“行善”,也有可能“作恶”,“一旦被滥用或误用,迷惑性比以往的人工智能技术更强”[4](3)。技术治理追求的目标是社会的有序性。如果生成式人工智能的社会治理针对性不强、效能不高,就不能够很好地预防和治理风险,就会形成治理的“无序性”,导致与治理的目标相背离。
总之,生成式人工智能技术发展与治理之间的快与慢、全局与局部、无序和有序之间的矛盾,凸显了“科林格里奇困境”,客观上需要通过科学合理的顶层设计来破局。
《暂行办法》是我国关于生成式人工智能治理的顶层设计,它确立了技术发展与治理双轮驱动的原则与方法,尝试在发展与治理之间寻找一种新的良方,凸显了发展与治理如何平衡的破局之道。
生成式人工智能发展与治理的伦理原则,是立足我国新一代人工智能发展实际和客观审视新技术的可能风险而制定的。《暂行办法》确立了相互依存的伦理三原则。
坚持发展和安全并重,这是生成式人工智能发展与治理的首要原则。习近平总书记强调要“坚持统筹发展和安全,坚持发展和安全并重,实现高质量发展和高水平安全的良性互动”。这已成为坚持技术发展与安全的指导思想。技术的安全风险涉及国家安全、社会安全和人民群众生命财产安全。从技术全过程看,生成式人工智能的安全风险包括全过程的风险:准备阶段——“数据安全风险”、运算阶段——“算法偏见风险”、生成阶段——“知识产权风险”[14](30)。一方面,要通过发展生成式人工智能技术来提升安全实力和保障安全;另一方面,深入推进安全理念、机制、措施创新,营造有利于智能技术发展的安全环境,确保生成式人工智能“安全可靠可控”。
促进创新和依法治理相结合,这是生成式人工智能发展与治理的第二原则。创新强则国运昌,创新弱则国运殆。科技创新离不开依法治理。良好的法律治理,是技术创新的前提;没有法律规范治理,科技创新就失去了压舱石。促进生成式人工智能技术创新和依法治理相结合,有一个依法治理的“合理度”问题,这种“合理度”体现在法律对技术创新的合理引导力和科学的规范力两个方面。从前者看,《暂行办法》中有大量的正向引导条款(见表2)。这些条款包括创新发展、创新应用、自主创新等内容,成为促进生成式人工智能创新的重要法规依据。从后者看,《暂行办法》包含禁止和责任条款,惩治生成式人工智能可能带来的种种乱象,对提供者违反《暂行办法》规定的,由有关主管部门依法处罚,以此营造良好的创新软环境和硬环境。
表2 《暂行办法》的正向引导条款
包容审慎与分类分级监管并行,这是生成式人工智能发展与治理的第三原则。技术发展需要自由宽松的人文环境与社会环境,甚至允许出现错误。科学是不断试错的研究,解决问题需要不断地试错。从某种意义上说,试错是社会进步的动力,宽容是社会进步的基石。在历史上,核心技术需要在试错中发展,谷歌搜索引擎就是试错的创新产物。苹果公司的iPod 也是基于试错法的创新产物。当然,涉及食品安全、身体健康、基因编辑、克隆人等的技术,是不允许试错的。包容并不意味着放任不管,包容中蕴含审慎的态度和理念。目前世界各国对推动生成式人工智能创新应用都保持着相对谨慎的态度。此外,分类分级监管是治理的一种常见方式。《暂行办法》对生成式人工智能技术应用划定分级监管“红线”,将审慎容错纳入监管框架,旨在促进人工智能技术的快速发展与实际应用。
建立健全生成式人工智能治理体系,需要创新伦理方法。《暂行办法》创设了发展与治理的伦理三方法。
第一,明晰伦理规范。伦理规范是技术治理的重要方法。目前我国技术法律法规中都有明确的伦理规范治理条款。例如,《中华人民共和国科学技术进步法》第五十一条规定“建立和完善科研诚信、科技伦理管理制度”,第六十七条规定“在各类科学技术活动中遵守学术和伦理规范”。《中华人民共和国基本医疗卫生与健康促进法》第五十四条规定“医疗卫生人员应当遵循医学科学规律,遵守有关临床诊疗技术规范和各项操作规范以及医学伦理规范”。《中华人民共和国生物安全法》第三十四条规定“从事生物技术研究、开发与应用活动,应当符合伦理原则”。此外,《中华人民共和国个人信息保护法》等都有明确的伦理规范治理的具体条款。《暂行办法》明确规定了五大伦理规范:坚持社会主义核心价值观,维护政治安全;坚持公平公正,防止产生歧视;尊重知识产权,避免不正当竞争;提倡善意使用,尊重他人合法权益;提升服务的透明度,提高生成内容的准确性和可靠性等。这些规范兼具伦理规范和法律规范两重属性。
第二,推动自由探索。自由探索就是不事先设定目标,自由探究事物的本质和规律。亚里士多德认为,科学和哲学起源于惊异。党和国家一直鼓励自由探索式研究和非共识创新研究。在新一轮科技革命与产业变革的酝酿演变期,新一代人工智能正在重建科学研究的范式,自由探索之火被点燃。2018 年印发的《国务院关于全面加强基础科学研究的若干意见》指出,要“尊重科学研究灵感瞬间性、方式随意性、路径不确定性的特点,营造有利于创新的环境和文化,鼓励科学家自由畅想、大胆假设、认真求证”,通过激发好奇心和求知欲,引导科研聚焦未知的问题,为人们提供一个充满探索精神的人文环境。《暂行办法》提出,建立应用生态体系,创新应用不设立限制措施,为创新应用提供制度保障。在生成式人工智能推广应用、算力资源的协同共享以及算力资源利用效能的提升等方面,《暂行办法》鼓励支持自由探索的力度很大。
第三,正确行权用权。为了预防预训练语料库代表性不足导致价值观偏差,标注数据质量参差不齐引发生成毒害内容,数据集时效性偏差引发可信度危机,《暂行办法》提出,服务者与使用者应正确行权用权,并依据上位法对开展数据服务和应用划定“红线”。其包括:(1)训练数据处理活动要合规。训练数据处理包括预训练、优化训练等活动,其数据和基础模型来源要合法,不得侵害知识产权,使用个人信息应知情同意,确保训练数据的真实性、准确性、客观性、多样性。(2)进行数据标注活动要合规。人工智能是大量数据教导训练而成的,数据标注质量决定机器智能化的水平。随着AI 基础数据服务市场的扩大,数据标注需求量将呈井喷式增长。《暂行办法》要求标注者应当制定清晰、具体、可操作的标注规则,积极开展数据标注质量评估(即抽样核验标注内容的准确性)。
2023 年5 月,七国集团(G7)领导人峰会呼吁制定AI 国际技术标准。为确保这项强大技术的可靠性和可管理性,美国发布了41 种生成式人工智能算法清单,清单上的算法在广泛使用之前必须获得许可。欧盟也制定了《人工智能法案》,为人工智能应用设置“护栏”。
作为世界上第一部规范生成式人工智能的单行法规,《暂行办法》及时跟上新技术发展的治理步伐,对克服“科林格里奇困境”进行了有益的新探索。当然,《暂行办法》可能存在以下不足:一是缺乏专门预防算法偏见的具体规定,因此需要结合生成式人工智能运行的现实需求进行修改;二是对生成式人工智能应用场景和使用范围没有作出明确的规定;三是对提供“具有舆论属性或者社会动员能力的生成式人工智能服务”是一种概括性要求,未能作出具体的规定。技术发展既要立足现实,也要着眼于未来。所以,《暂行办法》只是“暂行”的,必要时可以进行修改。
生成式人工智能的成长与应用具有独特规律,没有现成的经验可以借鉴,探索更加有效、务实的新一代人工智能治理路径成为时代之需。生成式人工智能具有新颖性、连贯性、不确定性、模糊性与增长快速、影响重大等特点。我们认为,当前构建生成式人工智能技术治理的实践逻辑,要解决好“以社会主义核心价值观为引领”“质量度统一”“敏捷治理”等突出问题。
(1)“安全偏好”的价值引领。社会主义核心价值观在国家层面上首要强调“富强”。国家安全是国家富强的根基。生成式人工智能是影响和塑造国家安全的核心变量,它一方面给我们带来巨大福利,另一方面也可能给国家安全带来极大风险,有效预防其风险是确保安全的关键。鉴于国外技术治理经验教训,尤其是当前大国之间博弈加剧,生成式人工智能技术治理应当从一开始就要受到高度重视。“安全”,尤其是从国家安全与公共安全角度而言,应该成为生成式人工智能发展与治理的首要关切。
(2)公平公正的价值诉求。社会主义核心价值观在社会层面提出了“平等”和“公正”的要求。从实践层面看,人工智能所生成的内容可能带有歧视性,如果不加以规范治理,将会导致其生成的歧视性内容大范围扩散。AI 内容上的偏见与歧视,在本质上是训练数据的缺陷,即用来训练人工智能的数据本身存在偏见,导致产生偏见与歧视的结果,这就意味着必须对数据和算法加以规范。《暂行办法》针对生成式人工智能服务的全过程,包括训练数据的选择、模型的生成和优化,规定了防止产生歧视性的内容,体现了社会主义核心价值观“平等”和“公正”理念的引领作用。
(3)诚实信用的价值导向。社会主义核心价值观在公民价值取向层面提出了“诚信”要求。生成式AI 对“诚信”价值观提出新挑战。生成式人工智能的技术基础缺乏透明度,生成的内容缺乏对数据的引用,容易造成剽窃和知识产权纠纷;技术的非诚信使用,可能导致研发人员把生成的内容简单地当作自己的研究成果,抑制了技术创新;生成的内容无法产生创造性内容,其真实性和可靠性使人质疑;生成的数据、文本、图像、代码、视频极易引发论文代写、洗稿等学术不端行为。要加强诚信价值观建设,一方面,以识别和鉴定“AI生成内容”为抓手和依据,鼓励研发“AI生成内容”的检测工具进行真伪识别,如斯坦福大学开发了“DetectGPT”的论文检测工具,普林斯顿大学研发了专门针对ChatGPT 生成内容的检测工具——“GPT 归零”(GPTZero)。更为简便的方法是给AI 内容加水印。另一方面,以自律为根本,引导服务者和使用者合理使用“AI 生成内容”。加强服务者和使用者的自律意识是根本。
质与量的统一就是度。技术治理的质体现了一定的量,治理的量体现了一定的质。推进新一代人工智能的发展,走向技术善治,建立合理治理架构,必须实现技术治理过程中质量度的高度统一。
深入把握技术治理的质。判断技术治理好坏的标准有生产力标准和伦理标准。从前者看,科学技术是第一生产力,判断技术治理的质,要看技术治理是否真正引导和推动技术本身的健康发展,是否推进了社会的进步。如果是“正向”推进,这种技术治理就是善的。如果一种技术治理措施阻碍了技术进步与生产力发展,这种治理是得不到伦理上的辩护的,就是技术“恶治”。从后者看,如果一种技术治理符合社会公认的道德伦理价值准则,坚持科技以人为本,并兼顾了国家历史文化、传统习惯,那么这种技术治理就是善的,否则也是技术“恶治”。人工智能的极度复杂性和高度的不确定性客观上要求优化匹配的治理工具体系,以便提升治理的针对性和有效性。人工智能的治理工具有程序性工具、主体性工具、规则性工具三类。人工智能发展应用的特殊规律,客观上需要融合上述三种治理工具加以有效应对。程序性工具需要事前对人工智能产品的性质与功能提出准入性要求,对应用场景作出“负面清单”式要求;事中对人工智能产品正常功能运作、潜在风险的识别消除、人为干涉或终止措施等做好应对与处理;事后围绕责任界定、侵权行为、违规处置、救济机制等展开。主体性工具需要明确界定政府、第三方机构、企业以及社会等四类主体的治理权限与责任。就当前而言,中央政府需要承担顶层设计、试点安排、监督指导以及国际对话等职责,而地方政府则更多承担属地监管、系统备案等操作性职责。规则性工具需要以数据、算法、应用环境为切入点并提出相应治理要求。新一代人工智能技术需要从数据生命周期视角,对数据采集与存储、传输与使用、跨境流动等各个环节都提出监管要求,需要对算法目标、算法备案、算法应用限制、应急处理等方面的挑战进行应对。就人工智能产品应用环境而言,需要为人工智能产品设置适宜的硬件要求(如自动驾驶汽车行驶的道路环境),对系统使用者资质能力的合理要求,以及对应用软件、网联通信等配套保障的现实要求等。
精准把握技术治理的量。技术治理过程中存在量的问题。技术治理的对象、手段与方法都是一个变量。从治理对象上看,新一代人工智能技术本身是发展变化的。随着大数据、算法、算力等的迭代,人工智能的发展呈螺旋式上升,新兴技术逐渐应用到各个领域。因而,人工智能治理要以全数据治理理念促进全范围、全领域的治理,做到“一个都不能少”,大力拓展人工智能治理的范围、领域等,使人工智能治理从关注部分对象转变为关注全体对象。比如将人工智能技术涉猎范围内所有主体、所有相关对象、所有社会事务均纳入治理视野之中,依托大数据技术进行统筹、整合、调配,实现全域的有效治理。从治理手段方法上看,主要依靠政策、法律法规、伦理规范、行业标准等进行治理。迄今为止有关新一代人工智能技术的治理规范(法律法规、政策)数量众多(见表3)。目前地方性的关于新一代人工智能技术的规范已经出台或正在制定之中。
表3 新一代人工智能技术的治理规范
实现技术治理质量度的统一。技术治理的关键是在不确定性中寻找“合理限度”的确定性。这种“合理限度”确定性一方面表现在:有关人工智能的具体法律法规、政策规定体现并服务于技术治理。如网络安全法、数据安全法、个人信息保护法是全国人大常委会制定的,对人工智能治理而言是宏观层面的一般性治理约束,缺乏有效的针对性。这就需要深度合成技术管理规定、互联网信息服务管理办法、新一代人工智能治理原则与伦理规范等来设定具体的治理标准,精准施策,对症下药。人工智能法律法规的一般性规定与特殊性约束相互配合,共同实现人工智能治理的质量度的统一。另一方面,“合理限度”确定性还表现在合理的治理原则上,它是统筹质和量的关键,比如:(1)适度原则。政策与立法要适度,即政策与立法要注重质,不是数量越多越好,越严越好,而是管用就行。(2)均衡原则。即治理过程要保持技术发展与技术治理的均衡,人工智能现有的法律法规、政策、标准等规范,以及规范之间的相互协调配合,既要有利于技术的健康发展,又要给技术创新适宜的空间,而不至于制约技术进步。(3)适当超前。将国家中长期计划,尤其是建设科技强国远景规划作为制定法律法规与政策的依据,立足现实、服务长远,推进新一代人工智能服务国家战略。
生成式人工智能具有颠覆性和革命性,留给决策者和治理者理解其潜在用途和影响的时间大为缩短。传统治理方式是一种外在的事后规范性治理,无法解决人工智能的不确定性[15](38)。科学已造成的新的不确定性,我们根本无法借鉴以往的经验来解决。因此,对生成式人工智能的治理,必须转变观念,采取更加“敏捷”的治理方法。
敏捷治理是治理的基本途径[16](49)。它具有区别于传统治理的全面性、适应性、灵活性和包容性特征,能够更好地避免传统治理的“相对片面性”“弱适应性”“滞后性”“弱包容性”的弱点(见表4),能有效弥合技术创新发展与治理能力提升之间的空隙。敏捷治理提供了一种更灵活、适应性更强的方法来进行实时学习,将原则和政策结合,可以在特定情况下有效解决问题,而不会破坏潜在的创新。
表4 敏捷治理与传统治理的区别
2018 年世界经济论坛白皮书提出了“敏捷治理”概念。目前,我国新一代人工智能敏捷治理已经从理论走进现实。2019 年我国《新一代人工智能治理原则——发展负责任的人工智能》把“敏捷治理”确立为治理的八大原则之一。2021 年《新一代人工智能伦理规范》提出“推动敏捷治理”。2022 年《关于加强科技伦理治理的意见》提出了“敏捷治理”的治理要求。当前,生成式人工智能的治理,要秉持“敏捷治理”的要求,突出对生成式人工智能的风险预警与跟踪研判,及时动态调整治理方式和治理规范,快速灵活应对伦理挑战。在基本理念上,生成式人工智能技术治理应避免一刀切式的、一蹴而就的治理方式,按照“急用先立、成熟先立”的原则,遵循包容审慎、敏捷灵活、鼓励创新等治理理念,兼顾不同应用场景可能存在的负面影响,大力采用敏捷治理方案。结合敏捷治理的四个特性,构建我国生成式人工智能治理路径,具体而言包括:基于敏捷治理的全面性,构建“基础模型—专业模型—服务应用”的全面性治理格局;基于敏捷治理的适应性,构建事前预防与事后应对相结合的适应性治理机制;基于敏捷治理的灵活性,构建“技术—法律”相结合的灵活性治理工具[17](141);基于敏捷治理的包容性,构建“审慎—弹性”相结合的伦理治理工具。唯有如此,才能更好推动新一代人工智能向善向上发展。