张辛鑫 冀瑜
摘 要:2024年3月13日,经欧盟议会全会投票,正式通过了全球首个人工智能领域的综合性立法《人工智能法案》。本文对该法案的制定背景、规范体系与其中涉及标准化的内容进行了分析。该法案通过设置1025/2012号条例准用性条款,为法律适用提供了大范围、开放的标准“接口”,一方面可一定程度弥合人工智能技术与法律条款之间的鸿沟,另一方面标准化法规也为欧盟未来人工智能的标准化治理提供了法律保障。此外,本文结合该法案中标准与法律的互通机制提出了我国未来人工智能的治理建议,以供参考。
关键词:《人工智能法案》,人工智能治理,准用性条款,人工智能技术标准
DOI编码:10.3969/j.issn.1674-5698.2024.05.006
0 引 言
近年来,人工智能技术助推了人类的生产力发展,也挑战着传统社会规范中的各类固有伦理与价值取向。例如:OpenAI推出的生成式人工智能正在重塑人类的创作方式,却导致了作品权属混乱;而“不透明”的神经网络嵌入各类私权领域虽然有利于社会效益,也同样引发了隐私焦虑、歧视、产品安全等问题。如何精准引导人工智能技术于可控、符合人类价值的“安全屋”中参与良性市场竞争、有序提高生产力水平、引领数字经济发展已是我国人工智能领域的重要议题。2021年10月中共中央、国务院《国家标准化发展纲要》提到我国需要“建立健全大数据与产业融合标准,推进数字产业化和产业数字化。”数字经济时代,人工智能伴随着规模拓展可持续赋能各产业,推动数字化变革,其应用不仅可加速信息传递,提高整体社会经济运行效率,也可通过需求端刺激提高供给端品质,以数字化赋能助推我国供给侧结构性改革[1]。因此,落实产业数字化离不开健全的人工智能生态,这有赖于法律、标准等社会规范的保障。
1 欧盟《人工智能法案》概
述欧盟委员会执行副主席兼竞争专员玛格丽特·维斯塔格(Margrethe Vestager)评价人工智能时曾表示:“在人工智能领域,公众信任是必须存在的,而对其进行监管和规制是建立这些信任的最佳方式。只有存在具有里程碑式的监管规则,才能确保人工智能值得信任。”正是在这种逻辑之下,《人工智能法案》提案应运而生,充分体现了欧盟在人工智能领域试图引领全球秩序的意图[2]。
1.1 欧盟《人工智能法案》的制定背景
《人工智能法案》首次提出可追溯至2021年4月。其宗旨是以全面、符合人类伦理的方式监管人工智能,法案内容包括对人工智能系统安全性、透明度、可追溯性、公平性、道德标准的评估,同时涉及人工智能系统合规监管、执法与司法审查等[3]。在研讨初期,部分业内人士曾就该法案的“超前监管”倾向产生过较大分歧,如:有观点认为人工智能仍处于极速发展阶段,过早进行综合性立法落实严苛的法律责任有碍技术的创新与发展,根据“比利时智库欧洲国际政治经济中心(EuropeanCentre for International Political Economy)”2018年数据显示,欧盟因为科技公司的事前监管已导致了850亿欧元的GDP和10 0 0亿欧元的消费者福利损失[4]。除此之外也有观点指出该法案中的许多合规要求在当前欧盟根本没有技术土壤,其出台严格的综合性立法只是为了打造全球“示范效应”削弱其他国家在人工智能领域的领先优势[5]。例如:德国工业联合会(Bundesverband derDeutschen Industrie,BDI)认为,欧洲在人工智能技术领域面临落后风险,其负责人艾里斯·普洛格也表示,该法案并不成熟,给市场主体只会带来更多的不确定性[6]。这些观点也与部分国家类似,英国即表现出不急于在综合性立法层面采取措施的姿态,而是倾向于在现有个人隐私、数据安全等法律下寻求治理人工智能。然而,至2022年末,随着ChatGP T迅速风靡全球,加快推进了该法案的立法进程。欧盟委员会认为以人工智能风险为导向,落实分级监管有助于消弭综合立法严苛责任带来的负面影响。经过长时间谈判,2023年6月,欧洲议会以高票通过了《人工智能法案》草案。2024年1月19日,欧盟委员会、欧洲议会和欧盟理事会公布了定稿的《人工智能法案》(朱悦,2024),并于2024年2月2日经欧盟27国代表一致通过。2024年3月13日,随着该法案最终于法国斯特拉斯堡欧盟议会全会上取得523票赞成,46票反对,49票弃权的压倒性结果,正式开启了全球人工智能领域综合立法的序幕。
《人工智能法案》距离真正生效仅余程序性流程,包括:欧盟理事会正式批准、刊宪公布、刊宪20日后生效等,这些对《人工智能法案》已不再有实质影响[7 ]。换言之,以当前版本的《人工智能法案》在整个欧盟分阶段实施只是时间问题。
1.2 欧盟《人工智能法案》的规范体系
作为平衡技术创新与合规监管的产物,《人工智能法案》以基于现行欧盟法律、准用现有产品质量标准的规范体系得以出台。前者表现为法案立法说明存在大量宣示遵循欧盟现行法律的表述。例如:(9)指出“……根据其采取的新立法框架的方法,不应影响现有的联盟法律。”以及(45)“数据保护法、非歧视法、消费者保护法和竞争法等欧盟立法所禁止的实践不受本条例影响。”
而后者的产品质量标准准用机制,主要体现于以下3点。(1)第4 0条准用1025/2012号条例范围内的标准,旨在为人工智能的合规审查提供替代性选择,如果人工智能系统提供者能够证明自己符合准用的现行欧洲标准或其他通用规则,可以被视为符合法案规定[8];(2)第48条提出通过传统“CE”标识,代表高风险人工智能技术取得合规认证;“CE”指“Conformite-Europeenne”,以往用作宣示产品安全性已达到欧盟《技术协调与标准化新方法》(T he New Appr oa ch totechnical harmonization and standardization)指令要求,也是欧盟境内产品流通的基本资格;(3)法案允许人工智能提供者的质量管理体系与欧洲现行质量管理体系认证内容(例如:ISO 9 0 0 0标准族)可存在交叉与互补。例如:法案立法说明(81)指出“如果相关的欧盟部门法有义务构建质量管理体系,本条例规定的质量管理体系要素可作为其他欧盟部门法规定的现有质量管理体系的一部分。在未来的标准化与欧盟委员会出台的相关指南中,应从本条例与现行欧盟部门法的内容互补层面予以考虑。”
2 《人工智能法案》中标准化的主要功能
欧盟《人工智能法案》作为全球首个人工智能领域的综合性立法,以“硬规制”模式吸纳了标准与法律的互通机制:其不仅从法律层面针对人工智能风险分级、人工智能技术创新、人工智能产品安全等方面进行了详细规定,条款也涉及大量的标准化措施。标准与法律在该法案中处于相互融合、彼此支撑的状态,显示出了较强的具体化倾向。
2.1 通过准用标准化法规落实人工智能风险分级
《人工智能法案》风险分级主要基于人工智能技术对公民权利的影响力评估展开,分为“低风险”“中风险”“高风险”以及“不可接受风险”。
其中,“低风险”指的是如:AI 电子邮箱垃圾过滤,电子游戏AI脚本等,此类人工智能技术不受法案干预;“中风险”包括与人类行为相关的情绪识别,生物特征分类等,法案要求该风险层次的实施者或部署者应当履行明确、详尽的透明度义务,以确保消费者或技术使用人事前的风险规避与监管部门的事后问责;“高风险”则为有关人体生命安全、健康以及其他公民基本权利等内容,法案要求这类技术投放前必须经过严格的认证评估并张贴“CE”标识、使用高质量的数据集训练、全程记录可追溯等,“不可接受风险”被完全禁止任何形式的实践与投放,如:运用歧视性、欺骗性等明显不可接受倾向性的技术或相关技术已超越了人类意识等(宁宣凤,吴涵等,2023)。
在落实风险分级机制中,《人工智能法案》立法说明(9)提出人工智能系统的市场投放、所遵循的“协调规范”应适用于各个部门;而(121)直接明确“标准化应当发挥至关重要的作用——‘统一标准是判定人工智能符合该法案要求的手段之一。”根据法案第3条(27)“统一标准”为依据欧洲1025/2012号条例制定的“协调标准”,即欧盟委员会提出的,应用于欧盟协调立法要求而被采用的欧洲标准。法案准用的1025/2012号条例整合了欧洲标准化中的制定机构(如:CEN、CENELEC、ETSI等),审议流程、标准管理以及经费资助等一系列从标准立项、起草、咨询、发布等相关细则[9]。所谓准用,是指法律本身并未详细规定假定条件或行为模式,而是设置指向性条款援引或参照其他规范[10]。《人工智能法案》运用1025/2012号条例设置准用性条款,可将现有标准与新标准予以涵摄。例如:2023年5月22日,欧盟委员会发布了一项涉及欧洲标准化委员会(CEN)和欧洲电工标准化委员会(CENELEC)的新标准请求,其中附件2就包含“人工智能风险管理体系”[11]。如果该标准得以出台,也可属于《人工智能法案》的标准准用范围。因此,这种覆盖范围极广的准用性规则有助于充分整合标准、通用规则资源支撑《人工智能法案》具体适用,从而作为人工智能风险分级与合规监管的重要依据之一。
2.2 通过标准的补充与延伸作用划分法律概念的边界
标准对法律概念边界划分作用在欧盟《人工智能法案》中充分体现。法律和标准本质均为追求社会秩序的规范,这是标准对法律产生作用的基础,法律通过应为或不应为调整人的行为,而标准则是从科学的角度以秩序化方法对事物进行客观性解释,可用作补充与延申法律概念的工具[12]。在《人工智能法案》中,标准起到了“但书”作用,明晰了法律概念的边界。例如:立法说明(29)认为禁止实践的人工智能操纵性技术如:运用于心理疾病的治疗、精神病康复等符合医疗标准的,则不属于禁止情形;标准划分法律概念并不限于第5条这类较为概括性的条款,在“高风险人工智能技术”这类列举式条款中也在列。例如:其附件3虽然已运用大量列举的方式尽可能穷尽“高风险人工智能”概念的内涵与应用领域,但鉴于法律的一般抽象性,执行中仍需运用标准术语明确法律概念的边界:因而在(53)中,法案可委任欧盟委员会进一步提供具体的执行细则,并附上全面、可实践的高风险人工智能案例清单,以排除“高风险人工智能”法律概念中的例外情形。通过标准细则对法律概念的补充与延申,能依据实践需要精准划定法律概念的边界,将法律要求落实到具体场景,避免“一刀切”式监管阻碍技术创新。
2.3 灵活适用“统一标准”与“共同规格”形成动态、开放的技术规范
《人工智能法案》主要通过设置两种准用性条款实现统一的人工智能技术规范。(1)借助1025/2012号条例第2条第1款c项“协调标准”形成的“统一标准”。(2)指向1025/2012号条例第2条第4款的“共同规格”——指规定产品、过程、服务或系统的技术规范,可包括产品所要求的特征,包括质量、性能、互操作性、环境保护、健康、安全或尺寸水平,以及产品的名称、术语、符号、测试等。不过两者并非全有或全无般适用,而是包含了动态的实践考量。其中,“共同规格”的规范性效力可能后置于“统一标准”。例如:立法说明(121)提到如果“统一标准”不适用于解决人工智能法律中的问题时,“共同规格”作为次级规范应为备选方案,同时第41条(6)允许各成员国可提议调整“共同规格”相关法案的实施。此外,由于现行标准于人工智能领域可能存在适用障碍且难以一一对应至最新技术,因此法案还授予欧盟委员会可另行制定标准或其他次级规范的权限,为多种技术细则的灵活嵌入保留了法律层面的“接口”。
2.4 构建统一标准的人工智能沙盒,探索“刚柔并济”的规制手段
人工智能监管沙盒作为支持人工智能技术创新的主要内容,是《人工智能法案》一项创新性举措,法案要求生效后24个月内欧盟各成员国都应于本国境内至少建立一个沙盒,并要求各成员国互认测试结果。沙盒遵循统一的标准向欧盟境内人工智能技术主体开放,鼓励人工智能技术主体(特别是中小微企业)参与测试技术风险,以便技术主体能通过自评估获悉实施风险。该措施一方面尊重了人工智能技术主体的创新诉求,避免法案的直接干预。另一方面也为监管部门提供了灵活的监管手段。例如:法案规定了沙盒测试应接受监管部门的“柔性”指导,如果人工智能实施主体积极根据沙盒测试结果履行相应的风险规避义务并接受指导,则不应再受到行政处罚;不过法案并不放弃“硬规制”,提到监管部门的强制手段不受到沙盒测试内容的影响,如果沙盒内的人工智能技术风险已显著超越了法案的可接受范围,监管部门可单方面宣布暂时或永久终止沙盒测试,并允许直接依法给予相应的处罚。
3 欧盟《人工智能法案》对我国人工智能治理的启示
3.1 我国人工智能算法领域的法律适用仍需具体细则支撑
2021年8月,我国通过《个人信息保护法》树立了“以人为本”、监管人工智能算法的核心框架。同年9月《新一代人工智能伦理规范》、12月《互联网信息服务算法推荐管理规定》以及2023年8月七部门联合出台的《生成式人工智能服务管理暂行办法》共同构成了我国针对人工智能算法的基本法律体系。然而,与欧盟立法相比,我国在具体实施中仍有可完善空间。例如:在透明度方面,《人工智能法案》立法说明(2)指出,人工智能系统的开发和使用应当具有一定的可追溯性与可解释性,部署者或开发者需要将人工智能交互、交流过程中的风险性与局限性告知受影响者。同时法案在附件11、12中针对通用人工智能系统透明度提出了具体、详尽的要求,包括完整的技术指标与保存义务等。而我国《互联网信息服务算法推荐管理规定》第4条虽然也明确了透明度义务,同时第24条规定了具有舆论属性或社会动员能力的算法推荐服务提供者应在法定期限内通过互联网信息服务算法备案系统履行备案手续。但是我国当前资讯推荐类算法服务备案更似单纯形式审查,备案内容并未得到监管部门实质认可;而且,部分备案过程为了兼顾商业秘密保护,信息收集多采用“选项式”,所致技术细节“颗粒度”较大[13]。从备案平台部分公开信息来看,与透明度关联的算法原理与运行机制介绍存在宽泛的“术语堆砌”现象,例如:“Transformer 架构”“tf-serving服务”“i 2i 召回”“onli ne l ear ni ng+分钟级”等。不仅可能导致普通公众难以理解,也不利于监管部门问责时的可追溯性与可解释性。随着我国已完成各类立法,实现其中的法律宗旨不宜仅依赖法律规范,面向标准化实践探索可实施细则将更有实际价值[14]。
3.2 制定通用人工智能技术标准需具备一定的普适性与灵活性
(1)由于通用人工智能技术(AGI)的衍生性可应用于不同领域,其标准化需要具有一定普适性。《人工智能法案》认为通用人工智能系统有能力服务于各种目的,除了本身风险也可能作为其他高风险人工智能的组成部分,在风险分级方面需要考虑通用人工智能的预期用途。例如:自然语言处理(NLP)Bert与XLnet模型既可应用于智能家居、移动设备也可应用于车辆控制。虽然所涉领域风险不同,但AGI使用的神经网络规律很可能具有相似性。鉴于我国当前立法模式已趋向依据算法的不同应用领域(例如:有学者认为《互联网信息服务算法推荐管理规定》第2条定义的“应用算法推荐技术”非技术本身,应是算法技术的应用领域之一[15]。)落实分类监管。如果标准化继续采用分类模式,一方面易产生重复性指标,引起标准立项、起草、评估等资源的虚耗;另一方面也可能增加人工智能系统实施者于不同应用领域的合规成本。
因此,2024年1月17日,由工信部发布的《国家人工智能产业综合标准化体系建设指南(征求意见稿)》中,拟将未来待完善的人工智能标准体系分为“基础共性”“基础支撑”“关键技术”“智能产品与服务”“行业应用”“安全/治理”6个大类(如图1所示)。“自然语言处理”等AGI被置于“关键技术”范畴。然而,如何协调“关键技术”作为不同“智能产品与服务”或“行业”的技术组成部分后维持标准体系的简洁、有效,仍需进一步明确。欧盟《人工智能法案》通过对1025/2012号条例的准用,旨在将现有标准通过“符合性评估”大规模适用于人工智能,如此可一定程度避免通用技术标准于不同应用领域的重复制定,也能为技术主体提供多种可以互相替代的合规准则。对采用分类式监管的我国具有一定的参考价值。
(2)人工智能技术标准化需要兼顾技术的快速发展,基于传统产品质量逻辑构建人工智能标准有一定滞后性,需要依据具体实践灵活更新技术规范条款。例如:欧盟《人工智能法案》暂时将超越人类思维、潜意识的人工智能技术定义为“不可接受风险”。但据《Nature》2023年10月的一项研究成果显示,运用特殊方法ML C(Met a-Learning for Compositionality)训练的神经网络已经具有类似人类思维的“系统泛化”能力,可实现“举一反三” [16 ]。由此产生的决策可进一步逼近人类,未来甚至可能参照人类思维产生欺骗性意图,从而脱离产品开发者的掌控。责任落实层面,具备强大“系统泛化”能力的人工智能技术已不属于单纯的“产品”范畴。所以,人工智能相关规范制定需要依据技术发展予以及时调整。欧盟《人工智能方案》的应对措施是制定法定审查节点推进整体条款的持续修订,例如:立法说明(174)将法案整体的审查、评估节点定为初次生效后5年与此后的每4年。而我国则可考虑合理运用推荐性标准修改、制定较宽松的特点,满足人工智能技术变化的监管需求。
3.3 加强人工智能治理领域标准与法律的互通机制人工智能领域的标准与法律的互通可以有两种模式,一是以法律直接引用标准赋予单个标准强制力;二是如《人工智能法案》与1025/2012号条例一般通过法律准用标准化法规,此模式不仅可以推动现行各类标准的准用,还能拓展出一条开放的标准化路径,使法律融合标准以进一步适应AGI适用范围广、技术变化快等特点。
(1)可考虑运用法律引用标准,落实部分特殊应用领域标准的强制执行力,促成“刚柔并济”
的规制模式。欧盟《人工智能法案》要求“中、高风险人工智能”必须履行强制的透明度义务。其中“高风险”涉及公民生命、健康的部分与我国《标准化法》第10条第1款具有相似性。在我国《标准化法》第10条语境中,涉及人身健康和生命财产安全人工智能产品理应制定强制性标准。然而,即如前文所述由于人工智能系统的通用性特征,针对某一特定应用领域制定强制性标准宜采取审慎态度。同时我国GB/T 1.1-2020《标准化工作导则 第1部分:标准化文件的结构和起草规则》[17]也指出,标准不应涉及条款使用者的权利义务或法律责任。所以,结合人工智能技术动态的标准强制力需求与落实法律责任两方面考量,构建合理的法律引用“柔性”标准模式是兼顾人工智能应用领域多样化的最佳选择。因为在我国标准化实践中“当法律规定国家标准、行业标准、地方标准或者笼统地表述为国家有关标准时,其中的推荐性标准依法也具有与强制性标准一样的效力[18]。”例如:《特种设备安全法》第8条规定“特种设备生产、经营、使用、检验、检测应当遵守有关特种设备安全技术规范及相关标准,”其中“相关标准”为GB/T 7588.2-2020[19]此类国家推荐性标准赋予了法律的强制力。
(2)我国在未来人工智能立法中,可考虑构建《标准化法》相关细则的准用机制,落实更广泛的标准化治理并通过法律保障人工智能标准化的实施。根据《标准化法》第3条,标准化是“制定标准、组织实施标准以及对标准的制定、实施进行监督。”通过准用《标准化法》于人工智能领域的相关细则(例如:《国家人工智能产业综合标准化体系建设指南(征求意见稿)》中的6类标准),一可协调现有标准于人工智能领域的实施,落实标准准用机制;二可将人工智能领域新标准制定相关的立项、起草、咨询等注意点予以明确,为人工智能未来的标准化工作提供法律保障。此时,被准用的《标准化法》相关细则在我国人工智能治理领域可与1025/2012号条例产生类似的作用,为法律适用保持开放机制以便于技术规范的嵌入。
3.4 发挥现代标准治理中的协同性优势
现代标准治理主要逻辑之一即协同性,在标准制定(不同主体协商形成共识)与实施中都发挥着重要作用(因“外部压力”下对共识的自觉遵守)[20]。而人工智能治理同样是需要不同层次主体协同参与的现代事务,其中的风险分级、透明度等问题不仅涉及技术主体的市场竞争,还可能包含平衡私权保护与公共利益、创新型国家政策落实等多重因素。欧盟《人工智能法案》立法说明(121)指出“法案鼓励所有利益相关主体,尤其是小微型企业、消费者组织以及环境和社会利益相关方共同参与到标准制定,以落实多方利益平衡。……在落实标准化要求时,委员会应充分咨询人工智能咨询论坛与理事会,收集相关专业知识。”这种鼓励各方主体充分参与标准制定的做法能调动各类人工智能技术主体的积极性,使之充分参与凝聚“共识”,从而制定认可度更高的“最佳秩序”。这也与我国《标准化法》第2条第2款的立法宗旨,以及《国家人工智能产业综合标准化体系建设指南(征求意见稿)》中“加强人工智能全产业链标准化工作协同,加强跨行业、跨领域标准化技术组织的协作,打造大中小企业融通发展的标准化模式。”的要求一致。一方面鼓励多方参与形成的“柔性”标准既能在特定法律场景中运用法律引用赋予强制力,且不影响其他场景中的各类主体的自主意愿;另一方面也可依靠标准协商落实我国人工智能风险分级、透明度程度、合规审计细则等内容。从而避免自上而下的“刚性”法律或强制性标准过度介入,尊重人工智能技术主体的创新诉求。
4 结 语
欧盟《人工智能法案》标准化治理图景非常丰富,(1)该法案充分发挥了标准对法律概念的补充与延申作用,为人工智能法律概念的界分与细化提供了具体规则;(2)通过法律层面对标准化法规的准用机制也贯通了欧盟未来人工智能技术领域的标准化路径。作为全球第一个人工智能领域的综合性立法对于我国具有一定参考价值。
首先,人工智能治理需要关注技术的发展,考虑到法律法规的普遍滞后性与一般抽象性,实现立法宗旨难以仅依靠法律规范。而标准与法律同属社会规范工具,两者在促进人工智能技术创新、风险分级、合规审查等领域可发挥协同作用。因此,我国在未来出台人工智能相关立法时可参考《人工智能法案》体例,为技术标准保留准用性“接口”,以便在必要时可通过标准术语界分与衔接法律概念,支撑法律适用。其次,宜将推荐性标准作为我国人工智能领域标准制定的优先层级,运用推荐性标准配合部分场景的法律引用可满足人工智能于不同场景、不同强制力的动态治理需求,在保障法制稳定的基础上兼容人工智能技术的发展与创新。最后,可考虑在未来人工智能相关立法中准用《标准化法》于该领域的相关细则,为人工智能标准化治理提供坚实的法律保障。
参考文献
肖旭,戚聿东. 产业数字化转型的价值维度与理论逻辑[J].
改革, 2019(08):61-70.
吴沈括,胡然. 欧盟《人工智能法》提案的背景与意义[EB/
OL].(2021-05-07)[2024-03-05],https://www.secrss.com/
articles/31034.
高荣伟. 欧盟推出《人工智能法案》[J]. 检察风云, 2024
(04): 44-45.
曾雄,梁正,张辉. 欧盟人工智能的规制路径及其对我国
的启示——以《人工智能法案》为分析对象[J]. 电子政务,
2022,(09):63-72.
张伯超. 欧盟《人工智能法案》简析及对我国的启示[J].上
海信息化, 2023,(08):51-53.
贾平凡. 欧盟人工智能立法取得进展[N]. 人民日报海外
版, 2023-12-14(006).
朱悦译. 2021/0106 (COD) 关于欧洲议会和欧盟理事会制
定有关人工智能的统一规则(《人工智能法》)以及修订
若干联盟立法的建议[Z]. 2024.
宁宣凤,吴涵,等. 路未央, 花已遍芳——欧盟《人工智能法
案》主要监管及激励措施评述[EB/OL]. (2023-08-03)[2024-
03-01], https://mp.weixin.qq.com/s/VMSAOuWYlg4U8_
LcJocIGw.
杜晓燕,王益谊,刘辉. 欧洲议会和欧盟理事会1025/2012
号欧洲标准化法规解析[J]. 标准科学, 2013(3):88-92.
张鹏. 概括准用规则的合法性研判与规范化设置——以
燃放烟花爆竹行为的拘留处罚为例[J]. 政治与法律, 2018
(05):65-75.
洪延青. 欧盟AI法案中的标准化需求和制定流程简
述[EB/OL].(2023-11-14)[2024-03-02],https://mp.weixin.
qq.com/s/l59M-8zt_bWsAx1sowUtyw.
柳经纬. 标准与法律释论[M]. 厦门:厦门大学出版社,
2022:8-20.
程莹. 面向监管的算法透明及其实现[C].//算法治理之算
法透明度编委会.算法治理制度之算法透明度(张凌寒
主编)北京:中国工商出版社,2023:67-75.
刘维.算法透明度和可解释性的理论与制度之辩[C].//算
法治理之算法透明度编委会.算法治理制度之算法透明
度(张凌寒主编)北京:中国工商出版社,2023:32-45.
靳雨露. 算法透明的演进历程与制度构建[C].//算法治理
之算法透明度编委会.算法治理制度之算法透明度(张
凌寒主编)北京:中国工商出版社,2023:14-31.
Lake, B.M., Baroni, M. Human-like systematic generalization
through a meta-learning neural network[J].Nature623, 115–
121 (2023).
GB/T 1.1-2020, 标准化工作导则 第1部分:标准化文件的
结构和起草规则[S].
柳经纬. 标准的类型划分及其私法效力[J]. 现代法学,
2020,42(02):157-170.
GB/T 7588.2-2020, 电梯制造与安装安全规范 第2部分:
电梯部件的设计原则、计算和检验[S].
王平,侯俊军,梁正. 标准的力量—工业和社会治理的规则
[M]. 湖南:湖南大学出版社,2023:103-107.