我国人工智能综合立法路径探索
——以欧美相关立法为参照

2023-02-23 20:12李雪童
关键词:法案规制伦理

李 晔,李雪童

(对外经济贸易大学法学院,北京 100029)

以Chat GPT 为代表的生成式人工智能的问世掀起了人工智能的热潮。现如今与人工智能相关的各种讨论引发了前所未有的关注,公众热议的焦点也逐渐延伸至法律领域,思考如何推进相关立法以便应对因人工智能不断升级所带来的各种法律问题。事实上,近年来随着人工智能的飞速发展,为社会进步带来更大机遇的同时,也为人类未来发展添加了诸多不确定性因素。现实中通过人工智能侵犯公民个人信息、伪造数据诈骗、全自动机器故障引发事故等社会问题唤起了公众对人工智能不受节制发展的担忧,针对人工智能进行立法的呼声愈发高涨。目前,各个国家对人工智能治理总体呈现了加速演进的态势,美欧作为人工智能规制的探索者,率先构建了以风险监管为中心的人工智能法律框架[1]。中国在针对人工智能进行立法的过程中可能会面临何种挑战以及如何妥善处理是目前亟需考虑的问题。

一、人工智能带来的法律问题及其立法必要性

(一)对人工智能进行综合立法的必要性分析

人工智能已经越来越深入我们的日常生活和经济市场,法律作为上层建筑,始终应当以经济为基础,以市场为导向。据工信部数据显示,我国已拥有超4000 亿元人工智能产业,并且已经形成完整且初步成熟的产业链,在此背景下,人工智能立法具有深远意义。国务院2017 年7 月20 日印发的《新一代人工智能发展规划》,在战略目标中对法律体系建设提出了“三步走”要求:到2020 年,部分领域的人工智能伦理规范和政策法规初步建立;到2025 年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;到2030 年,建成更加完善的人工智能法律法规、伦理规范和政策体系。对人工智能相关法律体系的建设要求也是对法律作为上层建筑价值的呼应。

除此之外,随着类似于Chat GPT 等生成式人工智能的面世,其运行模式可能对伦理、道德和法律的认知逻辑带来新挑战。首先,人工智能的高技术性和发展的灵活性使得传统监管范围暴露出一定的不足和滞后,也加剧了监管者、公众与技术人员之间的信息不对称。另一方面,人工智能的应用往往涉及到数个行业和机构,可能会对多个利益相关者集团产生影响,极大地增加协调监管的难度[2]。最后,因为人工智能技术的飞速发展,其风险、收益和发展路径具有不确定性,传统监管制度可能效果不足,但是想要通过积极有效的事前监管进行规制已经越来越困难[3]。就我国立法现状看来,目前对于人工智能的治理已经初步形成了从法律、部门规章到地方性法规的多层次规范治理结构,但关于人工智能风险的系统性制度规则法律位阶较低,而且过于分散,很难促进相关部门监管活动以及公司自我监管活动的展开。事实上,哪怕运用高位阶立法可能也无法达到规制的效果。因此,应当针对人工智能制定一部全面的综合性法律,提炼出人工智能在各种场景下使用的一般规则,使其成为指导人工智能多场景应用的基本准则[2]。另一方面,针对人工智能进行综合立法也能够反过来促进人工智能的正向发展,助力其不断创新,为其发展保驾护航。

从国际视角来看,以欧美为代表的国家对人工智能领域进行了积极立法,其目的一方面是为了对人工智能进行更好的规制,另一方面也是为了在人工智能领域产生领先的规范影响力。通过及早订立人工智能领域的规范和行业标准,帮助产品在市场具有更大的竞争力,基于基础隐喻理论,也能够形成不易被质疑的前提性规范,确保本国人工智能产业在全球生产布局中占有优势地位。

(二)人工智能带来的法律问题

自人工智能被广泛应用以来,其引发的各种法律风险层出不穷,Chat GPT 等生成式人工智能的出现使得其中部分法律问题更加突出,最主要可以分为人工智能法律主体论的不同意见以及知识产权相关问题两个方面。

1.人工智能法律主体论带来的法律问题

从法理学角度来看,人工智能的法律主体资格问题在学界一直是广受讨论的焦点。对人工智能法律主体地位持肯定态度的学者认为,大模型人工智能体在技术方面突破了传统人工智能的语言能力,使得人工智能体的独立性不断增强[4],并逐渐具备某种人类特性。如果否定人工智能的法律主体地位,不仅会对其发展和创新造成阻碍,也会造成法律秩序的混乱。在2023 年1 月30 日,哥伦比亚法院在作出判决时承认使用Chat GPT,由此诞生了“全球首份使用Chat GPT 做出的判决书”。这似乎也为人工智能能够获得自然人特征并由此获得法律主体地位增添希望。并且国际上已有赋予人工智能法律主体资格的先例,比如2017 年沙特阿拉伯赋予“索菲亚”高级智能机器人本国国籍,确认其公民地位。另一方面,否认人工智能法律主体地位的观点认为,人工智能技术虽然具有蓬勃的发展趋势,但其绝不可能具有自由意志和人类的道德情感。“我思故我在”,人工智能无法具备和人类等同的自由意志,即使旁征博引强调人工智能在某些方面早已超越人类,仍无法确立其在法律上的主体性。以Chat GPT 为例,虽然其具有前所未有的强大语言理解和文本生成能力,也已经可以驾轻就熟地撰写论文等高智复杂行为,但是其道德伦理的缺失依然是明显且不可否认的。法律上的“人”一方面应当拥有行使权利和履行义务的法律资格,另一方面应该事实上具备行使权利和履行义务的能力,若无法满足这两个条件,则不能享有法律主体地位[5]。

从民事法律角度来看,人工智能成为法律主体关乎民事主体制度的调整,在民事法律中,自然人,法人和非法人组织是法律规定下的三种法律主体,人工智能想要成为民法上的“人”,其应当满足自然人或法人的基本法律要素。民法中的法律主体之一——自然人的成立,是因为其拥有“权利能力”,而人的伦理价值是权利能力的基础,也是取得法律人格的条件。对于民法中具有法律主体地位的法人,其法律主体身份的获得主要是基于现实发展需要,财产流通、风险隔离、责任划分、法律关系稳定等现实问题解决的必要性为法人作为权利主体提供正当化说明。

相对于自然人,人工智能法律主体地位获得的关键在于人工智能是否具有自然人所必须的“理性”以及“自由意志”[6];相比于法人,主要问题则在于承认人工智能为法律主体是否具有现实需要。从目前来看,人工智能并不能够成为理性主体,未来的强人工智能甚至超级人工智能是否能够成为理性主体也无从知晓[7]。随着其自主性不断改变,对于其权利能力的认同度也会随之改变,问题也会接踵而至。

2.人工智能带来的知识产权相关法律问题

生成式人工智能拥有强大的大文本数据预训练模型,通过整合用户输入的信息以及其他来自信息网络的数据,生成最终用户需要的文本内容,在这一过程中确实存在侵犯知识产权可能性。以Chat GPT 为例,据Chat GPT 开发公司的描述,Chat GPT 是通过大量训练构建的语言机器模型,训练主要来自两个方面:一是链接大量的语料库来训练模型,二是基于用户反馈的强化学习。那么,对于一些受著作权保护的文本等,如果没有得到权利主体的授权而直接使用,就会具有侵犯知识产权的风险。

而另一方面,人工智能所生成内容著作权的归属也尚不明确。首先,人工智能生成内容是否能够称之为作品具有争议[8]。依据著作权法,作品指的是文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。于独创性而言,人工智能生成的内容是否具有独创性很难产生统一定论;从另一角度来看,人工智能哪怕可以作为创作主体,因其法律主体地位仍不明确,其生成内容若被称为作品也可能存在一定的不合理性。人工智能生成内容权利归属不能简单按照谁制造谁所有的原则来处理,在定性过程中也需要将鼓励人工智能继续创新等因素纳入考虑范围,因此解决知识产权相关法律问题势必面临着多重挑战。

二、欧美人工智能相关立法实践分析

(一)欧盟《人工智能法案》

2021 年4 月21 日,欧盟发布了《人工智能法案》(以下简称《法案》),这是全球范围内首份针对人工智能风险管理的法案。《法案》的出台意味着欧盟正试图通过领先建立规范以成为在全球人工智能发展中的领导者[9]。

《法案》将人工智能应用场景按照风险高低分为四个等级,从低到高分别为最低风险、有限风险、高风险、不可接受的风险,等级越高,所受到的限制就越严格。在最低等级的风险中,比如电子游戏、垃圾邮件识别等人工智能则无需干预;高一级风险——有限风险如聊天机器人等,则建议确保用户认识到对象是人工智能,并且能够根据自己的主观意志决定是否继续对话,并保证过程的透明公开;更高一级风险指的是可能会对人们安全和生活造成严重影响的人工智能,在部分重要领域比如交通基础设施、教育或职业培训、医疗辅助等方面,则需要在启用人工智能前履行充分评估风险、高质量数据交换等严格义务;至于最高风险等级——不可接受风险级别的人工智能,此种类别的人工智能可能会明显威胁人类安全和生活,侵犯个人权利甚至操纵人类思想行为,此时则应当禁止。整体来看,法案对于人工智能发展的态度是鼓励而不是限制。对于风险的规制,法案并不限于某一阶段,而是从人工智能产品入市前到入市后,实现事前、事中和事后的全过程完整规制。

《法案》是全球范围内首部人工智能立法,尝试对人工智能进行了界定和分类,也采取了全链条的规制措施,在人工智能立法领域意义重大,同时也存在着不少争议。首先就是对于人工智能的划分仍然不够清晰,四种类别的人工智能仍然定义宽泛,随着技术的发展,实际上并不能涵盖所有人工智能,现已面世的人工智能也存在涵括范围不够全面的情况。另一方面,法案的责任机制也存在缺陷。法案依据的是“提供者责任原则”,将人工智能的责任归结重点置于人工智能产品的提供者。此时可能会与现实状况不符,因为现实生活中产品用户也是重要的责任主体。以人脸识别系统为例,用户才是系统中主要的运营主体,系统运行中的风险很可能来自于用户的运营活动而不是早已脱离技术使用场景的技术开发和提供者,此时对开发者追责可能会有失偏颇,违反公平原则。所以仅要求人工智能产品提供者来承担责任是不够的,应当根据实际情况考虑将用户也纳入责任承担体系,加大用户预防和规避风险的责任和义务[2]。

(二)美国人工智能相关立法

当前美国有关人工智能的监管主要分为州与联邦两个层面。在州层面,2022 年共有17 个州引入了有关人工智能的法案,而在联邦层面,诸多议员已经在有关人工智能监管的各个方面展开了行动,但立法进程仍处于早期阶段。2017 年12 月12 日的《人工智能未来法案》是美国在人工智能领域的第一个联邦法案,该法案致力于大力促进人工智能的发展,以保持美国在人工智能市场的全球竞争力。该法案中并未提出明确的规制措施,核心内容主要是提出建立一个能够综合解决人工智能相关问题的咨询委员会,该咨询委员会应当由不同部门、不同领域、不同地域的代表组成,主要目的是对人工智能相关事项和问题进行前瞻性研究,也为后续相关法律的出台提供支持[10]。2022 年5 月4 日,美国国家人工智能咨询委员会正式成立。

在Chat GPT 问世之后,美国也发布了相关的最新人工智能监管政策。2022 年10 月,美国白宫科技政策办公室发布了《人工智能权利法案蓝图:让自动化系统为美国人民服务》(以下简称《蓝图》)。《蓝图》旨在支持自动化系统建设、部署和治理过程中,保护美国公民的民主权利。并且包含了经过美国各地的民众、联邦机构的公务员以及国际社会的成员讨论所得出的一系列原则:安全且有效的系统;算法歧视保护原则;数据隐私原则;通知和解释原则;人工选择、考虑和退出原则。《蓝图》不具约束力,也不构成美国政府的政策,但是其为如何建立一个保护所有人免受前述威胁的社会、如何使用技术强化最高的价值观提供了指南。

相比于欧盟的《人工智能法案》,《蓝图》是框架性和探索性的,在阐述如何将五项原则付诸实践时,其仅给出了有限数量和有限类型的案例,主要关注的是人工智能在招聘、教育、医疗保健供应、金融服务访问、商业监控等领域的应用;同时也缺乏设立相关执法机制的细节,比如由联邦层面协调的监控、审计和审查行动。因此,《蓝图》难以被看作是通用的人工智能原则,但是其对未来人工智能立法仍有一定的启示作用。

而在美国版权局新颁布的美国联邦法规中,对人工智能知识产权相关法律问题提出了指导性意见,其明确规定只有人类创造的作品才可以受版权保护。在认定人工智能作品是否受版权保护时,人类作者对其作品所贡献的创造力是版权局主要的衡量标准。版权局在评估同时包含人类创作与人工智能生成的材料(包括由技术或在技术帮助下生成的材料,这些材料不受版权保护),是否可以注册为作品的相关标准是:该作品是否主要体现人类的创作成果,而计算机(或其他智能设备)只作为辅助性工具。在包含人工智能材料的作品中,版权局将更多考虑人工智能在作品中的贡献度,即该作品是否是作者原创性的体现,还是只是利用人工智能进行机械复制。如果使用人工智能生成的材料进行创作的作品足够体现出作者的原创性,也可以达到版权局对于“作品”的要求。这意味着现代的人工智能技术可以作为作者创作作品的工具,对人工智能是否可以成为法律主体的问题带来启示意义。

(三)欧美相关立法于我国综合立法之借鉴

1.对基本法律问题的启发性解决

对人工智能进行立法,首先需要解决一系列基础性法律问题。而在立法过程所面对的基础性法律问题中,笔者认为厘清人工智能的法律主体地位居于首要地位。因为法律主体身份的承认与否关乎其他各个部门法问题的解决。而对于人工智能主体论的争议,笔者认为给予其法律主体地位与我国所提倡的以人为本价值观相悖。

提倡赋予人工智能主体地位观点的最根本目的是对人工智能可能带来的违法问题给出针对性规范限制,以期使其承担法律责任。但笔者认为,一方面,人工智能无法拥有独立的责任财产来承担法律责任。无论多么高智能的人工智能,制造者仍是人类,没有自己独立的财产。就算能够以其为主体开设账户预存资金,人工智能也没有自由支配财产的意愿和选择。通过经济性法律责任的承担也并不能对人工智能起到警示作用,人工智能也不会因此而产生对法律威严的敬畏。想要通过赋予人工智能法律主体地位而使其承担法律责任,倒不如对人工智能的生产者、运营者、使用者进行规制,鼓励生产者创造合法运行的人工智能产品,运营者合法运营、使用者合法使用。

对于人工智能所带来的知识产权问题,笔者认为可以从以下几个角度进行考虑。首先,如果人工智能并不能作为法律上的主体,那么其就无法成为知识产权法上的作者,所带来的一系列法律责任的承担就自然而然归属到了人工智能的生产者、运营者和使用者之间,法律风险的消除也就可以通过对自然人人类主体的规制达到效果。退一步讲,哪怕人工可以获得作者身份或者其产生的内容可以被视为作品,由于人工智能本身还是人类的产物,其产生的内容归根结底也是通过人类预先设定的程序而形成的,所以人工智能生成物的主体其实还是人类。从另一方面来看,给予人工智能作者身份也并不能起到鼓励创新的效果,将人工智能生成物的产品权利归属于人工智能开发者或所有人更符合著作权权利激励制度的初衷。这也是美国最新联邦法规中对于Chat GPT等生成式人工智能所秉持的观点。

2.欧盟立法经验于我国之启示

从欧盟《人工智能法案》的角度看来,其存在的立法缺陷比如人工智能定义和划分宽泛的问题以及并不完善的责任机制可以为我国未来的人工智能综合立法提供借鉴和教训。该法案以不同等级的风险差异作为区分方法进行对应的分级监管,并采取不同层级义务规定的思路值得我国借鉴[11]。

我国现有立法其实已经出现过以风险等级制度为准进行人工智能监管的模式:《深圳经济特区人工智能产业促进条例》(以下简称《深圳条例》)提到了“风险等级”;《上海市促进人工智能产业发展条例》(以下简称《上海条例》)也依据不同的风险等级制定了不同的治理办法。但深圳和上海条例的相关内容均是原则性的概括规定,并未形成成熟和适用性强的细则。未来我国进行人工智能法律监管,可以将欧盟风险分级的方式作为基础进行发展,但是法规的具体细则仍然应当顺应中国实际。通过公众参与、专家评判,合理界定和划分不同风险类别,增强制度的科学性和民主性,助力制度的最终落实。

除此之外,《人工智能法案》的全过程的监管机制也可以为我国提供启发。我国应当在人工智能研发、生产到使用全过程,从技术研发者、应用管理者到使用者起到责任制度全程监管,并且应当考虑建立定期监测和评估机制,与时俱进改进规制措施,对于潜在风险应当及时采取行动加以解决。另外,对于人工智能定义既要能够涵盖已有的需要规制的人工智能范围,也一定要为未来期待的人工智能发展留下解释和适用空间。

3.美国立法经验于我国之启示

美国《人工智能未来法案》中对于人工智能咨询委员会建立的提倡能够为我国提供相关经验。我国可以考虑建立专门的人工智能管理、协调机构。《深圳条例》和《上海条例》都提出了建立人工智能相关治理机构,比如伦理监管委员会、专业技术成果转化服务机构等。中国可参照美国人工智能咨询委员会的模式,建立符合中国国情的人工智能专门监管机构,创造更能促进人工智能发展和创新的环境。该机构负责对人工智能可能带来的伦理、法律及社会问题进行针对的前瞻性研究。这将为人工智能综合立法提供前置基础,这些研究成果也将为政府决策及后续的立法提供智力支持[10]。

除此之外,美国《蓝图》中树立的重要原则也为我国未来人工智能立法提供借鉴。

三、中国已有人工智能立法分析和未来路径探索

人工智能涉及的问题包括政治、经济、伦理甚至国家安全等,所带来的风险更具有复杂性、系统性和不可预测性,对人工智能进行综合立法的挑战巨大。随着人工智能的不断发展,生成式人工智能在带来各种法律问题同时也给立法带来了一些方向。在笔者看来,我国在对人工智能进行综合性立法时,可以结合欧美相关立法以及我国已有的立法实践获得一些启示。

(一)中国目前已有人工智能立法分析

2017 年我国颁布了《新一代人工智能发展规划》,预设了我国人工智能发展的阶段战略目标、总体部署和重点任务,将人工智能产业视为未来经济发展的重要产业。2023 年6 月6 日,国务院办公厅印发《国务院2023 年度立法工作计划》,其中人工智能法草案等预备提请全国人大常委会审议,这意味着国家层面的人工智能立法将进入新阶段。如今虽然尚无国家层面的专项人工智能产业立法,但是上海和深圳等地已经相继发布了相关地方立法。

2022 年9 月5 日,《深圳经济特区人工智能产业促进条例》正式公布,于2022 年11 月1 日起实施,这是我国人工智能领域首次地方性立法。深圳的立法坚持了促进性立法的理念,体现了“全面促进与合理必要的规范”,核心目的是“促进人工智能产业发展”。值得注意的是,《深圳条例》首次在我国法律层面给出人工智能的定义,明确了人工智能产业的边界,将人工智能相关的软硬件产品相关系列、人工智能技术在民生服务、社会治理、经济发展等各领域融合应用形成的相关产业都纳入人工智能产业范畴。《深圳条例》也提出设立人工智能相关治理机构,意图实现多元主体协同共治。

上海出台的《上海市促进人工智能产业发展条例》是全国首部人工智能领域省级地方性法规,更加系统地阐述了人工智能的定义、技术分支、涉及到的生产要素和产业等,其为政府在人工智能领域的职责范围划分提供了指引,更好地保证各部门间的分工合作和执法过程的合法合规。《上海条例》明确了与人工智能产业发展相关的行为底线,并规定对于人工智能产业发展过程中的轻微违法行为,可以指定依法不予行政处罚清单,而是通过批评教育、指导约谈等措施促进依法合规开展生产经营活动。除此之外,《上海条例》重视人工智能伦理规则的制定,比如设立人工智能伦理专家委员会,要求市政府设立人工智能伦理委员会,加快制定和实施人工智能伦理安全规范,深化人工智能技术伦理、安全风险等方面的研究。总的来说,《促进条例》对于人工智能产业发展有着清晰的路径谋划和支持举措,对于上海乃至全国的人工智能治理都意义非凡。

除去地方性立法,我国也逐渐形成了人工智能法律规范的治理体系,近些年来逐步出台了比如《网络安全法》《数据安全法》《个人信息保护法》等法律规范,尤其是在2023 年8 月15 日,我国出台了《生成式人工智能服务管理暂行办法》(以下简称《办法》),这是全球第一部针对生成式人工智能的法律,体现了我国与时俱进的人工智能立法进程,是人工智能立法的重要一步。在《办法》中,我国鼓励生成式人工智能在各个行业的应用创新以及各行业的沟通协作,也提出了推动生成式人工智能基础设施和公共训练数据资源平台建设的观点。《办法》对人工智能的潜在风险从事前预防、事中事后规制和救济等方面提出了治理要求[12]。

(二)综合立法助力我国人工智能规制

深圳和上海等地的地方性立法虽然具有一定重要意义,我国也已经对人工智能有关方面进行了专项立法,但是我国目前用于应对人工智能风险的制度规则过于分散,法律规范数量少、层级低,缺乏顶层设计和统筹规划的问题仍然较为突出[13],不利于相关机构开展监管活动,也不利于企业自我合规。

总的来说,人工智能立法模式可以分为“横向”和“纵向”立法两种。欧盟《人工智能法案》就是典型的横向立法:由监管机构制定一项法规,涵盖人工智能可能产生的多种影响,通过该法案实现全面治理[14],也即综合立法。我国的规制体系总体上是“垂直”倾向的,特定领域特殊立法。虽然,“垂直”立法能够确保人工智能立法的专业性,有效减轻不同人工智能技术和应用造成的特定危害,但“垂直”立法不仅成本过高,而且可能会削弱监管合力。一方面,过多主体参与治理,增加了立法、执法机构之间的协调难度。另一方面,不同主体基于不同的利益驱动,监管中可能存在竞争与互相推诿的情形。对人工智能出台综合性法案,加上配套的法律法规、法律解释及伦理准则,能更好地确保人工智能的安全运行以及风险的合理控制,有效避免此时“垂直”立法产生的弊端。

虽然能够效仿《办法》的立法模式针对性地对某一种人工智能进行“量身定做”的法律规制,但是立法的高成本、滞后性会使得这种做法逐渐失去其合理性和可操作性。综上,为人工智能制定一部专门的综合性法律,立足顶层设计,将人工智能用于不同场景中所遵循的共性规则进行提炼以形成能够规范人工智能多场景应用的基本规则[2],对于我国人工智能法制建设及其本身的发展都具有重要意义,能够更加强有力地指导各地、各领域的人工智能发展。

(三)我国未来立法其他突破点探索

1.确立契合人工智能属性的伦理标准

相比于法律规范,伦理规范具有独特的优势且尤为重要。在现实生活中,法律规范基于现实生活需要而产生,完成法律规范的构建需要较长时间和较大成本,因此法律的产生总是具有滞后性。相比于此,伦理规范更加灵活,并且能够起到预设作用,对已经发生和可能将要发生的社会关系作出规制和指引,能够在一定程度上弥补立法的模糊性和“补漏式”立法的不足[15],因此,对其研究更能保证立法的合理性和完整度[16]。

近些年来,许多国家已经在人工智能相关伦理规范的建构道路上迈出了步伐。“机器人伦理学”一词出现在2004 年第一届世界机器人伦理学大会上。2005 年,欧洲机器人学研究网络(EURON)发布了《机器人伦理学路线图》,并创建了多项与伦理道德建设的人工智能研究计划。代表硅谷等科技行业发展利益和需求的美国信息技术产业委员会(ITI)颁布了人工智能政策准则,将伦理等AI 公共政策提上议程。除此之外,美国还设立了多项专项基金对“机器人伦理学”进行研究。

对于建立人工智能道德伦理规范的具体举措,可以从以下方面入手:一方面,为人工智能预先设定道德标准,将不损害人类尊严、保护隐私、防止偏见等重要原则囊括其中,对其进行伦理指引;另一方面,对科研人员进行伦理约束,保证人工智能从研发过程开始就具备所期望的道德伦理。随着伦理规范的深化运用,其也可能会发展成法律规范,为未来的人工智能法制建设提供重要依据[17]。人工智能作为一项“颠覆性”技术,尤其是像Chat GPT 式“有过人之处”的新兴人工智能的出现,势必也需要一套新的与其契合的伦理道德标准。

2.完成数据、算法等基础性立法

数据、算法和算力是人工智能得以运转和不断创新发展不可或缺的部分。数据和算法如果得到了有效的法律规范的规制,将会对人工智能立法起到极大的促进作用。比如Chat GPT 等生成式人工智能的成功除了算法强,同时还有充足和强大的数据来源。大数据是人工智能不可或缺的要素。当前,我国针对数据要素出台了一系列法律规范,但由于数据权属、数据价值、数据交易规则等数据要素的基础性法律制度还没有建立起来,也制约着数据要素市场发展和人工智能发展。因此,制定一系列数据基础法律,也是后续人工智能综合立法必要的准备工作。

以算法相关立法为例,我国在2022 年以部门规章的形式出台了《互联网信息服务算法推荐管理规定》以对算法行为作出规制。该规定以部门规章的形式虽然具有较强的应用性,但是因为其法律层级较低,可能无法对算法乱象进行有效全面地规制。如果算法的立法能够到达法律层级,则能针对算法的法律关系作出更加系统全面的调整。因此,为了对算法乱象进行真正有效地规制,立法需要在法律层级的基础上提供稳定地规则支持,同时对不断变化的社会诉求及时作出回应[18]。算法专项立法的完成也会对人工智能综合立法的到来增添力量。

结语

人工智能技术发展的势头无法阻挡,以后势必会出现更多高智人工智能,但就如今看来人工智能暂时还不能超越人类意志或情感,与其担心人工智能是否会取代人类,不如针对现有法律、伦理和技术等方面带来的风险做出回应。如何制定针对于人工智能的相关法律规则,要以如何更好地为人类增添福祉为出发点和中心主旨。对人工智能进行立法规制既要有力,也要为人工智能的创新发展留下空间,努力实现人工智能创新发展、坚守伦理道德底线、法律有效规制之间的平衡。

猜你喜欢
法案规制伦理
《心之死》的趣味与伦理焦虑
主动退市规制的德国经验与启示
Industrial Revolution
护生眼中的伦理修养
美国禁止询问犯罪记录法案的立法与实践
保护与规制:关于文学的刑法
论《反不正当竞争法》的规制范畴
美参议院未能通过控枪法案
日本强推新安保法案说明了什么
医改莫忘构建伦理新机制