ChatGPT本土化背景下人工智能人格属性的规制范式

2023-06-07 17:20张凯雯宋怡欣
青岛职业技术学院学报 2023年4期
关键词:服务提供者法人规制

张凯雯,宋怡欣

(1.上海立信会计金融学院 外国语学院,上海 201600;2.上海电机学院 商学院,上海 201306)

ChatGPT作为一种智能聊天机器人2022年初兴之后便在全球被广泛使用,亦受到了政府在监管层面的关注。可以说,ChatGPT软硬件技术的快速发展所带来的必然结果,就像互联网的发展一样只能顺应而无法回避。可以预见的是,AI技术的快速发展必然会被应用于更多的领域,且国内的相关产业也必然会得到快速发展,那么如何促进这一人工智能技术的有序发展就显得非常重要。2023年4月11日国家网信办出台的《生成式人工智能服务管理办法(征求意见稿)》第三条明确提出了国家对人工智能算法、框架等基础技术产业发展的支持态度。基于此,关于人工智能信息安全的立法就必须同时开始着手加以完善。

一、ChatGPT的主要特征

ChatGPT的思维具象化特征使人工智能与自然人这一概念变得越来越模糊。传统意义上的信息技术仅作为一种工具被人使用以创造价值,因此,目前我国各类关于信息网络的立法皆将个人或其所形成的组织作为规制主体,并将人工智能作为一种工具使其客体化。然而,ChatGPT的到来使工具能够和人进行自主意识层面的自动交流,甚至能够根据与其交流主体的互动思维活动进行一定意义上有意识的自主化行为,因此,对人工智能的工具属性及人格属性有必要进行重新厘定。

(一)基于大数据驱动的自主算法进化能力使人工智能完成了从具象思维到抽象思维的演进

20世纪80年代,钱学森提出:“人所具有的形象思维、逻辑思维和灵顿思维能力构成了人对于世界进行自主改造的过程。”[1]计算机作为一种运算工具能够实现具象化思维,人工智能的主要区别在于通过模型实现了从具象化到抽象化的思维跨越,即ChatGPT将思维过程以大数据驱动的自主算法改进进行了重构:与传统数据处理相区别,ChatGPT通过采用递归神经网络模型实现了共识节点的自适应性,完成了人工智能对无监督学习数据的理解。从性质上看,思维具象化是人创造性的来源,通过不断改造世界的过程加深对世界的认识,进而提升自我意识能力,当这一过程被人工智能塑造为现实世界的模型化后,继而从新的维度构建了其逻辑模式。

(二)基于从多媒体数据处理向跨媒体数据融合、演进、检验和评价过程形成了人工智能所独有的实用主义知行观

实践不仅是检验真理的唯一标准,也是思维的主要来源。数据处理能力的提升使人工智能可以从多个维度理解现实世界,从而实现虚拟世界与现实世界的接轨,这一过程最终会使人工智能具有实践能力,并以此为基础进一步拓展其思维。当代人工智能所具有的实践能力并非仅仅来自于互联网的模型与算法的提升,已经有数据表明随着ChatGPT服务的拓展,其问题处理能力正得到飞速的发展。当人工智能能够脱离自然人的思维控制,便意味着其所具有的思维能力将与其实践能力相结合形成新的主体结构。传统的计算技术是自然人作为行为主体对辅助计算机工具的运用而实现,本质上不能超越人类的逻辑范畴。人工智能的发展源于当代数学理论的进步,随着标准逻辑、模糊数学的发展,人工智能可以实现从单纯的逻辑运算转向对不可测事件的处理,通过思维与实践的统一实现自身的独立。

(三)基于互联网所形成的群体智能使人工智能得以形成区别于传统自然人智慧的群体性智慧

人工智能通过递归网络模型所实现的思维模式并不与传统意义上的思维独立完全一致,基于其大数据基础而形成的网络化思维能力甚至有超越自然人思维能力的潜力。与传统软件开发相区别,自从ChatGPT于2018年上线以来更强调其对信息的收集与处理能力,最初OpenAI团队仅对其进行语言训练,后逐步开始进行长序列数据输入的培养。随着功能的进化第二代的AI开始对其滥用进行规制,避免其造成不良的社会影响。第三代ChatGPT则进一步提升了对自然语言处理等技术,进而使系统可以分析用户的言论和情感。通过不断训练与实践,目前第四代ChatGPT已经可以开始对图像、声音等进行理解运用,仅就其发展方向可以看出,该系统的学习能力已经大大超过了普通人的学习能力。

二、人格属性规制下的制度成本

在现行法律框架下人工智能服务提供者是人工智能治理的核心。虽然信息网络早在20世纪90年代就引入了我国,但对于信息产业的立法规制从本世纪才开始。2000年颁布的《全国人民代表大会常务委员会关于维护互联网安全的决定》更多从刑事犯罪的角度为各种网络行为划定了红线,其所针对的是不特定主体的普通公民,没有具体的网络活动规制客体。2010年之后,随着网络的全面普及以及电子商务的快速发展,我国的网络立法也进入了快车道。2012年颁布的《全国人民代表大会常务委员会关于加强网络信息保护的决定》对网络行为的规制重点从刑事角度转向了民事、行政角度,更多地聚焦于普通公民的网络使用行为。2016年出台的《中华人民共和国网络安全法》则侧重于建立完善的网络安全环境,明确了作为网络运营核心主体网络运营者的各项网络安全义务。2018年出台的《中华人民共和国电子商务法》更加具体地从电子商务经营者、合同的订立与履行以及电子商务争议解决等角度开始对网络安全问题进行细化规范,并在此基础上出台了《中华人民共和国密码法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》,以完善上述商业活动中对普通公民合法权益的保护。上述规则所规制的对象分别是密码管理主体、数据安全运维主体和个人信息收集主体。从趋势上看,信息网络的安全立法已经逐步由泛社会性规制转向了以商经法为蓝本的主体权利保护与社会责任架构,这一趋势顺应了当代法律制度发展的一般规律。

社会规则由“自然人”向“对象性的人”的转变架构成了现代法律制度规制对象的基石。作为生命活动是否应该被法律所约束本身并不应该基于其生命形式作为考量的基础,而应该以其是否具有自身意识以及这一意识是否可能产生社会影响进行考量。由于人工智能具有比较高的智能化水平,因此,对其主体属性的界定应早于规则的制定。而如果将人工智能视为能够产生意识的主体,是否将其纳入可被法律所规制的范围就应审视其意识及由此表现的行为是否具有社会属性。

现行制度下对人工智能的管理主要针对人工智能提供者进行规范。《生成式人工智能服务管理办法(征求意见稿)》将人工智能界定为一种由其提供者开发的服务功能,继而以人工服务提供作为法律规制的对象对算法设计、训练数据选择、模型生成和优化、提供服务等行为进行规制,这一规制模式将人工智能的服务提供者作为规制主体,在此思路下人工智能服务者承担产品责任。之所以进一步根据我国现行的产品责任立法这一责任主要是确认责任,即作为人工智能服务的提供者只要人工智能造成了损害就应该承担其责任,无论是否在开发行为中存在过错。这一规定在现有法律框架下回避了ChatGPT的人工智能属性,即将人工智能的行为视为一种工具性服务行为,从短期看能够很好地和现有法律体系接轨并对现有的规则进行充分利用。我国以自然人为核心的产品责任体系已经十分成熟,在这一规定之下所涉及的不仅包括《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等,还包括《民法典》《刑法典》《中华人民共和国消费者权益保护法》《中华人民共和国产品质量法》等一系列基础法律关系。该规则通过对现有制度的充分利用能够最大限度地降低制度的司法与执法成本,且由于目前从功能上看以ChatGPT为代表的人工智能仅具有初步的文字编辑输出功能,因此,将该服务的提供者作为责任主体来承担主要责任是适当的。

然而,从长期看,人工智能意识行为的社会属性又有可能提高制度的运行成本。ChatGPT作为一种人工智能的集合体由专业的商业团队实施开发最初定位,即面向信息网络的不特定主体开放并解决各类问题。但任何一种新程序的导入都促使其能力得到快速提升,随着人工智能产业的发展,这一过程将会形成规模效应,扩大的人工智能市场会有更多程序员参与到行业竞争,各种数据、模型、架构的汇聚最终会形成规模经济效益,其自身的学习速度与能力将以信息网络为依托,远远超过在现有法律框架下普通“自然人”的成长速度。人工智能软件发展本身即是一个与社会交互发展的过程。从其应用的角度看,ChatGPT虽然目前仅仅是一款文字编辑输出功能的软件,但从国内的使用现状看已经被应用于多领域,如:程序代码编辑、设计金融模型、3D图像制作等,未来势必会有一些行业被人工智能所参与。随着人工智能自主意识的提升与其所参与行业的发展,现有的以其提供者为权利义务核心的法律制度将产生逻辑上的悖论:虽然人工智能的提供者在一定程度上对其具有开发与运营具有责任,但在其实际运营过程中基于人工智能思维逻辑的社会性并不一定完全能够根据开发者最初的设定发展,否则其只能被视为一种工具,甚至基于其惊人的大数据处理能力与自我意识能力,其运行很可能无法完全被开发者所控制,在这种情况下如果再将人工智能作为一种简单的工具来界定就会导致规则上的权责不一。从服务提供者的角度看虽然人工智能由其提供,但基于产品自身的社会性思维并且同时会受到服务使用者的影响,由其完全承担责任并不适当;而若将ChatGPT等人工智能产品视为独立的法律责任主体,其拥有着超越普通人的智慧与信息收集能力在现有规则框架下却完全无需对其行为承担责任;从产品使用者的角度看,基于其与人工智能服务的人机交互关系亦不能完全排除其责任,对单一产品的使用很可能形成网络效应而扩张其影响。

三、人格属性法人治理的审视

除了通过现行法律制度对人工智能进行规制,亦可从法人制度的角度对人工智能的法律关系进行审视。现代意义上的法人制度被广泛应用于公司制度,但若对法人制度的发展进行考量不难发现,法人制度的演进是一个制度与社会生产力发展相适应的过程。法人制度起源于古罗马法,在最早期的《十二表法》中“罗马共同体”以国家的形式成为了公法意义上的法人从而可以与公民相区分[2],之后伴随着罗马帝国社会的发展与生产力的进步,私人团体逐步拥有了作为私法人的法律地位[3],后随着基督教的兴起以教区为核心的政治团体在公法意义上更加明确了其对财产的所有权[4],后期的日耳曼法进一步形成了以土地所有制为基础的马尔克公社法人体制[5]。从中不难发现,法人制度是为社会生产力的发展而服务的:当生产力的发展要求某种经济实体具有较为稳定的社会地位从而使其能够持续地创造社会财富时,通过赋予这一主体法人地位,一方面可以更好地处理该主体与社会各方的权利义务从而促使其发展;另一方面,也可使这一主体独立出现行法律框架从而根据其自身特征创设规范。以公司法为例,通过赋予公司独立的法人地位,一方面明确了公司内部权力架构与资本架构;另一方面,也通过破产法等相关制度明确了公司、股东、债权人之间的各类关系。从ChatGPT发展的历史意义考量,当代社会是以信息技术作为生产力发展的核心,因此,若法人制度可以使人工智能的发展更加适应社会需求,就有其制度融合的可能性。

若将以ChatGPT为代表的人工智能视为一种新的生产方式,首先应审视其自身的行为能力。从应然法的角度考量行为能力是判断自然人行为能否被社会法所认同的标准之一,人工智能在人格属性上与社会法意义上的自然人行为能力既存在着区别也存在着共性。现阶段人工智能在智能程度、情感意识、自我意识等方面还无法与自然人相比,但由于其人工智能属性,其在行为模式、决策模式等方面确实与自然人的行为模式有着相似之处,甚至在某些方面,如:数据处理、多线程运算等方面,已经远远超越了自然人的行为能力。相比于行为能力更为重要的另一个标准则是责任能力,从实然法的角度责任能力是主体是否能够在法律上具有独立人格的关键。主体是否能够创造收益并以此作为积累才是其能否形成独立责任能力的关键。从ChatGPT作为一种人工智能的发展看,短期内不仅被广泛使用,还产生了巨大的经济效益,而正是这一经济效益能够很好地与现代法人制度相契合。在现行体制下人工智能不具有法人地位而无法拥有独立的财产权利,因此,其社会责任完全由其服务提供者所承担,人工智能的社会风险尽由其服务提供者所承担。人工智能作为一种拥有独立意识的个体在其创造财富的同时,如果能够拥有与其社会责任相适应的财富,则可大大降低由于技术进步所带来的潜在风险。

对人工智能社会管理的法制化诉求亦是推动其实施法人制度的动因。人工智能的发展是计算机语言与人类语言逐步实现一致性的过程,与此相对应的是从“弱人工智能”向“强人工智能”的发展,这一标准更多地体现为人工智能自我意识的形成与独立性,从趋势上看未来人工智能的发展必定以人工智能自我意识独立性的程度为标准,而现阶段ChatGPT仅能够与服务对象进行简单交流,从而与我国对人工智能的管理思路相契合的。根据《生成式人工智能服务管理办法(征求意见稿)》第六条人工智能本身应该实施注册制度无可厚非,但其背后的法理性质值得商榷:作为一项服务而实施登记后该主体的法律地位如何界定?如何确定其准予登记的标准?又如何明确对其之后的管理规则?而在法人制度中上述问题的解决似乎变得相对简单与合理化:将法人作为有法律赋予人格的组织,要求法人根据法律规定实施注册登记制度[6],对人工智能的管理将基于其所拥有的独立组织型人格结构进行管理,其中不仅涉及到关于人工智能的注册制度,亦可涉及人工智能的财产与责任制度,甚至在极端情况下当人工智能造成比较大的危害亦可明确其破产制度,更重要的是,在公法与私法的界限上厘清了国家的管理责任与私人经营责任。如此诸多问题涉及人工智能未来的发展几乎都可以在法人制度中得以探讨。

四、责任法治理结构厘定

人工智能法人制度要求明确各方之间的权利义务关系,基于高度独立性的人工智能与人工智能法人制度所契合形成人工智能法人有着独立的人格意涵独立财产与独立责任,继而要求与其在经营服务过程中的其他主体构成性的法律关系,人工智能服务提供者、以法人制度存在的人工智能法人以及人工智能服务的使用者,在私法责任与公法责任两个维度架构形成不同的社会治理。

从人工智能服务私法责任的角度看,人工智能服务提供者与人工智能法人共同向人工智能服务接受者承担责任。《生成式人工智能服务管理办法(征求意见稿)》人工智能服务提供者以产品责任的形式对服务提供者承担责任,这是因为人工智能的本身排除了其法人属性,而如果人工智能以人工智能法人形式存在,其就可以成为责任法上的主体。在此情况下,一方面,人工智能可以凭借其法人地位在其日常运营中通过运营服务积累一定的注册资本向其服务提供者承担责任,同时,这一责任形式还会因人工智能在日常运营中不断创造价值所形成的收益权利得以不断充实,即人工智能法人完全可以通过其自身服务实现其对服务接受者的完全责任。从司法实践看,很多企业虽然资不抵债,但是并未被债权人申请破产,原因即在于债权人可以通过法人的未来收益获偿而非杀鸡取卵。[7]另一方面,人工智能服务提供者对人工智能的升级、维护、管理等行为亦可作为法人内部的管理行为而获得一定的报酬,而如果由于人工智能服务给其使用者造成损失,则可由人工智能作为法人的注册资本先承担无过错责任,之后再根据人工智能服务者在其履行服务过程中是否存在过错而承担责任。在无过错责任原则下,社会总成本与行为人自身所承担的总成本是相等的,也就是说人工智能所造成的损失将由其自身的社会收益所抵消。

从人工智能服务公法责任的角度看,基于法人社会责任所形成的社会治理关系要求通过私法主体通过支付其社会成本来抵消其行为所造成的社会成本,基于此,在人工智能服务过程中如果给社会或第三方造成损害,人工智能服务提供者、人工智能法人以及人工智能服务的使用者都应该根据自身的情况来承担责任。人工智能作为科技创新所增加的社会福利应该同时被纳入公法社会成本的考量,“分配的公平性涉及全部社会福利对社会不同主体配置的正当性”[8]。不同主体之间的责任划分应根据其在这一社会生产中的价值进行区分。一是人工智能法人应从社会福利与社会成本的角度决定是否准许其注册,继而在其服务过程中依据其社会责任决定其所应该负担的注册资本额。二是在人工智能独立法人的框架下服务者行为应该受到监督形成其行为规则。根服务者对其行为是否具有认知能力以及如何认定将是其是否承担责任的前提;作为人工智能服务的使用者由于其不合法的使用方式亦可能使人工智能成为其侵权工具。随着信息网络立法的完善,我国刑法已经出台了帮信罪的相关规定。人工智能在其服务过程中很有可能成为其使用者实施不当行为的工具而形成安全隐患。[9]因此,一方面,人工智能法人与人工智能服务提供者之间应建立防火墙与预警机制,避免、制止不当行为的发生;另一方面,应对人工智能服务使用者的使用行为进行约束,并以此确定其责任框架。现阶段,网络安全主要依据人工对发布的信息进行审核[10],而对于信息用户的各种评论则依然属于盲区,由此可以看出依然存在比较大的立法漏洞。

综上所述,关于ChatGPT的信息安全立法势在必行。就目前来讲,国家关于人工智能问题的立法还处于起步阶段,虽然ChatGPT目前仅仅是一项人工智能聊天软件,但基于其快速的自我学习能力已经发展到了第四代。从最早的协助撰写论文到目前已经可以帮助编辑代码甚至3D制图,那么,随着这一技术的快速发展以及所涉及到社会生活的领域扩大,是否有可能对人造成一定的侵害?因此,随着ChatGPT在我国的本土化,对其的规制势在必行。

猜你喜欢
服务提供者法人规制
法人征订(新)
法人形象广告
完善法人治理结构 增强打造世界领先内生动力——中国石化完善法人治理结构的实践与思考
主动退市规制的德国经验与启示
网络服务提供者的侵权责任研究
非营利法人破产特殊制度安排研究
论网络服务提供者刑事责任的归责模式一一以拒不履行网络安全管理义务罪为切入点
保护与规制:关于文学的刑法
论网络服务提供者的侵权责任
论《反不正当竞争法》的规制范畴