邹 曈,王梓月
(1.信阳航空职业学院 马克思主义学院,河南 信阳 464100;2.延安大学 政法与公共管理学院,陕西 延安 716000)
ChatGPT(Chat Generative Pre-trained Transformer)是由OpenAI开发的一种基于Transformer模型的语言生成模型。此次AI语言模型,和以往的人工智能客服回复方式不同,不再是普通的聊天机器人,而是通过大规模的预训练和微调,不断提升生成文本的质量和多样性,变身为真正的“六边形AI战士”,不仅可以聊天、搜索、翻译,而且能够以不同风格撰写文章、编写代码,甚至是做科研、当律师、当医生。ChatGPT在自然语言之外的领域取得了巨大的突破,并在各种应用中发挥着重要的作用。ChatGPT跨越“人工娱乐”,真正触及了人工智能,一时间成为各方关注热点。
正如尤瓦尔·赫拉利所言:“人工智能的技术毫无疑问会改变我们的世界,但是我们未来的社会究竟怎么样?”[1]147ChatGPT技术被视为新一轮生产力革命,全球政治和经济结构将随之发生变化。党的二十大报告中提出,未来五年里要深入推进国家治理体系和治理能力现代化,在此背景下,深入研究ChatGPT技术风险治理,对于推进我国国家治理体系和能力现代化建设,无论是在战略上,还是在理论上,都有着一定的现实意义。
作为人工智能领域的重要技术突破,ChatGPT技术具有非常鲜明的特性。ChatGPT强大的语言交互能力、高效的信息驱动能力和精确的运算能力,可以为国家治理提供技术支持。
当前,我国政府治理实现了从“对话智能体”(conversational agent)到“涉身对话智能”(embodied conversational agent)的转变,但距离人与机器无缝对话的最终目标仍然存在一定距离。[2]124目前,物联网、区块链、人工智能等新兴技术给政府治理提供了高度的便利性和可操作性,但是由于内部“供需链”不匹配,无法为人们提供满意的公共服务。部分政府智能平台存在浏览便捷度、语言翻译、沟通等功能不健全的问题。而ChatGPT模型是相对科学、人性化的人工智能语言系统,不仅可以通过学习和理解人类语言来进行对话,还可以根据聊天上下文进行交互,其理解能力和语言能力超过了90%的人类。[3]42因此,在国家治理过程中利用ChatGPT技术可以显著提升人机交互的友好程度。
ChatGPT技术应用于国家治理现代化建设过程中,增强治理的亲民性主要集中在以下方面:首先,ChatGPT在智能方面取得了进步,将会提高人机交互的可用性。ChatGPT基于政府公共服务数据模拟训练,模仿人类语言交互模型,可以完成行政登记、行政审批、行政许可等政府公共服务。基于行政指令的行政确认和信息公开服务项目将会显著提高公众对行政服务的满意度。其次,ChatGPT可以提高人机沟通对话能力。ChatGPT时刻关注情景表达,全流程保证服务数据的可靠性,力求准确、便捷地使用,同时最大限度地满足政府服务对象的情感需求,实现高效的沟通与对话。最后,ChatGPT可以在一定程度上突破传统的管理模式,提高沟通与对话的平等性。传统行政管理模式下,行政主体双方对话并不平等。将ChatGPT应用于政府治理过程中,有利于增强信息的透明度,使政府与公众的交流处于亲和、平等状态中。
技术赋能本身包含了组织、技术与流程再造的制度逻辑,新技术应用于国家治理,一般会涉及连接技术、推进信息化、结构调整三个阶段。这三个环节共同推动国家治理结构、治理方式、治理效能等方面深度改革。首先,ChatGPT技术壮大了国家治理中技术互联能力。技术的联结能力是人工智能技术成功升级的关键。[4]22ChatGPT作为一个更高度智能的AI交互系统,本身就包含了高度精密的算法体系。ChatGPT模型依托云计算、大数据和移动终端构建,可以充分满足数字化治理的运营需求,并不断深化科技互联。其次,ChatGPT技术加强了信息化的数字治理体系建设。长期以来,信息化能力的缺失是数字治理的一大障碍。GPT Chat模型有大规模数据处理系统,强调信息驱动功能建设,倡导信息对话和信息协作机制等,实现数据资源的高度整合。因此,将ChatGPT技术应用于国家治理现代化的建设中,可以有效克服政府机构存在的技术缺陷,促进公共信息资源整合。最后,ChatGPT技术优化了数字化治理体系的结构再造。作为一项系统工程,当前“专业化、部门化、利益化”的治理模式对数字治理效率的提升产生了严重制约,因此,如何打破这种“割裂”的治理结构显得非常重要。[5]17
目前,利用人工智能算法提升科技能力,已经成为各国改善行政服务水平不可或缺的手段。ChatGPT模型包含先进的算法系统,为推动国家治理现代化提供了有力支撑。近端策略算法优化(PPO)和ChatGPT模型可以有效提高数字治理的智能化。首先,ChatGPT技术有利于提升治理决策的科学性。先进的算法系统往往具有超强的学习能力,能够学会解决各种矛盾与冲突。ChatGPT技术可以通过自动捕捉、精确识别、自动分类和高度模拟的系统,对大量信息进行分类和组织,使政府能够基于大数据做出更加科学的决策。不仅如此,ChatGPT还可以通过算法将决策问题转化为可理解的数据模型,使政府机构能够根据行政主体、行政程序和相关需求等具体情况找到最优解决方案,做出更科学的决策。其次,ChatGPT技术提升了治理过程中管理的标准化水平。ChatGPT作为智能神经网络系统,始终注重对真实情况的模拟和重塑。将ChatGPT技术融入数字化治理中,可以更好地追踪具体的行政方式、行政程序以及行政信息公开等内容,在无形中进一步增强治理的标准化和常态化。最后,ChatGPT技术促进了数字治理运作的公平性。数字政府在给个人带来便利的同时,也带来了新的伦理挑战,如算法歧视。算法歧视作为一种新型科技伦理风险,是指人工智能算法应用中人们受到不公平的歧视性待遇。如何利用算法提供更加公平、智能的公共服务一直是当今数字治理建设的关键问题。众所周知,低门槛、多元化、智能化一直是ChatGPT模式的最大优势,ChatGPT模型凭借其强大的语言算法系统,可以充分了解不同受众的教育背景、年龄和专业能力需求,在数字治理中应用ChatGPT技术,可以大大降低算法歧视的风险。
数字时代公共空间的去中心化、碎片化问题日益严重。[6]4ChatGPT语言模型基于互联网数据处理和深度学习技术,在推进国家现代化建设过程中充分总结信息、设定目标、提出合理的解决方案,可以在治理中有效整合不同社会需求,这虽然在一定程度上可以提升国家治理现代化能力,但也带来了一些隐藏的政治决策过程的风险。[7]63一是治理决策机制的重塑。虽然依靠ChatGPT技术进行广范围的收集和处理信息,提出一定治理决策与建议的方法具有低成本高效率的优点,但是长此以往会导致一些政策制定者不可避免地对ChatGPT的决策产生路径依赖。如果政策制定者在面临治理选择时,依赖ChatGPT进行治理决策,而不注重提高自身的政治素养,就会出现缺乏政策创新,进而影响到决策的总体水平。二是ChatGPT可能导致治理决策缺乏人文情怀。虽然ChatGPT处理的数据源庞大,未来会通过训练和数据填充来提高模型的敏感性,但政治决策的对象仍然是有情感偏好的人,ChatGPT所提出的政策是符合计算的,不一定是符合受众心理倾向的。这就提出了一个极其困难的问题:人工智能系统或是ChatGPT可能永远无法完全理解政治参与者的情感诉求。因此,存在ChatGPT根据自身算法得出的政策建议或决策不足以回应现实的风险。三是政治信心下降的风险。当ChatGPT深入渗透到治理决策时,政治家和决策者都可以利用ChatGPT参与政治。由于ChatGPT输入与输出语言的拟人化程度较高,政策制定者很难判断收到的政策呼声是否来自真实的人类之“口”,将增加政策制定的难度。而公众同样存在无法判断其收到的政策回应是否为真实的人类进行的选择与判断。政策制定者与公众之间可能存在双向信任危机。
作为最具颠覆性的人工智能技术,ChatGPT将对社会治理的权力结构产生一定影响,普通群众可以接收到更为全面而详细的信息,提高参与治理的可能性,增强民众的话语权,促进舆论传播和影响力,加强社会团体和社会组织的发展。然而,ChatGPT在增强民众话语权的同时将会对舆论导向和治理产生强大影响力,从而对监管的方式和技术提出更高的要求。
其一,虚假信息和舆论会潜移默化地带动舆论。算法和大模型数据来源存在透明度不高、可解释性缺乏的问题,影响其可靠性。ChatGPT技术的不断推进将会提高了整体拟人化表现,但它终究与人类的思维不一样,导致受众有时无法区分信息是否真实可靠,也难以识别数据中隐含的偏见和谬误,从而产生虚假、误导。这些错误和偏见往往会影响人们的判断和政治选择,甚至暗中塑造和误导舆论。官方解释权代表国家塑造舆论、传播社会理念的权威,是国家软实力的重要组成部分。由于ChatGPT的普及和便利性,其将会完全融入社会并参与一些重要概念和事件的诠释,公众将会第一时间寻求ChatGPT进行解答,当公众选择相信ChatGPT而非官方解释将严重影响政府威信,大大降低官方解释的权威性。其二,ChatGPT影响意识形态。ChatGPT可能被西方国家作为传播其价值观与意识形态的重要工具,竭力突破地域和意识形态的束缚。心怀叵测的个别群体可能利用ChatGPT将偏激思想或严重背离社会主义核心价值观的信息发送给青少年群体,将会对社会主流意识形态造成严重冲击。
ChatGPT技术的广泛应用导致国家和政府面临的数据压力成倍增加,加上输出语言高度拟人化,辨别这些信息真伪的难度极大。[8]74由于ChatGPT技术具有高门槛的特点,核心技术往往掌握在个别科技公司手中,形成技术垄断。首先,技术壁垒造成监管困难。监管主体要对被监管者的技术与内容有一定的了解与认知才能顺利开展监管工作。而伴随着ChatGPT技术的迅猛发展,利用技术优势隐藏含有意识形态或是非理性的内容时,若非专业人士很难简单迅速识别,将会给监管以及治理工作带来巨大压力,不利于国家治理现代化的顺利推进。其次,当科技垄断形成,ChatGPT模型所需的数据被留给了少数领先的科技公司。这些公司通过抢占先发优势,放大规模效应,不可避免地形成技术垄断的趋势。科技巨头依靠实力算法和运行效率成为寡头,模糊了国家权力的界限甚至取代了国家的部分职能,有造成“国家空心化”的可能。
ChatGPT应用于国家治理虽然有使用便利的优势,同时也存在公民个人信息数据安全隐患。首先,ChatGPT的运行建立在大量数据与信息之上,而这大量的数据与个人信息可能对个人信息造成过度收集。OpenAI公司到现在为止已经出现未经本人允许,利用技术隐蔽性收集众多个人敏感信息的情况。在当下互联网社会,广泛拥有信息资源即拥有权力。一旦在国家治理中应用ChatGPT技术,拥有个人信息的数量将会以超乎想象的速度快速增长。此时,ChatGPT根据信息以及各种数据的集聚效应,将会对普通民众进行“信息权力支配”。庞大的数据量,众多的数据类型,超强的数据分析能力,会严重影响公民个人信息的安全性。其次,ChatGPT将会对个人信息的数据进行高度整合,而难以保障公民个人信息的安全性。[9]92ChatGPT凭借自身优势,通过精准、专业的计算转换以及模拟推理,可以将数量庞大,种类繁杂的个人信息数据转化为相对工整、有规律性、有逻辑性的信息。而ChatGPT在数据整合过程中是否始终围绕公共利益的实现、关注公共事务的解决则是令人担忧的。ChatGPT技术对个人信息安全产生威胁除了体现在过度收集信息以及高度整合信息,还可能存在个人信息泄露风险。当前ChatGPT的开发公司并未设计出提供给个人自检存储库的功能,也并没有明确表示ChatGPT对个人信息的储存时限。
目前,数据安全已经成为国家治理乃至国家安全的重要一环。由于ChatGPT引发的数据安全风险,需要建立数据管理制度为ChatGPT技术在国家治理中保驾护航。ChatGPT数据管理制度由专业人员根据数据的不同用途、不同种类分级别、分类别进行整理与管理,包括对数据安全的保障。[10]71以《数据安全法》为核心的法律法规为ChatGPT数据管理制度的建立提出了法律规范。以《数据安全法》为例,第二十一条涉及数据分类分级保护制度,第二十二条涉及数据风险评估、报告、信息共享、监测预警机制,第二十三条涉及数据安全应急处置机制,第二十四条涉及数据安全审查制度,第二十六条涉及数据出口管制制度。为避免ChatGPT处理信息造成数据风险,应当推动ChatGPT数据管理制度,建立数据分类分级制度、评估制度、预警制度、应急处置制度、安全审查制度等。根据数据管理制度的安全等级,对于涉及国家安全的高等机密性信息以及个人隐私需要高度保护的信息,ChatGPT将无权处理此类信息。而对于数据安全等级低于国家安全但高于普通信息时,如部分商业机密等,经由个人同意,可以适当在ChatGPT中开放相应内容。只有无关国家安全、商业秘密以及个人重要隐私的数据才可以在ChatGPT中使用。
如上所述,ChatGPT模型虽然具有提高行政决策自动化效能的作用,但为了避免由于该模型的嵌入而导致行政决策过程出现责任缺失的问题,需要进一步完善相关的追责机制。值得强调的是,不管是ChatGPT服务的提供商还是利用ChatGPT模型进行决策的行政机关,都不能简单地依据算法的“技术中立性”来逃避责任。曾有观点认为,算法作为一种技术可以“有效避免传统政府治理模式下行政裁量权的偏差问题”,因为算法作为一种技术是基于其价值中立性的,那么相应的算法决策也是客观的。本文认为,这种观点本质上属于算法责任虚无主义,其显然违背了人工智能时代的算法价值伦理,应当予以必须摒弃。换言之,尽管ChatGPT模型具有较高的技术性与行为模式的隐秘性等特点,但这些因素并不是ChatGPT服务商与行政机关享有豁免权的理由,只是在责任的承担方式上与传统的模式具有一些不同之处而已。
对于政府部门来说,应当为利用ChatGPT模型造成的错误决策承担行政责任。因为行政机关是唯一在算法决策过程中“出现”的行政主体,所以在某项行政决策对行政相对人的利益产生了不利影响的结果时,行政机构应被视为主要责任方。毕竟行政机关作为运用ChatGPT模型进行实际操作的决策者,始终负有谨慎的义务。首先,在运用ChatGPT模型的前期阶段,行政机关有责任进行全面的安全审查,基于公共利益谨慎选择数字合作平台。目前,鉴于政府自身研发能力较为薄弱,地方政府在建设数字政府的过程中多采用“政企合作”模式。为了避免出现单纯的“拿来主义”,在建设数字政府的过程中,政府必须对某些算法技术的应用保持一种谨慎的态度。换句话说,基于“有利必有弊”的基本理念,政府必须在认真审核合作平台的资质并且充分了解合作平台的技术水平后再妥善签订平台合作有关的协议,尽量将ChatGPT模型应用的负面影响降到最低。否则,对于出现在前期植入阶段的不良后果,政府应承担审查不力的行政责任。其次,在ChatGPT模型应用阶段的结果筛选责任。虽然算法决策在很大程度上是自动化的,但在基于算法的行政决策过程中,政府对算法的使用仍有一定程度的控制能力。ChatGPT模型是一个基于语言的系统,虽然其结果的输出往往取决于问题的输入,但政府在数据选择、数据输入和结果的甄别的过程中必须始终保持一定的谨慎态度,政府在进行算法决策的过程中有责任绕开“算法至上”与“算法代表”的陷阱,若因过度依赖算法而导致错误的行政决策时,就应当承担相应的行政责任。
对于服务商而言,应当对ChatGPT模型的错误决策承担民事责任。因为算法的提供者在一定程度上能够直接决定ChatGPT模型运行的过程和结果,也就是说,其不仅可以在开发阶段控制算法的性能,而且在算法的实际运行过程中还可以实时监控算法的运行公式、算法的训练模型等各种操作系统。基于此,算法本质上属于一种“产品”,[11]47政府与ChatGPT服务商之间存在着民事法律关系。当ChatGPT模型这种“产品”出现问题或者缺陷时,政府可以根据采购合同要求服务商经济赔偿、单方面终止合同等民事责任,同时还可以将其列入政府采购的黑名单当中。
所谓国家保护义务,是指宪法规定的基本权利的辐射作用,要求国家对私法主体的基本权利采取积极的国家保护措施,使其免受侵害,以确保法律保护弱势方基本权利的实现。
第一,要强化立法者在防范风险方面的预防义务。现阶段,为了有效防止数据权利被第三方非法侵犯,国家需要完善立法工作,这也体现了国家在数据权利领域保护数据义务的积极作为。ChatGPT的侵权行为突出了构建预防性规则的迫切性。为了有效防止ChatGPT这一模型在数字政府建设过程中侵犯公民数据权利,需要围绕“知情-同意”规则优化《个人信息保护法》的相关规定。当前行之有效的规则主要分为以下四种论证路径:第一步,明确通知数据权利主体;第二步,确保数据权利主体充分知情;第三步,数据权利主体对所作出的决定自愿自主;第四步,数据权利主体明确同意。现阶段,ChatGPT模型在首个路径阶段还存在着亟需解决的通知义务问题,未来立法者应在法律中明确该义务,使数据权利主体能够更加行之有效的知晓自身所具有的权利。为使数据主体的行为更明确、更清晰、更真实、更可靠,随着数据运算风险等级的提高,其相对应的通知报告规则应当更加清晰明确。信息时代是动态的,随着各方面条件的变化,应当更加强调对数据权利主体包容性、动态性的保障,相对应的防范方式、防范程度和风险防范措施也应随之变化。
第二,要明确行政机关事中阶段排除违法行为的职责。当前,数字政府建设如火如荼,政府始终在ChatGPT模型与数据主体权利之间寻求一种平衡,也体现出它与数字平台之间合作伙伴和监督者的矛盾关系。通过政府监管,可以逐步提升“知情-同意”规则的有效性,以改善ChatGPT模型提供的数字化服务。行政机关可以采取的没收违法所得、暂停业务运营、吊销营业执照等制裁措施,大多可以在数据权利主体发现被ChatGPT模型侵害时迅速启动。此外,行政约谈也是一种行之有效的解决办法。比如在接到群众举报的情况下,有关单位可以依据自身所掌握的渠道信息对涉及侵害数据权利的处理平台进行行政约谈,了解举报内容的真实性,如果属实,要求ChatGPT数据平台及时对此侵害行为予以纠正并承担相应的责任。实践证明,“行政约谈+行政处罚”是现阶段较为有效的一种监管模式,它达到了一种在数据平台监管和公民数据权益保护之间的平衡。然而,如果国家采取对数据处理平台的过度监管模式,也可能会涉及对经营自由权的侵犯。因此,为了防止侵犯服务提供商的经营自由权并引发防御权机制的触发,应当在监管力度上把握好分寸。[12]104
第三,要注重司法机关在事后阶段的权利救济义务。一方面,是要重视司法机关在事后阶段的救济职责,这也是国家履行数据权利保护义务的重要机制。当前,全球各国在数字政府建设过程中越来越重视法院在保护数据权益方面的积极作用。数据权利主体在维护权益时面临的主要难题是“证明困难”,而造成这一难题的主要原因是现有法律针对数据权利证明的规定模糊化。未来针对这一模糊领域应当加以明确,为了更好地平衡双方利益,采取过错推定原则可以更好地在基本权益方面保护数据权利主体。另一方面,需要完善数据权利集体诉讼机制。考虑到个人公民作为弱势群体在保护自身数据权益过程中处于不利地位,未来应适时建立以科技行业协会作为诉讼当事人的群体诉讼机制,从而改变相关主体的被动地位,在数字政府建设过程中发挥更为有效的作用。
目前,数字治理在国家内部治理以及国家之间主权竞争中发挥着重要作用。[13]14国家治理应用ChatGPT技术时,切莫实行“拿来主义”,而是需要立足本土化,对ChatGPT进行技术研发引导,找出适合中国国情的ChatGPT发展路径,为国家治理现代化提供支持。
对ChatGPT技术的研发引导,要以正确的伦理观为指引。理念决定事物的发展方向,理念提供行动动力。对ChatGPT技术的发展要加强伦理性指导,必须谨慎对待人工智能发展与社会伦理之间的平衡。ChatGPT技术作为目前最具颠覆性的人工智能,在研发过程中始终会遇到伦理困境,能否守住伦理界限成为关键。人工智能技术的发展一方面推动社会发展,另一方面对传统价值伦理的影响有待商榷,也是每个国家需要认真考虑的问题。目前来看,ChatGPT对我国社会主义核心价值观以及传统价值理念的影响仍是未知数。因此,我们要将ChatGPT模型中植入符合中国社会主义核心价值理念的内容,以塑造其正向的内容输出。
除此之外,我国在人工智能尤其是ChatGPT模型的发展中要想打破技术垄断,占据市场份额,必须增加技术研发的支持与投入。ChatGPT模型更新换代一般具有长周期、高投入、高耗能的特点,为实现ChatGPT在国家治理中发挥更大作用,必须加强自主科技研究与创新,克服技术难题,抢占市场高地,为国家治理提供安全、可持续的技术支撑。