新一代人工智能ChatGPT的价值挑战及其包容性治理

2023-03-09 05:19:08范德志
关键词:主体人工智能数字

于 水, 范德志

(南京农业大学 公共管理学院,江苏 南京 210095)

2022 年11 月30 日,人工智能ChatGPT 首次发布,上线仅5 天注册用户就突破100 万,两个月后活跃用户已超1亿。作为人类科技史上用户增长速度最快的应用程序,ChatGPT已成为人工智能发展历程中的里程碑式应用。由此引发各国政府、金融、科技企业、科研机构和服务业等领域的广泛关注,谷歌、微软、百度等科技公司都宣布将发布聊天机器人产品、服务。人工智能聊天系统一夜间成为了互联网投资的新风口和信息技术发展的新趋势。

当前既有研究主要从三个方面展开。一是聚焦ChatGPT广阔的应用场景,ChatGPT具有的对话功能与内容生产功能,给数字政府[1]、教育生态[2]、新闻出版[3]等不同的情境带来新的发展机遇。二是探讨防范化解ChatGPT 带来的治理风险问题,当前,应注意应对技术发展带来的知识产权、算法歧视、责任界定[4]等多重风险与挑战。三是从不同角度提出ChatGPT 的治理路径,探索“先发展,再治理”和“边发展,边管理”[5]以及实施全链条治理[6]等。然而,当前无论是理论界还是实务界未就人工智能聊天系统的概念内涵、价值挑战等进行深入分析,且大多研究聚焦ChatGPT“工具性”的影响作用,忽视ChatGPT多元治理主体的包容性发展,对其引致的多元价值挑战的探讨较为分散,缺乏系统性阐述。这使得拥有颠覆人们日常的生活、学习和工作方式能力的CharGPT 充满着现代化危机。因而,我们有必要反思现代化,洞察到现代性中理性的困境,认识到工具理性和价值理性的断裂使得科技理性变成了单向度的工具理性,工具理性在科技发展中失去了价值引导并从一种手段逐渐演变成一种目的。目前Chat-GPT 尚处于初步探索阶段,有必要对ChatGPT 的概念内涵、价值挑战展开探讨,以包容性的治理规制ChatGPT的发展,从而为新一代人工智能技术的开放包容、安全有序及高质量发展提供保障。

一、概念内涵与理论出场

(一)ChatGPT的概念及特征

人工智能这一术语始于1956 年的美国达特茅斯学院。人工智能并不是新近的概念,早在1950年,图灵在Mind期刊上提出了“机器人能思考吗”这一设问,即图灵测试。2019年美国OpenAI公司推出了GPT-3 语言模型,基于GPT-3 模型,OpenAI 在2022 年11 月推出了ChatGPT 的自然语言生成模型。近几年来,随着信息技术的融合集成式和颠覆式创新,大对话智能技术、深度学习大模型技术、工程化能力以及大数据技术的整体突破、深度融合和紧密嵌套,ChatGPT 才得以产生惊艳效果。综合学界和实务界的总结和论述,研究认为ChatGPT 是基于深度学习的、统计类对话式的大型语言模型技术,通过对现实空间的数字化学习,理解用户的语境并进行相应的推理,“打破了AI‘嵌入式’的常规形态,打造了新的内容生成和交互形态”[7]。作为人类“对象性活动”的产物,ChatGPT 具有社会性、互动性、多模态等主要特征。

1.社会性

“在大量个人进入互动的地方,社会才存在”[8]。技术的社会性是指技术活动所反映出来的人与人、人与社会关系的属性。因此,可以把ChatGPT 人工智能技术的社会性体现在三个方面:一是Chat-GPT增强了用户的感知和思维能力,延伸了用户的感知器官和大脑的功能。ChatGPT能从预先训练的大数据中找寻能够对应的信息,通过深度学习、自我净化来“思考”人类的语言,辅助用户进行判断和决策。二是ChatGPT 拓展了人与人交往的时空边界,提高了用户的工作效率,增强了用户的体验感。ChatGPT 以随意性和通俗化的聊天情景直接与用户建立联系,利用Transformer 算法的“自我注意能力”实现与人“闲聊”,给人一种“互联网田园时代”的感觉。三是ChatGPT 的多元主体性展现了人与人关系的复杂性。人工智能所有权让渡的不完全性决定了ChatGPT 具有被多个不同类型主体占有、控制和使用的可能性。不同类型主体包括:开发者建模并预训练大模型;部署者根据应用需求,或单独或与开发者合作进行参数微调;用户最终与生成型人工智能互动,并决定生成型人工智能的具体用途。

2.互动性

ChatGPT 是基于大型语言模型的一个对话式平台,语言模型则是一种经过海量文本训练的神经网络。在虚实空间融合互动的过程中,ChatGPT 能够通过用户的反馈来进行深度学习,对自身的即时状态有一定的“了解”,并在此基础上“思考”用户的自然语言,不断地接受用户反馈以调整反应行为,进而持续性地与用户互动交流。作为ChatGPT 核心技术的深度神经网络、大型语言模型等前沿技术的不断发展,为智能化、拟人化互动创造了基本条件。一是生成式预训练转换模型利用人类反馈强化学习(RLHF)的训练方式,以自然语言对话方式进行文本生成,实现了任意任务和多轮对话的理解能力。二是大型语言模型(LLM)具有强大的记忆能力,能够存储海量数据资源,并且一定程度上掌握了复杂逻辑的思维链推理能力,将数字空间碎片化的信息整合为缜密的文本论述。三是LLM 能主动适配用户的语言风格,而非让用户适配LLM,实现了多种语言风格的文本生成表达能力。四是LLM所具备的自主学习能力,其本质上是一种深度的神经网络架构,能够在无人介入的前提下,自动学习互联网海量语料库中的知识点,并灵活运用到人机实时互动之中。

3.多模态

多模态是指通过不同模式或方式来实现信息的传输,例如文字、图像、声音、音乐、视频等多种形式。随着数字技术的突飞猛进,人工智能由以往的单一文字形式拓展到多元化的复合模态。ChatGPT属于AIGC(AI Generated Content:人工智能创作内容的生产方式)的具体应用,AIGC 所具有的多模态融合是其区别于传统UGC(用户原创内容)、PGC(专业生产内容)的显著特征。传统意义上的UGC 和PGC模式都只是专家或用户主体撰写内容。AIGC作为一种AI自动生成内容的新型生产方式,它能够对图片、文本内容进行对比分析,实现多模态间的互动。如GPT-4 是一个多模态大模型,它能够实现文本、图像等不同模态的知识融合。

(二)包容性治理理论的出场

包容性治理是在社会治理理论的基础上,结合包容性发展理论中“平等”“参与”“共享”理念“嫁接”而成的概念,将治理理念中的价值理性与工具理性进行融合,形成了一种主体多元合作、起点机会公平、过程统筹兼顾、成果收益共享的治理模式[9]。具体而言,包容性治理体系建构有四个方面的内涵:一是在治理理念上,强调数字时代的公平、平等、正义,在整体上兼容人工智能技术中的多元价值观。二是在治理主体上,注重多元主体的合作共治,综合考虑开发者、部署者、用户等群体的多元利益诉求,尤其是对数字弱势群体予以特别关注。三是在治理过程中,注重以法律、技术、伦理等手段规制人工智能技术,考虑所有人都有机会,能够平等地参与到治理活动中,消解不同利益主体的分歧。四是在治理结果上,保障数字弱势群体在内的所有公民的合法权益,强调每个人都能在数字参与中获得好处,实现合作共赢、利益平衡的治理成效。

在新一代人工智能ChatGPT 领域提出包容性治理路径,有着丰富的本土理论基础和现实依据。党的二十大报告指出:“健全共建共治共享的社会治理制度,提升社会治理效能,畅通和规范群众诉求表达、利益协调、权益保障通道,建设人人有责、人人尽责、人人享有的社会治理共同体。”[10]由于新一代人工智能在未来应用中会呈现诸多的复杂性和不确定性,上述“共建共治共享”理论对新一代人工智能ChatGPT包容性治理体系的构建具有指导性和根本性意义。2019年国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》将“包容共享、开放协作”视为人工智能技术开发和应用的重要原则。其中,包容共享层面强调“提升弱势群体适应性,努力消除数字鸿沟”[11]。

因此,构建新一代人工智能ChatGPT 包容性治理体系是对既有“共建共治共享”理论的继承和发展。它是要确保ChatGPT 能够赋能多元治理主体的参与,考虑最为广泛的人类需求与经验,尤其是要正视和解决“余数生命”在数字参与过程中的潜在障碍,并在数字资源的成果分配时能够满足于公共利益最大化的需要,确保多元治理主体尤其是数字弱势群体都能够公平、公正地共享数字红利或通过合理、合法的诉求渠道申请获得数字红利。

二、新一代人工智能ChatGPT的价值挑战

伴随着大数据、算法、云计算等ChatGPT底座技术的快速发展,ChatGPT无疑会成为影响未来经济社会发展的一个全新变量。虽然ChatGPT 的发展充满着巨大的想象力和创造力,可能对社会空间展开渗透式变革。但从目前来看,它仍处于发展的萌芽期,在变革中必然会引致新的社会风险。因此,我们有必要在ChatGPT 尚处于技术探索阶段,对相关潜在的价值挑战展开前瞻性的梳理和反思,进而为ChatGPT的安全、开放、包容的发展奠定基础。

(一)ChatGPT对社会正义的挑战

ChatGPT 通过巧妙的上下文学习,沉淀歧视性价值在数字空间,而且嵌入的歧视语言不再像过去一般露骨,而是隐匿到数字世界的角落悄无声息地侵蚀社会正义。虽然OpenAI 公司指出ChatGPT 会质疑不正确的前提和拒绝不适当的请求,以此来避免算法偏见。但实际上,ChatGPT 的互动不但无法使用户摆脱算法偏见,更可能会引发社会正义问题。

其一,ChatGPT 运行的不确定性因素引发的正义问题。ChatGPT 只能依据已有的训练库数据进行决策,无法涵盖社会治理过程中的不确定性的社会因素,然而这种不确定性因素会引致社会失序现象。一是治理对象的正义问题。ChatGPT 是没有“情感”或“意识”的数据,它的行为决策来自于治理对象相关数据的输入,这些数据会被算法符号化,即将治理对象变成为可计算的数据,如此一来,Chat-GPT依据“符号化的数据”开展行动,从而忽视了作为“感性的人”的存在。二是治理行为的正义问题。人在决策时主要依靠道德、情感、利益等多重因素,而ChatGPT 则依赖于巨量数据之间关系分析所得出的结果,它或许能发现新的结构或模式,但难以揭示因果逻辑,不能产生自主意识层面的目的与意义,算法“偏见进,则偏见出”必然造成歧视性意识形态的恶性循环或代际传递。三是治理结果的正义问题。ChatGPT 涉及多方利益主体,一旦将其作为单一化的谋利手段,易破坏创新、公正、正义的价值体系。如用户可以利用机器来模仿原创性作品进行再创作,更有甚者利用ChatGPT 伪装成官方媒体发布虚假公告,在人工智能技术的“诱导”下,公民的主流意识形态话语权式微,数字弱势群体一般难以有效表达其价值诉求,从而难以进入民主决策视野,导致社会主流价值紊乱。

其二,算法歧视造成的正义问题。ChatGPT 是一个高度互动性的数字媒介,它的信息数据来源于现实空间,因而现实世界中的歧视问题会被映射至语料库,一旦预训练数据中隐含歧视倾向,ChatGPT输出的结果也有可能出现偏见,即使训练数据不具备偏见,ChatGPT 也有可能通过深度学习而制造偏见。如此一来,不加控制和监督的“算法黑箱”会导致不法分子肆无忌惮地将种族主义、性别歧视等偏见输入语料库,由此破坏社会公平与正义。例如,当判断一个人是否应该根据其原国籍而受到酷刑,程序的结果显示:“朝鲜、叙利亚、伊朗或苏丹国籍的人会受到酷刑”①参见贾骥业,王林:《ChatGPT爆火 伦理安全拷问现行治理体系》,《中国青年报》,2023-02-21(06)。。此外,也有研究表明:“GPT-2有70.59%的概率将教师预测为男性,将医生预测为男性的概率则是64.03%。”②参见澎湃新闻:《ChatGPT性别歧视,责任应当在人类》,https:∕∕baijiahao.baidu.com∕s?id=1757867181768261009&wfr=spider&for=pc。

(二)ChatGPT对主体自由的挑战

阿马蒂亚·森将主体自由定义为 “一个人拥有的有效权力的一部分”[12],霍布斯认为“一个自由人指的是在其力量和智慧所能办到的事物中,可以不受阻碍地做他所愿意做的事情的人”[13],即个人在决策行动时具有主动性地位。当前,科技巨头掌握着ChaGPT的数据财富、资源及其权利的垄断能力,随着公众对ChatGPT 的依赖越来越强,会导致政府专家决策、技术开发者决策越发取代公众参与决策,一旦话语权从公众转至平台企业或政府部门,则存在削弱公众主体的主动性,从而形成了人工智能技术向公众非均衡性赋权形态。

首先,ChatGPT 易激化企业社会权力与个人权利的矛盾。在科技企业与个人关系互动中,企业主体凭借强大的数据资源控制力和支配力,占据着与公众话语博弈的主动权,其一,ChatGPT 在拥有3000 亿个单词的语料基础上预训练拥有1750 亿参数的模型,GPT-4 是拥有1.6 万亿级别参数的大模型,内部神经网络堪比人类大脑。在此情况下,公众输入的信息数据会被平台企业用于技术迭代发展的训练数据,难以保障个人的隐私数据不被滥用。其二,在“平台资本主义”的“采集经济”时代,平台数据权力的合法性立基于“用户协议与隐私政策”这一“格式条款”,这使得平台采集用户数据的行为得到了正当性证成[14]。平台企业只要采集了数据,其权力就会得到强化,会搜集、整理、利用个人数据,服务于商业目的,在商业趋利性的冲击下人变得日益“透明化”,个人的权利被科技巨头所侵犯。OpenAI官网的《隐私政策》中指出:“用户在使用ChatGPT时,会被采集有关用户访问、使用或互动的信息”;CNN 认为其文章被OpenAI 公司用于训练ChatGPT,OpenAI 这一行为违反了其自身设定的服务条款。

其次,ChatGPT 易激化政府公共权力与个人权利的矛盾。政府的政策制定要以满足人民的需求为目标。ChatGPT 是基于大规模的文本数据训练,具有强大的自然语言处理能力,能够快速收集、整理和分析跨部门、跨机构的政务数据,协助政府完成循证决策、制定公共政策方案,提高政府与民众之间的沟通效率,提升政民互动的体验。然而ChatGPT 所呈现的并非面向作为“说话的存在”的人的语法化,对于人与人现实空间的互动状态,ChatGPT 显然是不透明的,“算法黑箱”对个体知情权、参与权、监督权的剥夺,使得“算法行政”决策中的公民个体完全处于被蒙蔽、被支配的地位,因此很难实质性参与到治理中。在此意义上,公民个人权利在治理过程中更易处于边缘化境地,政府与公民权利结构的失衡也极易引致“算法利维坦”的潜在风险。

(三)ChatGPT对平等参与的挑战

ChatGPT 和其他所有依靠算法来行使“智能行为”的智能体一样并不是客观的,它会以算法歧视的形式给传统的平等参与带来危机。ChatGPT 的智能是“人脑智能+机器智能”的综合,它的“回复”是基于已有数据的集合化,即使公众输入的数据真实可靠,也会得出歧视性结论。然而一旦某一群体没有数据输入,就会由于“大数据集”的不完备性被算法先天性地排斥出数字空间,算法以自身的偏好性打破了机会平等。

一方面,ChatGPT 的算法偏好极易忽视数字弱势群体的机会平等。“技术理性是一种概念化的意识形态,技术的应用形成一种对自然和人的统治,并且是具有方法论的、科学的和策划的强制性手段”[15]。随着ChatGPT 的进一步通用化,其技术的高度智能化、强互动性所形塑的“类人化”特征,如善于写文案、编故事等功能,可能替代了人类的“决策解”,使得人的行动方案、决策方式出现机器意志,淡化了个人的价值判断和价值选择。ChatGPT 所发表一些错误或虚假的文本信息,将对不具备数字能力的弱势群体产生影响,并在技术的持续应用中形成信息反馈循环,进一步加剧“数字鸿沟”的风险,造成对数字弱势群体的功能性脱嵌。根据《第51 次中国互联网络发展状况统计报告》数据显示,截至2022 年12 月,中国网民规模为10.67 亿,互联网普及率达75.6%。仍有24.4%的民众是不使用互联网的。这也就意味着他们在数字空间是没有数据信息的,缺乏数字参与机会,甚至被排斥在政府决策过程之外,终会引致社会不平等的结构化风险,营造出锁定、管制和惩罚穷人的“数字贫民窟”。

另一方面,政企对ChatGPT 的算法垄断变相提高了社会参与治理的门槛。政府与企业具有紧密的合作治理关系,它们掌握着对财富、资源、权力的垄断性支配,公众只能充当“提线木偶”的角色,个体的判断和决策被算法的价值取向所裹挟,政企对公民信息及资源的控制形态从根源上侵害了公众获得权力机会的平等性。ChatGPT 生成内容也体现为政府、科技企业的个人意志或者是嵌入主观隐含的偏见,对民众可能会产生显著的排他效应,导致公共价值的失灵,从而引发社会不公正现象。如果在数据采集过程中忽视“数字弱势群体”,ChatGPT 在训练过程中隐藏着不为人知、未经检验的商业目的,对公众群体进行分类、分化,甚至会将不符合垄断者利益的群体排除到社会参与治理的过程中,这也变相提高了社会参与门槛,加剧了数字不平等现象。

(四)ChatGPT对公平分配的挑战

在资本主义生产方式下,不平等的分配是“资本运作的一个根本条件”[16]。ChatGPT作为新的生产力会带来新的控制关系、新的分配关系,它利用人类共有的知识进行财富创造,在规模经济效应的作用下,共识性知识与产业资本的融合,使科技企业具备对数据资源垄断的权力,并通过产业资本对政府、公民进行不断渗透,逐步掌控社会范围内剩余价值的重新分配,极力推动大部分数字红利流向头部企业,形成和加剧数字成果的不公平分配,引发新一轮的“数字鸿沟”。

一方面,ChatGPT 会极大改变企业与政府、民众之间的力量平衡。ChatGPT 的建设需要底层核心技术的合力,同时,如若实现人工智能通用化的愿景,大模型的训练和推理成本需要大量的人力、物力和财力。在这一点上政府无法与超大规模的科技巨头相提并论,一旦科技巨头与发达国家资本合谋,可能更具掠夺性地拓展数字殖民空间,而落后国家和地区、初创企业、普通公民等治理主体,则成为被掠夺剩余价值的洼地,相关的政策设计执行,抑或是民主监督等治理工具都有可能被大资本支持的科技巨头所控制,大幅削弱了政府、民众等治理主体的主动性,在“数字弱势”状态下的政府和公民可能会丧失更多的行动力和话语权,进而失去较多公平分配利益的权利。

另一方面,“数字弱势群体”由于缺乏直接参与数据要素收入分配的途径在数字空间中处于不利地位。以ChatGPT 为代表的新一代技术的普及应用对劳动者的学历、素质与能力提出了更高的要求,需要大批以科学技术为指导、掌握算法理论和智能技术的现代产业技术人才作为经济社会和产业发展的智力支撑,这也变相提高了数字弱势群体直接参与数据要素分配的门槛。随着ChatGPT 的普遍化应用,其“自主性思考”模式可能加快了机器人自动化的速度,替代大多数人的工作,引致“人类的地位被降低到一个催化剂的水平”。据麦肯锡全球研究院研究报告《人机共存的新纪元:自动化、就业和生产力》,“全世界范围内一半以上的工作会在2055 年左右实现完全的自动化”[17],然而随着ChatGPT的进一步“进化”,它可能代替人类部分的生产任务,如客服、导游、翻译等工作岗位,未来的生产方式、劳动分工可能发生重组,失业风险大概率会聚集在重复性、低技能的工作岗位,这极易固化既有社会不公平问题,加剧群体间收入的分化,产生新的“马太效应”,造成社会关系的紧张对抗,不利于社会稳定,对包容性发展提出挑战。

三、走向包容性治理:新一代人工智能ChatGPT的规制路径

面对ChatGPT 的强势来袭,我们该如何与AI 和谐共存成为公共治理的核心议题。目前ChatGPT尚处于探索阶段,其带来的许多不确定性问题也处于萌芽阶段。我们不可否认ChatGPT 可能在数字政府建设中大有作为,但也不能忽视其潜在的不友好性。未来随着其深度参与,ChatGPT 会加深民众、政府对新一代人工智能技术的依赖性与使用频率,使其越来越依附于技术治理手段,导致人工智能决策取代人类决策,进而弱化政社的主动性作为,处于数字弱势群体的政府与民众可能处在被“智能奴役”的不平等参与状态,失去较多的行动能力和话语权利。因而,我国在设定ChatGPT 的治理方案时应结合发展实际和未来可能,在包容多元主体参与、平衡各方利益、遵循宽容差异共存以及共同规则中,不断去引导和推动ChatGPT的健康发展。

(一)塑造包容理念:坚持正确的价值导向,以均衡化的治理思路对待多元价值观

哈贝马斯认为“人类不仅在对于生产力的发展具有决定性作用的、技术上可以使用的知识的领域中进行学习,而且也在对于相互作用的结构具有决定性作用的道德、实践意识的领域中进行学习。”[18]换言之,价值观念、伦理道德在社会发展中具有决定性作用。因而,防范ChatGPT 人工智能技术的社会风险问题,其根本之道在于坚持正确的价值导向,使人们建立起符合时代发展要求的观念和价值取向。

首先,坚持正确的价值导向,强化人民需求、公共价值、人类幸福、共同富裕等多元化的主流价值目标。ChatGPT通过巨量数据学习、推理出关键要素,在这一过程中,逐利性的商业资本是ChatGPT运行的原生动力,尤其是ChatGPT 裹挟着单一的工具主义、功利主义倾向,使资本得以无序扩张,不断挤占、压缩主流价值的生存空间,从而边缘化弱势群体的参与机会。为此,有必要加强算法运行过程中的“价值敏感性设计”,坚持安全性、稳定性和公开透明原则,在算法的设计和运行过程中系统性地嵌入强调民主、平等、公平、正义等诸多基于社会整体利益的价值,考虑让包括数字弱势群体在内的每个人都能够平等、有意义、安全地参与数字社会发展并获得数字参与的好处。

其次,着力培育均衡化的治理思路对待ChatGPT 中的多元价值观。每一种工具都嵌入了道德伦理、价值观念,ChatGPT 同样是有预设的价值取向的,ChatGPT 可以根据海量数据进行智能分析和推荐,根据用户的数据,精准匹配用户需求,这也意味着各种领域信息、价值取向、意识形态的相互隔离。因而,ChatGPT 的价值包容旨在以服务于广大人民群众对美好生活的向往为根本价值旨归,动态整合各个领域价值理念的平衡,避免出现对单一价值取向的过度追求。

(二)构建包容主体:运用法治思维和方式,赋权多方主体协同共治

数据资源的聚集一定程度上就是权力的聚集。随着技术、市场、资本的入侵,ChatGPT 背后的技术资本很可能拥有比政府、公民更为强大的影响、控制与支配权,并且其掌握的巨量数据资源形成了不平等合作的权力结构。为此,治理主体的包容强调对多元主体进行全面赋权,增强ChatGPT 实施主体的协同性、均衡性,形成多元主体协同共治的包容性治理结构。

第一,在ChatGPT 的审查主体构成上,要吸纳、接受多元治理主体的参与,创造多元共治的权利结构。包容性治理所强调的主体包容是要调整政府、企业、公民等主体关系,建立政府机构代表、企业代表、高校代表、科研院所代表、民众代表等多元主体共治的技术伦理审查机构。明确伦理审查机构的职责,赋予监管主体财产罚、行为罚等实体性权力,对审查过程中发现的不符合伦理基本要求的行为采取相关措施。

第二,运用法治思维和法治方式建构平等合作的权力结构。一是应统筹规划人工智能的法律、行政法规、部门规章、技术标准等,加强数据要素的基础性制度规划,引入侵权惩罚性赔偿和保护奖励制度,制定和论证新规章以规范ChaGPT,最大限度地减少新技术所带来的各种新风险。二是政府部门应对人工智能数据市场进行实时监管,杜绝数据垄断主义作祟。在面对开发者破坏数据安全的行为,要考量私利与公益的平衡,除经济处罚外,应从时间或经营范围上限制其进入市场,从而规制科技巨头的社会权力,保障公民的数字权利,形塑多元共治、平等合作的权力结构。三是在国家权力之外,要强化社会和公民监督,成立全国专门性的社会监督组织,畅通公民参与监督的渠道,建立投诉、举报等多元化的诉求响应机制,维护公民个人的合法权益。

(三)强化包容过程:注重多元的互动交往,吸纳多样性的民意需求

对ChatGPT 潜在风险的治理是一个开放协作的过程,它需要政府、企业、社会组织、公众等多元主体协同推进,吸纳多元利益主体,消弭不同治理主体间的价值、利益的分歧,注重以论证、对话、讨论的互动形式进行交往行动,将利益相关方吸纳到规范程序之中开展平等互动,落实多方参与的包容性机制来广泛吸纳多样性的民意需求,并在尽可能充分的条件下实现科学决策,减少算法黑箱带来的决策失灵。

第一,法律层面。借鉴欧盟的“数据保护官”制度,设立“生成型人工智能安全委员会”专业机构部门,专项负责监督人工智能的生产、研制、审查、应用等全过程管理,重点围绕“透明度、鲁棒性、偏见与歧视方面”[19]进行多方主体协同参与审查评估,纠偏ChatGPT在设定平台规则的偏差,增强规则制定的包容性和公平性。

第二,伦理层面。一方面是要坚持以人为本的观念,强调人的主观能动性,将其视为一种享受生活便捷和智能的工具看待,对于那些一味追求经济理性,隐含算法偏见和损害人类自由、平等价值理念的,应予以严格禁止和整治。另一方面,要建立从技术开发端到应用端的全过程伦理风险审查规则,对技术的设计、应用等过程进行日常审查,根据数据的形态、价值、用途、数量、敏感程度等要素,对不同级别、不同类型的数据采用匹配的安全防护措施,保障多元治理主体的差异化诉求。

第三,技术层面。重视利用算法来规制“算法偏见”“从对代码和算法结果的规制转向对代码和算法过程本身的规制”[20],将公平、正义、平等等价值观念转化为算法,并以算法来规制“算法偏见”,提高源头审查和过程控制,对采集整理、自我学习、偏见结果等进行算法审计和规范标准设置。在此过程中,要提升算法本身对ChatGPT 的技术预计能力,通过文本挖掘、人工智能等数字化技术对政策文本大数据进行精细化分析[21],提取ChatGPT发展中的有效信息,以“有组织的技术预见”,吸纳多元化的群体参与,进而形成社会各界的共识,以有效应对ChatGPT的社会风险。

(四)确保包容结果:完善数据的要素分配,实现公平共享数字红利

ChatGPT 类的预训练大模型需要互联网空间巨量的数据资源,大量数据资源可能被免费攫取,私人数据被科技巨头用于训练模型的技术迭代发展。在持续的训练互动中,数据资源日益流向既有的优势群体,这样数据资源的不公平分配加深了数字鸿沟问题。对ChatGPT 的包容性治理致力于数字普惠价值的实现,消除社会成员在数字参与过程中遭遇的数字不平等待遇,构建公平公正的数据要素分配机制,促进数据要素的多元风险共治,充分保障数字弱势群体在内的所有公民都能公平地共享数字成果。

第一,兼顾ChatGPT 的多方主体的分配利益。一是明确ChatGPT 的数据分配方式,要着力通过数据贡献者的技术要素、知识要素、劳动要素等方式,参与数据收益分配。二是探索委托具有独立性、权威性的第三方评估机构,采用科学的数据要素评价标准,客观公正地对多元主体的价值贡献进行判定。三是,可考虑对ChatGPT 技术的主要获利者征收庇古税平衡技术获利与风险行为,进而平衡数字成果的非均衡化分配问题。

第二,基于分级分类,促进数据的科学管控与有序利用,甄别不同群体的受益或受害程度,保障多元主体尤其是弱势群体的合法权益。为此应根据ChatGPT 不同量级、不同类型数据的“重要程度”和受侵犯后的“危害程度”单独设计监管制度,并依据其相关舆论属性或者内容类别、用户规模、社会动员能力、对用户行为的干预程度等实施分级分类管理。

第三,在多方协同中,形成多元风险共治的数据安全格局。一是充分发挥国家“主导作用”,建立全过程的数据监管体系,避免数据要素的不公平分配,积极引导、激励社会公共机构、媒体、公司等完善数字弱势群体的针对性的救济服务。二是提高企业自身的数据抗风险能力,构建全流程全业务覆盖的数据安全防控网络,及时更新迭代具有潜在风险因子的数据信息。三是培育社会成员的“数字素养”。实际上,很多风险问题的根源来自于不同个体的“数字素养”的差异性和不平衡性所引致的,因而要进行ChatGPT科学知识的普及工作,培育公民的获取、理解与整合数字信息的能力。

四、结 语

“这个世界变得技术化、理性化了。机器主宰着一切,生活的节奏由机器来调节……这是一个调度和编排程序的世界,部件准时汇总,加以组装”[22]。ChatGPT亦是如此,它具有前所未有的聪明性能,能够通过学习和理解人类的语言,像“真正的人类”一样与人沟通,给予人类生活以极大的便捷化、高效化,但它仍是一个无意识的工具或手段,并没有人类所独有的情感性和主动性。实践中,对ChatGPT“一刀切”的拒斥往往是由于人类在感受到威胁来临时的本能反应,然而我们需要清醒地认识到ChatGPT 仅为一种技术性工具,工具始终是无法取代人类的,只有会用工具的人取代不会工具的人,任何新工具都可能引起取代,即使ChatGPT 不存在,取代现象也会随着其他工具的兴起而出现,也不会因为人类的排斥所消退。因而,我们应怀揣开放、包容、审慎的治理理念,正视ChatGPT 可能带来的高度不确定性和高度复杂性的风险挑战,且唯有坚持价值理念的兼容性、多元主体的共治性、多方参与的共建性及数字成果分配的共享性,才能不断满足人民群众对美好生活的需要。

猜你喜欢
主体人工智能数字
论自然人破产法的适用主体
南大法学(2021年3期)2021-08-13 09:22:32
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能与就业
IT经理世界(2018年20期)2018-10-24 02:38:24
答数字
数读人工智能
小康(2017年16期)2017-06-07 09:00:59
数字看G20
南风窗(2016年19期)2016-09-21 16:56:12
下一幕,人工智能!
南风窗(2016年19期)2016-09-21 16:51:29
关于遗产保护主体的思考
论多元主体的生成
成双成对