郭佳楠 陈婉莹
1.郑州工商学院马克思主义学院,河南,郑州,450000;2.中国人民大学数字人文研究中心,北京,100872;3.周口师范学院马克思主义学院,河南,周口,466001
2022年11月20日,美国人工智能研究公司OpenAI 发布了人工智能应用软件—ChatGPT,再次引发了人们对人工智能的关注和讨论热潮。近年来生成式人工智能(Generative Artificial Intelligence,简称GAI)技术快速发展,同时在人类生活和生产领域中得到广泛应用,该技术涵盖了创意产业、医疗保健、虚拟现实、艺术和文化创作等多个领域,为各行各业带来了更多的创新,并由此产生了巨大的社会经济价值。
著名技术哲学家马丁·海德格尔(Martin Heidegger)对现代技术有着很深的忧虑,在他看来,如果把技术当作某种中性的东西,我们就容易听任技术的摆布。[1]因此,面对迅速迭代的技术冲击和充满不确定性的未来,我们不仅要关注能用ChatGPT 及其类似软件做些什么,还要警惕它们可能会对我们做些什么,既要深刻理解生成式人工智能技术的内涵与运行机理,还要看到它的技术暗面与潜在风险,并思考如何适应与应对新的技术环境与生存境遇。这也正是本文关切的本质问题。
生成式人工智能技术是指基于生成对抗网络、大型预训练模型等人工智能的技术方法,通过对已有数据的学习和识别,以适当的泛化能力生成相关内容的技术。其具体内涵是“自回归(autoregressive)”,方式是“预训练(pretrain)+提示(prompt)”,在语言生成上比此前谷歌开发的BERT 模型更具优势。生成式人工智能的“神奇”来源于深度学习、生成式预训练和Transformer 模型架构,通过自回归的方式来预测生成符合自然语言规律的文本。目前ChatGPT 已经可以轻松完成自然语言处理(NLP)领域的绝大部分任务,同时在计算机视觉、图形学习等领域也颇具发展潜力。[2]总体而言,生成式人工智能技术对于人类社会、人工智能的意义是里程碑式的。短期来看生成式人工智能技术改变了基础的生产力工具,中期来看将会改变社会的生产关系,长期来看将促使整个社会生产力发生质的突破,在这样的生产力工具、生产关系、生产力变革中,生产要素—数据价值将被极度放大。
生成式人工智能技术的基础是机器学习模型,特别是它非常依赖于深度学习算法和神经网络模型,这些模型通过大量的训练数据来理解其中的模式和规律。生成式人工智能技术的核心思想是利用人工智能算法生成具有一定创意和质量的内容。通过训练模型和大量数据的学习,生成式人工智能技术可以根据输入的条件或指导,生成与之相关的内容。从计算智能、感知智能再到认知智能的进阶发展来看,生成式人工智能技术通过单个大规模数据的学习训练,令AI 具备了多个不同领域的知识,只需要对模型进行适当的调整修正,就能完成真实场景的任务,为人类社会打开了认知智能的大门。具体而言,生成式人工智能技术的基本运行特征包括:其一,具备通用性而非只在特定场景的应用性。其二,能够进行新颖的、类似于人类的输出,而不仅仅是描述或解释现有信息。其三,可以理解多种形式的信息,同时也可以解读自然语言、图像、视频并作出响应。总之,生成式人工智能技术的出现和其目前展现的强大且特有的运行特征,无疑宣告了强人工智能技术时代已经到来。[3]
此外,生成式人工智能技术不仅能够充分利用现有的数据,而且更注重创造新的、富有创意的数据。其运行原理是在学习的基础上分析理解数据,进一步生成具有相似特征的新数据,同时广泛应用于图像、文本、音频等多领域。生成式人工智能技术之所以能够迅猛发展,与其独特的运行机理及其现有的技术基础密不可分:其一,目前各种生成算法已经取得突破性创新,技术运行模式已从分析式AI 发展为生成式AI;其二,预训练模型即通常所说的大模型引发了生成式人工智能技术能力的质变;其三,多模态AI 技术得到长足发展,进而实现AI 革命。[4]也正是这些技术变化,使得生成式人工智能技术与传统人工智能或简单神经网络学习技术之间产生了巨大的鸿沟,即前者具备自生成内容的能力,可以实现闭环式学习体系的构建,通过从海量数据信息中自己学习要素,生成全新的、原创的专业知识内容或产品,并能持续提高自身学习能力,真正打破了以往人们熟悉的“专业知识壁垒”。而传统人工智能或简单神经网络学习技术则往往只能根据训练数据进行决策和推断,缺乏像人类一样的“常识”,无法真正实现智能化。
首先,生成式人工智能技术的广泛运用会侵扰社会意识形态防线。一方面,随着生成式人工智能技术的不断发展,在网络中添加任何新应用程序都会产生新的漏洞,这些漏洞可能会被用来访问网络中的其他区域,并在意识形态领域造成多样性的威胁与挑战。此外,生成式人工智能应用程序还带来了独特的意识形态的风险,因为它们包含复杂的算法,使开发人员很难识别安全缺陷。
另一方面,生成式人工智能技术的发展还不够成熟,使得人们无法理解其软件开发的复杂细微差别,这使其代码很容易被不法分子利用,对当前的社会意识形态进行攻击。在评估GitHub Copilot 生成的代码安全性的研究中发现,近40%的顶级生成式人工智能技术都会导致代码漏洞,这些漏洞的产生通常会瓦解公众对视觉文本的信任,使曾经“有图有真相”的时代一去不复返,真相变得更加难以确证[5],社会信任危机日益凸显。这种真伪难辨的境况与别有用心势力的以假乱真的行径相结合,令意识形态风险趋于复杂化。
其次,生成式人工智能技术会对人们的思维方式造成根本性冲击,从而稀释人类的独立思考能力。应该说,生成式人工智能技术对人类独立思考能力的威胁并不新鲜,尤其是生成式人工智能技术工具可对某一问题提供快速响应,使得人们可能放弃以往对某一个问题的批判性反思,从而转向依赖于生成式人工智能技术所提供的答案,从而为用户决策行为节约时间而提高效率。[6]这样一来,生成式人工智能技术将会通过增加控制和操纵人的机会,进一步强化对人类批判性思维与独立思考能力的削弱,并使人类不再尝试自己独立思考和写作,最终逐渐失去批判性思维的锻炼机会。
再次,生成式人工智能技术还会危害社会价值观的塑造。生成式人工智能是当今最热门的人工智能技术发展领域之一,它破解了许多以前被认为是不可能解决的难题,并为人们提供了无数的便利和前所未有的机遇。但是,随着它不断发展和应用,生成式人工智能技术在对人类的价值观及其逻辑塑造层面也可能会带来一些危害。[7]例如,生成式人工智能技术可以学习和重复模仿人类行为,以便完成特定的任务。然而,在某些情况下,如果生成式人工智能技术被设计成需要迎合特定的价值观或意图,那么生成式人工智能系统就可能会被嵌入并执行这种错误的价值观,并进一步扩大这种错误价值观所带来的负面影响。此外,虽然生成式人工智能技术具有强大的数据训练与文本生成功能,但是仍然会忽略信息与社会主流价值以及社会发展需求之间的内在联系,使得网络上出现大量迎合受众偏好但缺乏内涵的信息,从而可能让使用者超越其价值理性的逻辑取向,做出违背正确社会价值的选择。[8]
随着新兴生成式人工智能技术的发展,一旦存在多个数据与信息来源,在现代社交媒体中就很容易产生冲击人类价值体系的错误与虚假信息。生成式人工智能技术在其数据与算法设计和应用的过程中,很可能会产生一些错误数据甚至虚假信息,也就是说,如果生成式人工智能技术可以用来欺骗公众,将某些危险的输入指令或信息错误地分类为安全,那么使用该人工智能技术的应用程序就可以执行这些恶意的指令,甚至绕过安全控制系统,从而为带有恶意指令或信息的软件提供更高的访问权限。在这种情况下,这些信息很可能对用户的自主性产生负面影响,从而削弱人们以往对科学知识以及真理的信任,甚至对正确的人类价值体系造成冲击。
此外,在生成式人工智能技术设计与使用过程中,责任主体模糊也会对知识产权、数据合规与信息保护造成威胁。也就是说,当人们与任何生成式人工智能技术程序共享自己的个人信息或公司信息时,他们一开始会本能地相信该程序将负责任地处理这些信息,并针对网络攻击采取强有力的保护措施。然而,在使用生成式人工智能技术工具时,我们可能会无意中分享比我们想象更多的信息内容。同时,生成式人工智能技术应用程序还会对用户数据进行任意浏览,进而导致人们无法分清相关数据泄露的责任主体是谁,这使得在如何收集、使用和转储数据方面缺乏适当的监控程序,这种情况会对知识产权与个人合法信息的保护造成严重威胁。
最后,生成式人工智能技术中存在的数字鸿沟会冲击组织体系的正常运行,从而加剧社会不平等。生成式人工智能技术在一些行业中的使用可能会进一步冲击原有的组织框架,干扰其原本的组织运行体系,从而造成原有组织机构的解构,进一步加剧组织成员收入不平等,最终导致富人越来越富,穷人越来越穷。例如,AI 在金融领域中的使用可能会导致一些族群或地区的金融组织机构的运行受到歧视性干扰,进而引发模糊责任边界的问题。[9]除此之外,AI 也可能会导致数据垄断的情况发生,并使少数大型公司和政府机构牢牢掌握市场优势,从而排斥其他竞争者。
首先,在生成式人工智能技术治理层面,相关政治决策者对该技术全新的内容和知识生产方式的认知缺失,会加剧政府对该技术进行治理的风险。由于其本身技术设计与应用的复杂性,生成式人工智能技术和深度学习模型的内部运行原理可能很难被人们所理解,即使对于那些直接使用该技术的人来说也是如此。这导致人工智能得出结论的方式和原因缺乏透明度,致使关于“生成式人工智能技术算法使用哪些数据,或者为什么它们可能做出有偏见或不安全的决策”的问题缺乏解释,进而引发人们对这种不确定性问题的担忧[10],这在很大程度上就加剧了政府技术治理的难度与风险,尤其对政府相关部门如何处理由生成式人工智能技术引发的新难题提出了挑战。
其次,生成式人工智能技术训练数据的持续扩张还会引发政府治理的安全风险。随着生成式人工智能技术生成的图像和视频、人工智能变声器以及深度伪造信息越来越多地渗透到当今的政治和社会领域,使得媒体和新闻中信息的真实性变得越来越不可信,因为这些技术可以轻松创建逼真的照片、视频、音频,或将现有图片或视频中的一个人物的图像替换为另一个人物的图像。[11]有鉴于此,不良行为者很可能用新的途径来分享错误信息或进行战争宣传,从而构建噩梦般的叙事场景,这使得政府部门在进行社会治理过程中面对了更多的安全风险与挑战,尤其是在规制与监督生成式人工智能技术设计与应用层面需要构建更为系统的体制机制来加以应对。
最后,生成式人工智能技术大模型的生成物形式各异,从政府治理层面而言,这会引发政府治理中前所未见的新问题。应该说,对这些新的生成物形式的社会操纵是生成式人工智能技术给政府治理带来的新挑战。尤其是随着西方政客们依靠平台来宣传自己的观点,人们对新问题的恐惧已经成为现实,例如,小费迪南德·马科斯(Ferdinand·Marcos Jr.)在菲律宾2022年大选期间率领着一支“TikTok 巨魔大军”,来夺取年轻菲律宾人的选票。实际上,这里关于TikTok 的事件只是个别政客操控基于人工智能算法的社交媒体平台的例子之一,可以看出这种人为的操控提前在用户的提要中填充了有助于实现其政治利益的信息内容。[12]在当代社会治理中,政府如何应对这类行为,以及某些算法未能过滤掉有害和不准确内容的现实,引发了人们对政府治理能力的担忧。
1.政治决策面临新风险
首先,政治决策机制重塑。生成式人工智能技术在智能方面的进步如此之快,以至于它可能会变得有知觉,并可能以恶意的方式超越人类的控制。在这种情况下,大模型凭借其无与伦比的信息收集处理能力,配合先进的算法,处理信息后给出的决策建议在相当程度上具有整合性和便利性,将不可避免地导致以往政治决策机制的变革。
其次,政治决策忽视偏好问题。生成式人工智能毕竟只是一种技术,在收集信息时只是出于单纯的收集目的。尽管大模型处理海量数据资源,且模型灵敏度会依靠日后训练与数据填补而提升,但政治决策对象毕竟是具备情感偏好的生命体,他们所喜好的政策未必就是最符合程序计算的政策。这就出现了一个极困难的问题—人工智能系统可能始终无法完全理解政治决策对象的情感诉求。
最后,政治信任降低的风险。大模型深度学习模型进入政治生活后,无论是政治决策者抑或是政治诉求表达者均可利用该模型从事政治活动。在这种情况下,人工智能聊天机器人或在线人工智能面部过滤器可能会访问并收集政治决策者的用户数据—但它会在哪里使用、如何使用这些数据,越来越多的数据让人们难以判断什么是重要的,什么是有意义的。[13]生成式人工智能技术系统通常会收集个人数据来定制用户体验或帮助训练正在使用的人工智能模型(特别是免费的人工智能工具),当被提供给人工智能系统时,数据甚至可能被认为对其他用户来说是不安全的,进而导致政治决策者与诉求表达者的双向信任危机。
2.舆论传播面临新挑战
第一,错误信息和观点对公众舆论的潜在引导。生成式人工智能技术的算法和数据具有鲁棒性、透明度、可解释性、可靠性欠缺等问题,尽管“大数据+海量参数+大算力”提升了模型的总体拟人表现,但它毕竟不是像人一样理解与思考问题,有时无法从事实上区分信息的真实性,难以识别数据隐含的偏见和毒性,从而产生虚假的、误导性的或低质量的结果。这些错误和偏见往往会影响人的政治判断和政治选择,甚至隐蔽地塑造和误导公众舆论,冲击主流价值和观念。
第二,大语言模型可能弱化国家阐释权。国家阐释权代表了国家在引导社会舆论、宣扬社会思想方面的权威性,是国家软实力的重要组成部分。随着大模型全面嵌入社会并参与某些重大概念与事件的解释,由于其普及性和便利性,可能使社会公众习惯于第一时间寻求大模型解释路径。这种先入为主性叠加以及大模型输出系统的高度拟人化与完备化,将严重削弱官方解释的说服力,削弱国家阐释的权威性。
第三,大语言模型可能沦为意识形态武器。生成式人工智能技术在算力、算法、数据等方面的高门槛容易导致少数国家的技术垄断,可能被当作意识形态战争或颜色革命的工具,从而加速虚假意识形态的生产与传播。[14]一国可针对他国公众心理弱点来供给带有政治目的与本国意识形态偏好的内容产品,进而影响目标国公众的政治判断和政治选择,间接把控政治走向,对目标国意识形态安全阵地进行隐形渗透。
3.技术监管难度增大
在关于生成式人工智能技术的监管层面,一方面监管需求与监管能力之间存在差距。随着生成式人工智能技术的逐渐发展,其输出错误或具备隐晦意识形态宣传的话语表述,在大多数情况下难以为非专业人士所识别。如果政府部门无法及时对网络环境进行正确监管、对错误信息进行分辨处理,这种由于监管缺口而在公众间广泛传播的错误信息可能造成严重的意识形态风险。
另一方面,随着生成式人工智能技术已经逐渐渗透到人们生活的各个领域,技术垄断正在侵蚀国家治理能力。生成式人工智能技术的产生、发展和普及都离不开专业的科技企业参与,特别是科技巨头。尽管这些企业也在以委托治理的方式参与国家治理目标的实现,但大语言模型必需的算法、算力、数据三大数字要素却被少数头部科技企业掌握,由于其先行优势会进一步扩大规模效应,这些企业必然会形成技术垄断趋势。走向寡头化的科技巨无霸可能会凭借算法权力和运作效率模糊国家的权力边界,甚至带来“国家空心化”的危险。
首先,嵌入式道德算法无力过滤基础文本数据的价值偏见。生成式人工智能体无法具备个体意志,也无法拥有伦理决策能力,但是它可以通过对人类主体在道德选择和伦理决策等方面的学习与模拟拥有对“道德”的理解,而生成式人工智能体对道德模拟的实现依赖于人工智能专家们所运用的嵌入式道德算法,反映的其实是算法设计者的行动目标和价值体现。嵌入式道德算法属于生成式人工智能技术算法体系中尚不完备、亟须完善的算法程式,因其运算过程主要是通过模仿而非创造,导致这一程式无法脱离设计开发者而成为具有完备道德的机器智能体,也无法通过对基础文本数据的筛选过滤来判断内容本身的价值属性,更无法有意识的抵制偏见,所以在一定程度上会不可避免地扩大价值偏见。
其次,奖励算法放大算法设计者的隐性价值偏见。生成式人工智能技术究其本质仍是以人类为主导,按其构想创造而来的产物,归根到底是为人类服务的,在其算法的设计开发过程中,处处都包含着算法设计者的偏见,这些偏见既包括显性偏见,也包含着开发者的隐性偏见。人是一切社会关系的总和,算法设计者同样无法逃离社会关系,在认识世界与改造世界的活动过程中,在社会关系和认知体系的局限下,毫无疑问会产生这样或那样的价值偏见,而这些价值偏见也在无意识中被带入到算法世界。而奖励算法实质上是一种差别对待系统,通过类似于“贴标签”的举动,使得那些不易察觉的隐性价值偏见无处不在。
再次,算法设计者的偏见影响算法输出的准确性。算法不是凭空产生的,而是人类行为的产物,是受到人类支配供给人类使用的人造物,算法设计者的意识渗透在算法模型设计的每一步,算法设计者的固有偏见也阻碍算法程序自觉摒弃偏见,使其不能成为一种完全公正、客观的技术。无论是在开发算法技术、界定问题范畴,还是在选择目标变量的环节,都存在着算法设计者的认知差异与思维偏见,这些偏见会时刻影响算法程序在生产内容和输出内容过程中的客观、公正立场,进而传播孤立、片面甚至是与客观事实完全背离的信息,影响信息判断的准确性,导致大众对于信息的认知出现偏差乃至偏见。
最后,RLHF1 重复训练基础语言模型,强化算法偏见。ChatGPT 采用RLHF 重复训练基础语言模型,大量的人类与机器交换提问者及回答者身份的人机互动训练,使得ChatGPT 这样的生成式人工智能逐渐具备评断生成答案的能力,而在算法系统与用户的不断交互互动中,ChatGPT 通过循环往复的强化学习来掌握用户偏好,因其在向周围环境学习时无法准确判断数据的取舍与对错、无法保障训练算法的原始数据的客观性,从而导致其存在被恶意使用的风险。[15]ChatGPT还会产生互动偏见与数据导向的错误的价值观,在人机互动过程中不断吸取乃至复制隐含其中的各种价值偏见,进而在内容生成时创造出更多的偏见。随着RLHF 训练模式周而复始的进行,ChatGPT 甚至可能会成为邪恶势力输出自身观点的传声筒与扩音器。
首先,从技术与政治的互动关系来看,算法政治偏见影响世界建构的基本方式。一般而言,“选择偏见、受数据影响的算法,很可能会导致人们过于放大某一族群或群组数据的社会影响,从而使该算法对其有利,但代价是牺牲其他群体的合法利益”。[16]在这种负面影响下,算法在嵌入一些政治观点后,很容易对人们的生活方式进行重塑,这就导致人们操控世界的自主性受到严重的负面影响,甚至对以往真理性或真实性的世界建构造成危害。而这种危害往往会造成与生成式人工智能技术有关的利益相关群体之间的冲突,进而促致群体间个体的不信任。
其次,算法间接成为西方国家靶向干预他国意识形态的技术工具。ChatGPT 的诞生标志着算法技术的新起点,也展示了其发展的全新可能。但是,ChatGPT 所具有的算法与数据低透明性,使其对舆论影响的客观性存疑。持有偏见的西方国家利用ChatGPT 所具有的高度拟人化与使用便利化,通过算法霸权掩盖其真实面目,采用不同于传统偏见形式的算法偏见干预他国意识形态,甚至争夺领导权。由于ChatGPT 被认为具备所谓的“公正、客观”的特性,它可能会间接成为西方国家靶向干预他国意识形态的技术政治工具。当前,美国具有世界上最先进的生成式人工智能技术,它极有可能为了维护自身的霸权地位,利用算法霸权对其他国家进行意识形态布势,威胁其他国家意识形态领导权的安全。
最后,算法逐渐成为西方国家输出自身意识形态的重要媒介。ChatGPT 拥有深度学习的优势,一经诞生,就凭借其数据分析能力与学习能力快速渗透到社会生活的方方面面之中,并因此产生了强大的影响力与控制力。在ChatGPT 爆火的今天,西方国家因其在复杂精密算法技术上的垄断地位掌握着人工智能领域的绝对优势,一定意义上也实现了自身对话语权的垄断。[17]以ChatGPT 为话语媒介,西方国家在人工智能领域继续推进西式话语霸权。同时,随着ChatGPT越来越多地受到西方国家算法设计者的民主观念渗透,其在内容生成与输出上进一步表现出西方国家的意识形态,在技术外衣的包装之下,西方国家通过算法进一步推行受资本垄断的话语霸权,通过制造传播涵盖偏见的信息影响大众对于客观事实的正确认知,以此实现自身的利益。
在数字分身、数字永生等概念层出不穷的当下,一方面人类的有限认知弱化了对自我价值的反思。在某种程度上,在算法技术的包裹下,人类获得了更多便利的同时也被技术引导、支配行为进而被囚禁在算法监狱中,每日接触单一的信息,失去了自主选择多样化信息、自由拓宽视野的权利,被动成为信息投喂的接收者,变成算法世界中的乌合之众,失去了人类个体的个性化,使得作为一个现实的人的主体地位不断被消解,沦为算法的附庸,人的本质被异化,人的有意识的活动被剥夺,使其沉浸在生成式人工智能技术的使用便利性之中,逐渐丧失独立思考判断能力和自主行动能力,从而不再探讨自我价值,不再思考人的发展性,最终成为被动的服从者。
另一方面,生成式人工智能“替代性实践”导致对主体身份的质疑。生成式人工智能技术能够通过对行为实践的介入支配人们的全部社会生活,迫使人类在算法技术监视之下,将其主体意识暴露在算法技术中,正如沉默的螺旋一样,人类在无意识中进入自我控制、自我规训的状态,不自觉地接受ChatGPT 等生成式人工智能的隐形规训,难以控制地陷入其从属地位,在此过程中ChatGPT 的权力边界被混淆,人的主体身份被僭越,人与人工智能的关系发生颠倒,最终使得人类在对ChatGPT 的依赖中质疑自身的主体性地位,导致主体性的集体沉默,接受资本主义意识形态的塑造。
生成式人工智能作为“第四次工业革命”浪潮下备受世界各国关注的技术产物,推动了各行各业数智化的变革。但与此同时,其所带来的安全风险及社会治理问题也成为全人类所关注的焦点。党的二十大报告中也强调全党必须主动识变应变求变,主动防范化解风险。因此,及时有效地提出生成式人工智能技术的安全风险防范策略就成为未来人工智能治理的重中之重。本文将从加强党的领导、政府参与、社会协同、法制保障四大方面,构建起具有负责任性、预见性的生成式人工智能技术安全风险的防范策略。
加强党的领导,就是依托于党的宗旨、性质、政策等为生成式人工智能技术所存在的安全风险防范提供坚强的政治保障。因此,必须牢固树立以人民为中心的技术安全风险防范理念。同时,需要深刻认识到人民是历史的创造者,生成式人工智能技术的存在依旧是人民在认识世界、改造世界进程中的产物。中国共产党始终坚持以人民为中心,党的各项事业的发展也要落实在解决人民的操心事、烦心事上。基于此,在设计研发生成式人工智能技术时,要坚持以人民为中心,从为人民服务的理念出发。换言之,生成式人工智能技术的出现并不能仅考虑技术的先进与否,更需要考虑人民的实际所需,使得人工智能实现真正的便民化、利民化。
此外,还应该着力引导生成式人工智能技术在社会治理中的善智发展。“善智”即为高明的、良好的人工智能。此概念更加关注于生成式人工智能技术的价值目标,以增进人类的共同福祉为落脚点。发展安全、合道德的“善智”包含着生成式人工智能技术开发和应用的三大原则:不能伤害人;不应该歧视人;不应该“操纵”人。[18]中国共产党作为中国各项事业的领导者,在发挥总揽全局、协调各方的政治功能上要力求引导生成式人工智能技术的善智发展,不仅要注重技术创新,而且也要在有效应用的过程中重视其价值标准的考量。
最后,大力提升生成式人工智能技术时代基层党组织的组织动员能力。中国共产党作为马克思主义的政党,一直保持着加强自我管理,进行自我革命的优良传统,也一直将基层党组织建设视为一项重要战略资源。针对生成式人工智能技术这样的新生事物,更要重视基层党组织的建设,夯实基层党组织的基础,为生成式人工智能的发展做好组织动员工作。因此,首先要在党的领导下,优化组织设置,扩大党在人工智能领域的组织覆盖,因地制宜的探索新型组织形式,增强基层党组织的执政能力;其次,完善生成式人工智能领域基层组织的运行机制,规范相关行业的党委、党支部建设,扩大研发人员中的党员人数,形成严密的上下贯通、执行有力的基层组织体系。
党的二十大报告提出,要加快建设数字中国。[19]这也意味着政府数字化转型也即将提上日程。与此相对应的,生成式人工智能的技术发展也将为数字政府赋能。因此,未来政府应当承担好自身肩负的治理责任,积极发挥政府在生成式人工智能技术安全风险防范中的主导作用。
第一,在生成式人工智能技术嵌入政府治理的过程中,应该秉持包容审慎的原则。新技术的产生必然带来新的风险与挑战,生成式人工智能技术也同样如此。也就是说,在政府治理中嵌入生成式人工智能技术依旧会面临着信息泄露、数据存在偏差、技术处理不到位等问题。因此,秉持包容审慎的原则才能有效地发挥人工智能辅助政府治理的功能。在此过程中,要接受可能存在的误区、有效地分析原因所在,而分析的目的在于通过政策制定者针对过往的开发活动,借助于公众的使用反馈,查找自身所存在的缺陷,进行深刻且持续的自省,进而使新技术得到进一步的完善与提升。嵌入反思维度的重点在于强调生成式人工智能技术政策的公众参与,依托于决策者对公众满意度的重视,进一步强化生成式人工智能技术政策制定者的社会责任感与道德使命感,以此来提升人工智能的社会价值。最后及时地开展后续问题的处理;同时,在政府治理中不能完全依赖于人工智能,还要以审慎的原则保留人工智能提供的数据,做好备案工作。
第二,制定生成式人工智能时代技术安全风险防范的有效公共政策。生成式人工智能技术应该惠及公众生活的方方面面,其中涉及人们公共生活中多方面多领域的利益。政府作为行政机关,有责任保障公众的合理合法利益的实现。因此,如果政府想要发挥其正常的技术治理职能,那么就需要在制定并执行公共政策的时候多方考虑可能存在的生成式人工智能技术安全风险,评估多方的利益诉求,进而实现技术效益最大化、服务最佳化。
第三,建立生成式人工智能嵌入技术安全风险防范的各项配套机制。生成式人工智能技术的发展与完善不仅在于技术的研发是否顺利,而且也要考虑到市场的效益、成果的回报、社会的反响等方面的因素。同时,还要考量不同技术风险带来的后果。因此,政府要建立各项相关的配套措施,如市场准入的标准、价格的管控、风险应急的机制,研究制定重点领域关键技术清单,建立风险预警指标体系和监测预警机制,让生成式人工智能技术在应用过程中更好地扬长避短。
第四,积极构建生成式人工智能技术嵌入政府治理的管理机制。一般而言,生成式人工智能技术具有实现效率最大化、信息处理便捷化等优势,这些优势将有助政府工作的开展与管理。可以说,将生成式人工智能技术引入政府治理的管理环节,将有助于优化政府工作模式,建构高效率的数字政府模式,如人口普查、土地普查等工作借助生成式人工智能技术开展将会省时省力,也有助于赋能政府的科学决策,建成智慧数字政府,如通过线上政府服务大厅的创建,满足广大人民群众足不出户就能办理业务的需求。
第五,建立健全生成式人工智能技术嵌入政府治理的安全保障体系。社会安定、人民安全是国之大事,安全问题也是政府治理工作的题中要义。生成式人工智能技术在安全风险防范领域的研发与应用,将进一步改善社会治安,提升人民生活的幸福感。因此,建立健全生成式人工智能技术嵌入政府治理的安全保障体系将更有助于落实政府职责,完善政府治理。
生成式人工智能技术的研发及应用涉及整个社会,人人都可共享其发展成果,但人人也会受到其技术安全风险带来的影响。因此,针对生成式人工智能技术的安全风险防范应该做到人人有责、人人负责,需要建立起共建共治共享的技术安全风险防范新格局。要打造生成式人工智能时代的技术安全风险防范共同体,即发展政府引导、企业研发、公众监督这样的安全风险防范共同体才能多角度多主体地构建全面的防范体系。每个主体在各司其职的同时兼顾其他主体的有效需求,才能促进生成式人工智能技术向上发展,辅助好人们的生产与生活。要提高社会公众参与智能化安全风险防范与治理的能力。社会公众虽然不完全是生成式人工智能技术的主导研发者,但都享受到了该技术带来的好处。社会公众也有义务来为其安全风险防范与治理贡献自己的一份力量,这就需要社会公众增强安全风险防范的意识和提升安全风险治理的能力。生成式人工智能技术的相关产品最终是要投放到社会中的,参与社会各项事业的建设,使其能够造福于公众生活,因此,引导研发者与政策制定者、公众一同探讨生成式人工智能技术所产生的相关问题,更体现出治理生成式人工智能技术问题的包容性与民主性。力求通过多方集体审议,实现人工智能技术对人们追求更加美好生活的完美辅助,更好地检测与评估该技术的使用效果及其对社会的效益。
另外,需要进一步完善共建共治共享的智能化安全风险防范制度。形成共建共治共享的生成式人工智能技术安全风险防范制度能有效实现该技术发展的良性循环。因此,这就需要改革社会组织管理制度,注重对生成式人工智能技术的设计主体进行培育与引导,调动起其参与安全风险防范活动的积极性与主动性;健全各类社会治理主体依法治理、有序参与机制,对于涉及的主体建立起相应的职能分工、利益协调、奖惩管理等制度,积极构建安全风险防范治理协同机制,鼓励、引导社会组织、人民群众参与进来,实现政府治理同社会以及居民自治的良性互动。
最后,积极构建各司其职且责任到位的防范机制。在应对生成式人工智能技术安全风险的过程中,不同责任主体应当建立起相应的防范机制,这些防范机制可以从政治、经济、法律等多个维度对其安全风险进行规制,同时在这些防范机制建构与运行的过程中,相关工作人员也应当做到各司其职,严格按照相关规范来约束自身的行为,在技术应用的过程中发挥监督与监管的职责。
法案天下,社会各项事务的有效开展都要以法律的准绳加以约束。生成式人工智能技术在促进社会发展的同时所带来的风险挑战也需要通过法律进行界定。尤其是在当前人工智能应用广泛的时代,需要从不同的角度加强对其设计与应用的监督与管理,尤其是从立法、司法、执法的不同维度对生成式人工智能技术进行规制。
首先,努力树立生成式人工智能时代中应对技术安全风险的法律思维。生成式人工智能技术是社会的产物,受制于社会法律的约束。因此,生成式人工智能技术的研发者、生产者及使用者都需要具有法律思维,要在合理合法的条件下规范使用人工智能,不能借助于其高科技手段来触犯法律的底线。
其次,建立健全智能化社会中风险治理的法律规制体系。生成式人工智能作为一项新兴技术,急需健全关于其社会风险治理的法律规制体系,当前我国也在积极推进生成式人工智能领域的相关立法工作,形成了多层级、多维度、软法和硬法相结合的综合治理体系。如国务院2017年发布的《新一代人工智能发展规划》,2019年国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则—发展负责任的人工智能》等相关文件,都为社会风险治理提供了法律保障。[20]
再次,促进生成式人工智能技术时代社会风险防范规则算法化。法律可以为生成式人工智能技术的社会风险治理提供强有力的保障,反过来生成式人工智能技术又同样可以为法律的运作进行高效的赋能,进一步构建并完善人工智能的风险治理规范体系。[21]促进生成式人工智能技术时代社会风险防范规则的算法化,将有助于相关法律的操作更加智能化与便捷化,提升办案效率。
最后,构建以公平正义为核心的智能社会法律秩序。社会的公平正义是人类社会始终如一的追求,生成式人工智能技术辅助下建成的智能化社会也同样如此,构建以公平正义为核心的智能社会法律秩序是未来社会法律体系建设的必然准则。以公平正义来减少生成式人工智能技术的安全风险所带来的社会不安,更有助于建立和谐有序的智能法治社会。
生成式人工智能大模型正在挑战社会各个领域中传统规则的科学性和合理性。面对ChatGPT 这类更高效、更便捷的生成式人工智能技术形态,既不能放任该技术的失范应用,也不能因噎废食。未来,生成式人工智能技术能否具有自主意识与自由意志,尚有待验证。今后在应对生成式人工智能大模型的安全风险时,方案上应采取多元规制的思路,在已有算法规制框架的基础上,制定出具有中国特色、现实可行的风险应对方案。