ChatGPT类生成式人工智能的风险及其治理

2024-01-18 07:55张诗濠
贵州社会科学 2023年11期
关键词:人工智能数字用户

张诗濠 李 赟 李 韬

(1.北京师范大学,北京 100875;2.贵阳康养职业大学,贵州 贵阳 550081)

一、引言

美国OpenAI公司推出的ChatGPT人工智能对话机器人,能够通过学习人类语料库,生成近乎完美的对话内容,在短短两个月内就超过1亿用户,在全球掀起围绕生成式人工智能应用的科技浪潮。然而,在人们憧憬ChatGPT类生成式人工智能融入社会生活各个领域的同时,其技术应用的风险也日益呈现。比如,在ChatGPT类生成式人工智能应用中,已经出现通过AI生成文本、图片、音视频等虚假信息来实施欺诈犯罪行为;AI对个人隐私和知识产权的侵犯引发伦理与法律上的争议;AI内容生产被曝光存在大量民族偏见、种族歧视信息[1]。应该说,生成式人工智能可能带来的一系列风险,引起社会各界的广泛关注。那么,ChatGPT类生成式人工智能有着哪些主要的应用场景、存在着怎样的运行机理、会带来哪些可能的风险,面对种种风险我们又需要从哪些方面入手做好应对和治理,上述种种就成为当下探讨ChatGPT类生成式人工智能发展应用的重要问题域。

二、ChatGPT的运行逻辑及风险生成机理

ChatGPT类生成式人工智能拥有庞大的语料数据库,具有强大的数据检索和匹配反应能力,能够实现与人类的互动反馈。事实上,ChatGPT可能带来的社会风险正是在“人—机”互动运行过程中产生的。因此,开展ChatGPT类生成式人工智能治理,就必须首先围绕其主要应用场景进行梳理,探讨其运行逻辑,厘清其在运行过程中的风险生成机理。

(一)ChatGPT的运行逻辑

对ChatGPT主要应用场景和运行环节的梳理,有助于进一步探究其运行逻辑。如图1所示,当前ChatGPT类生成式人工智能主要存在着知识问答、编程反馈、协同创作三种类型化的应用场景。

图1 ChatGPT的类型化应用场景

一是知识问答型应用。侧重信息获取、知识学习等需求。在这类应用中,人类用户提出问答需求,ChatGPT基于大数据和自然语言模型进行信息收集、整理和分析,生成答案内容。由于ChatGPT具有海量预训练数据库,在对话中回答用户提出的各类经验性知识提问时,类似于搜索引擎功能,但数据库更为庞大,回答更为直接精准,且符合自然语言习惯。在这一类型应用中,ChatGPT运行依赖于对海量数据信息的占有,其运行效能的发挥要求数据本身的真实性、精确性和全面性。

二是编程反馈型应用。侧重基于预训练大模型的算法技术开展代码编程。在这类应用中,人类用户提出编程需求,ChatGPT依托内在算法进行代码编程处理,生成相应的程序代码;人类用户对代码进行运行检验,提出进一步优化需求,由ChatGPT反复修正代码。上述步骤,实际上是生成式人工智能实施人类反馈强化学习(Reinforcement Learning from Human Feedback,RLHF)的训练过程,AI机器人也在不断学习、迭代中提升自身算法效能。

三是协同创作型应用。ChatGPT可以依据用户需求,生成表格、图像、音频、视频等不同类型的多模态内容。基于这样的多模态生成技术,人类用户可以与ChatGPT类生成式人工智能一起协作,在各类相关软件插件配合下,完成文艺作品创作、绘图设计、音视频创作剪辑等任务。在这一类型应用中,ChatGPT运行依赖于AI对人类用户需求的深刻理解,因此需要用户在与AI机器人互动对话中不断提供精准的个人信息,包括自身认知、情感、思想等个人隐私信息。

综上可见,尽管在不同应用场景下人们使用ChatGPT有着不同的目的,但都存在着问题提出、分析需求、生成内容、互动反馈,校准输出等五个基本运行环节。在问题提出环节,用户根据自身实际情况向ChatGPT提出问题,表达自身需求;在分析需求环节,ChatGPT会对用户问题信息进行分析,以理解用户的真实意图,进一步细化需求;在生成内容环节,ChatGPT根据预训练大语言模型算法,对语料库大数据进行信息提取、分析、整理,生成相应的内容;在互动反馈环节,用户结合ChatGPT生成的信息,进一步提问,不断获取更多的有效信息;在校准输出环节,ChatGPT结合用户不断对话下的新需求,完善生成内容,最终得出让用户满意的结果,或是用户因不再继续对话而终止互动。由此可见,ChatGPT的应用遵循着“人—机”互动互构的运行逻辑。换言之,ChatGPT运行可能带来的风险,一方面来自技术性的“非人类因素”[2],另一方面来则来自用户“人类因素”。

(二)ChatGPT风险生成的内在机理

ChatGPT在参与社会建构的过程中,是如何带来诸多风险的呢?为回应这一问题,就必须对ChatGPT风险生成的内在机理进行梳理。总得来看,ChatGPT应用运行主要存在着以下五个方面的风险生成内在机理。

第一,ChatGPT语料数据库的建立,存在真假双重性与匿名性。这是因为,ChatGPT的预训练过程主要是通过抓取互联网上的各类信息来初步建构数据库,网络信息来源的真假双重性,导致ChatGPT语料库信息本身也具备了“真—假”双重性。另外,由于所获取的信息大多未经所有者同意或取得授权,其获取数据的行为本身就在一定程度上有悖于“知情同意”原则,信息来源的匿名性也使得ChatGPT内容生产在源头上就缺乏明确的责任主体。

第二,ChatGPT的人机互动模式,以消除用户隐私性为基本前提。ChatGPT运行以充分了解用户需求为前提,实际上要求用户不断消除自身的隐私性壁垒。在人机交互过程中,用户为了获得更加精准和深入的输出结果,不得不在与AI的互动中不断暴露自身的真实目的、价值取向、结果预期,在不知不觉中解除了个人的隐私信息防备。比如,在问题提出环节,用户会提出问题或输入指令,其中可能包含着很多与用户直接相关的个人敏感信息;聊天界面的对话会被后台的算法机制自动抓取,从而纳入生成式人工智能模型的语料库;如果用户通过生成式人工智能模型处理合同、源代码以及其他敏感文本,泄漏的风险与危害则会更大。

第三,ChatGPT对算法与算力的依赖,具有高度的技术单向性。尽管在ChatGPT运行过程中始终存在用户的身影,但总体而言,由于算法不透明,用户无法了解其计算规则,ChatGPT高度依赖自身算法和算力支撑,是一种高度的技术单向性运作。这就使得不同个体、企业、社群、国家等主体,由于对算法技术掌握程度不同、算力资源储备各异,在实际操作过程中,会存在较大的输出结果差异。比如,ChatGPT运行需要巨大算力资源支撑,因此不是所有企业都有能力参与到AI大模型产品研发和创新应用的竞争之中,久而久之容易造成AI技术优势下的企业行业垄断、国家技术霸权,加剧全球数字发展不平等。同样,由于不同个体、群体在技术水平和资源占有上的差异,AI技术的接入和使用也存在着社会层级分化的风险。与此同时,AI大模型企业为了获得更多的市场利润,往往会倾向于开发市场回报率高的产品,人们在使用ChatGPT类产品的过程中,被诱导消费、思想操控、行动引导的风险更大,最终使得人工智能技术“演变为一种新的异己的力量”[3],加剧技术社会的整体性异化。

第四,ChatGPT结果输出的高效便捷,具有技术沉溺诱导性。由于用户能够在AI技术赋能下实现最快最便捷的人机互动结果输出,不再需要从面对面的人际交往中寻求答案,容易滋生万事“唾手可得”的技术幻象,陷入一种“技术沉溺”之中。这样的技术沉溺,容易造成两个后果:第一,人与人之间身体在场的互动更加匮乏,基于情感分享和信任的社会共识变得更为困难;第二,以智能机器人形式出现的AI产品成为人类的替代品,“机器人”成为一种更具有主体性意义的存在物,使得AI时代的人机关系更为复杂,带来诸多科技伦理风险。

第五,ChatGPT的工具理性逻辑,具有价值判断真空性。在传统社会内容生产活动中,人们从事文学、绘画、音乐等任何形式的创意表达时,都会以自身和社会主流的价值观、文化规范和道德考量为指导。生成式人工智能作为一种机器学习式的算法模型,遵循目的导向的工具理性逻辑,本着效率最快、结果最优的计算法则,侧重根据用户需求追求内容生产效用最大化,而缺乏对这些内容本身价值合理性的甄别与判断。正是由于ChatGPT工具理性逻辑过于强势,如果在其语料库数据收集、整理和清洗过程中,没有符合人类社会道德的价值判断,就有可能收集大量影响人类社会健康发展的有害数据、传播错误信息,进而存在影响社会稳定的巨大风险。此外,单一工具理性逻辑下的价值判断真空,也容易使得人工智能生成内容存在被滥用和操纵的风险,在缺乏道德监督和批判性评估的情况下,AI内容生产存在较大的意识形态安全风险[4]。

三、ChatGPT类生成式人工智能的主要风险

ChatGPT应用运行主要涉及人类用户与AI机器人两种类型的行动者主体,其风险的产生也源自于“人—机”互动反馈下的一系列负面社会行动效能。目前来看,围绕ChatGPT在各个领域的广泛应用和相关风险生成机理,主要存在以下几种比较典型的类型化风险。

(一)虚假信息泛滥带来网络生态治理困境

当前,利用生成式人工智能开展内容生产,最为人所诟病的问题之一便是虚假信息的泛滥,这种虚假信息在知识获取层面会成为一种错误的认知,在价值取向层面成为一种含有潜在行动引导的意识形态,而在特定的媒介社会议程中则会演化为一种公共谣言。从图1可见,虚假信息的生成不能纯粹归咎于AI技术缺陷,而主要是因为其预训练语料库中包含着虚假信息的源头数据,这些数据大量来自于网络。实际上,网络社会的崛起使得跨地域在线即时社交成为可能,这就使得虚假信息的传播更为迅速、传播范围更为广泛、社会负面影响更为巨大,而生成式人工智能的广泛应用,必将助推虚假信息的进一步泛滥。尤其是在各类突发性公共事件中,不实信息的网络传播将给基于网络大数据自动生产内容的AI机器人带来错误的“源数据”,使得AI机器人成为快速散布谣言的工具。此外,由于ChatGPT内容生成完全依赖于大量的数据库和语料库,而在网络场域的大量数据中充斥着种族主义歧视、性别歧视、色情、暴力、意识形态偏见等内容,加上各类文本、图像、音频、视频等多模态虚假信息的泛滥,必将给网络生态治理带来巨大压力。

(二)人机互动下的数字隐私泄露风险加大

当今世界,数据安全已经上升到国家高度[5]。如图1所示,在三种主要类型的应用场景中,人类用户在与ChatGPT开展对话时,时刻在进行着不间断的信息交互,包括用户性别、职业、喜好、知识水平、精神状态、情感立场等等,都可以通过特定方式被AI机器人整理分析,在算法技术之下,AI对用户进行数字画像的精准性也日益提升。当越来越多的社交互动平台嵌入ChatGPT插件后,这些精准画像将进一步成为对用户定点投放广告、定向推送特定商品的最有力工具。大量的个人隐私也将通过关联ChatGPT的应用软件不断被收集提取,形成一个个数字资料库,存在人机互动下数字隐私信息泄露的巨大风险。

(三)数字鸿沟加重社会层级分化

一般认为,数字鸿沟包括数字技术的“接入沟”和“使用沟”两个层面。然而,随着ChatGPT等新一代生成式人工智能大模型机器人的出现,人们在接入AI应用、利用AI技术开展社会实践、运用AI技术红利提升自身可行能力等方面呈现出一种新的数字鸿沟——“AI沟”。而且,从图1可见,对ChatGPT类生成式人工智能的利用,需要用户对AI技术的基本把握,尤其是在“人—机”互动反馈诸多环节,用户本身对相关问题核心要点的提炼、对AI机器人技术运行的引导,直接影响着AI应用的整体效果,这就使得不同人类主体之间AI技术红利差异的“AI沟”越来越大。这样的AI沟不仅仅是发生在个体与个体之间,还进一步向不同群体、企业、社会组织、民族国家等多元主体扩展。比如,在国家层面,各国由于在经济实力、人才储备、数字基础设施建设等方面的差异,无法在AI技术发展和应用中保持同步跟进,AI技术差距越来越大,造成全球AI技术发展不平等,AI治理体系话语权也逐渐被AI强国主导,滋生AI霸权主义。在企业和组织机构层面,不同行业AI接入应用程度不同,相同行业不同企业和组织之间发展不一,也将导致数字不平等的加剧。在个体层面,随着AI技术服务收费,数字贫富人口差距也将日益明显。可以看出,ChatGPT作为新一代AI应用程序,一方面使得AI技术进入寻常百姓家,另一方面也使得数字贫困人口在新技术红利上受到不平等待遇。

(四)人机交往单向化导致人类社会技术异化

事实上,对话和交流是人类社会生存的基本需求,而ChatGPT的出现,使得原子式的个体更加沉浸在虚拟空间对话之中,现实空间的社会交往将更加匮乏。美国社会心理学家雪莉·特克尔(Sherry Turkle)就指出,数字技术的发展在现实与虚拟之间建立了一个复杂纠结的关系,互联网尽管为人们提供了一个充满想象的虚拟世界,但却并没有给人们带来共同体的温暖体验,反而使得人们陷入一种群体性孤独之中,这是因为数字虚拟空间给人们提供的是一个“作出承诺而不必履行的连接”[6]。沉浸在这种日益单向度化的数字社会,人们无法期待面对面交往时所能够获得的情感与价值认同,只会在技术物化、技术异化的歧途上越走越远,而现实社会的建构更新与发展维系也将变得愈发艰难。实际上,特克尔提出了一个关系着现代社会建构和发展的关键命题——社会认同。英国社会心理学家亨利·塔菲尔(Henri Tajfel)在考察社会建构时最早正式提出了“社会认同”(Social Identity)概念,并将其定义为“个体认识到他(或她)属于特定的社会群体,同时也认识到作为群体成员带给他的情感和价值意义”[7]。塔菲尔认为,社会认同可以分为社会分类、社会比较和积极区分三个阶段,而各个阶段都是以人与人之间的社会交往与社会信任为基本前提。诚然,基于互联网的数字交往已经成为当下人们重要的交往方式,但是这种符号化的交往是一种身体“缺场”的交往,无法实现现实社会面对面身体“在场”交往中的个体情感与价值意义。

(五)新型人机关系带来科技伦理问题

一般认为,人工智能机器人对人类而言只是一种更为先进的科技工具,人机关系也限定在生产者与生产工具的关系范畴。然而,如图1中协同创作类型应用可见,以ChatGPT为代表的新一代生成式人工智能机器人的出现,使得数字内容生产成为人类与机器协作共同完成的过程,不管机器是否具有独立自主意识,但客观上已经分担了劳动生产的实质性任务。换言之,发端于特定的数字内容生产任务,在由人类发起的对话式的数字劳动过程中,人类是主导者,ChatGPT是协作者,聊天对话本身则是承载数字劳动的特定形式。毫无疑问,人类与ChatGPT在这里都成为了生产者,而ChatGPT内容生产所依赖的数据、语料、算法等则成为一种特殊的生产资料。由此可见,在人机对话数字内容生产中,ChatGPT已经成为与人类互动的行动者主体,一种新型的人机关系将成为AI时代重要的社会生产关系之一。与此同时,由于人们利用AIGC模型开展数字劳动的多样性,人机关系生产也必然呈现出多元化、复杂化的特点,必然会对其他各个维度的社会关系产生重要影响,也必将带来新的社会伦理问题。

四、ChatGPT类生成式人工智能的治理路径

近年来,随着人工智能技术在各行各业的深入发展和应用,加强人工智能治理已经成为社会共识。OpenAI首席技术官米拉·穆拉蒂(Mira Murati)在接受《时代周刊》采访时承认,ChatGPT面临的核心挑战是模型偏差,关键在于如何以符合人类价值观的方式来使用它,生成式人工智能需要监管机构介入,以防止对社会产生潜在的负面影响[8]。穆拉蒂是参与ChatGPT研发的核心人员,其对ChatGPT应用的预判和担忧具有象征性意义,作为AI机器人创造者的人类,需要对所创之物进行监管,更需要在如何运用技术这把双刃剑上作出审慎的思考,开展有效的技术规制与治理。如图2所示,应从五个方面全面加强对生成式人工智能的治理。

图2 ChatGPT类生成式人工智能的治理路径

(一)构建多元主体共建共治共享的人工智能治理共同体

随着ChatGPT类生成式人工智能等技术的不断深入应用,国家、政府机构、社会组织、企业、个体等多元主体都成为人工智能时代的利益相关者,各个主体在开展人工智能治理中有着不同的角色定位和阶段性重点责任。为此,必须充分调动各个主体参与治理的积极性、能动性,构建多元主体共建共治共享的人工智能治理共同体。第一,组织制定数字技术规划,加大对大型实验平台组建投入,加强大型网络通信、大数据中心、算力等数字基础设施建设,优化数字资源布局。第二,由主管部门和地方政府落实政策支持,研究出台不同应用场景下的AI管理办法,加强对算法的伦理审查,推动算法透明、避免算法黑箱和算法偏见,营造良好产业发展环境。第三,由社会组织推动技术交流、调研社会需求、推进产学研融合。第四,由企业主导产品创新应用,自觉建立分类分级的人工智能技术备案、审查和监管制度体系。第五,由个人用户做好产品反馈和规范化使用监督,不断提出产品改进建议,维护自身合法数字权益,督促产品更新和优化。

(二)强化人工智能技术的全过程治理

从虚假信息泛滥、数字隐私泄露、技术异化以及人机科技伦理等风险来看,加强对人工智能技术的全过程监管十分必要。第一,在ChatGPT产品研发和应用的算法设计环节,应落实算法备案制度,将履行告知义务、参数报备、参数公开和规定算法可解释权等治理手段纳入算法治理的公共政策考量之中。第二,在算法运行环节,ChatGPT基于与用户的对话交互,获取大量用户信息,应公开对话中的算法逻辑,恪守《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《关于构建数据基础制度更好发挥数据要素作用的意见》等数据信息法律法规,切实保护数据安全和用户个人隐私。第三,在算法反馈环节,要加强伦理数据标签分级分类,引导算法正能量,对危害公序良德内容进行伦理限制,对涉及违法犯罪信息应及时予以服务终止,并对用户进行警示性提示。第四,在算法更新环节,注重用户体验,切实吸收用户反馈,完善算法,提升服务效能。

(三)建立人工智能风险预警与干预机制

现代社会作为一种复杂社会、风险社会,往往会涌现出种种不确定性风险,人工智能作为当下人类社会科技进步的重要成果,既给未来带来美好生活的想象空间,也以科技的双刃性埋下种种伦理与社会危机。因此,必须加强对人工智能技术发展和创新应用的风险预警和干预。第一,要建立AI技术风险评估机制,由具备强制权力的政府主管部门来牵头,联合人工智能大模型重点企业、行业组织协会、高校科研院所、科技和社会治理专家学者等,进行充分的技术调研、风险预判。第二,要建立AI技术风险干预机制,在AI运行流程各个环节,以及各个应用场景,建立技术风险应急处置预案,从“人—机”互动各个环节,增加有效的人类干预因素、技术干预因素,防范各类突发性风险。此外,对于影响国计民生行业的AI技术应用,还应充分开展社会调研、事先征求意见反馈、接受社会监督,并在应用过程中秉持以人为本原则及时更新算法逻辑,更好的服务社会。尤其是要坚持数据安全是第一要义,必须对数据收集、存储、使用、管理、删除等进行严格的数字安全监管。

(四)推进人工智能产业统筹和协调发展

对于AI时代可能带来的“AI沟”,必须加强人工智能产业统筹,协调推进不同地区AI技术发展与应用,推进AI数字红利的全面普惠共享。第一,从国家战略层面出台相应的政策,引导产业扶持、税收减免、人才储备、科研项目配套,才能优化资源配置、协调各方利益、实现产业联动发展,尤其是要对技术欠发达地区给予政策倾斜,协调推进不同地区、人群之间的AI发展进程。第二,建立起健全的市场调研、产品运营、用户反馈等监管机制,重视对青少年、老年人、残障人士等群体的包容性创新发展,引导企业履行企业社会责任,设计青少年模式、老年模式等特定的人工智能应用模式,帮助数字弱势群体享受数字红利、提升数字能力,推动人工智能技术应用在各个社会群体中的协调发展。

(五)加强教育培训提升全民人工智能素养

从ChatGPT运行可能带来的社会层级分化、技术异化、人机科技伦理等风险可见,提升全民人工智能技术认知、技术水平和技术甄别能力已经十分紧迫。为此,必须加强对全社会的人工智能教育培训,提升全民人工智能综合素养。目前,对于人工智能素养应该包括哪些方面,各国有着不同的理解。比如,联合国教科文组织在广义上将人工智能素养界定为关于人工智能的知识、理解、技能和价值取向;芬兰则在实践层面上将人工智能素养概括为理解、适应和开发三个部分[9]。在学界,对于人工智能素养的内涵也有着不同的理解视角:一类是从能力论视角,认为包含个体适应人工智能时代的工作、学习与生活能力;另一类是从综合素质论视角,认为除了相关的知识与能力之外,还应包括与人工智能技术使用相关的态度和伦理等,包括AI概念、AI应用和AI伦理[10]。可以看出,不管对人工智能素养的定义与内涵存在怎样的不同理解,但在数字智能时代,提升全民人工智能素养的重要性已经成为基本共识。

猜你喜欢
人工智能数字用户
2019:人工智能
人工智能与就业
答数字
数读人工智能
关注用户
数字看G20
下一幕,人工智能!
关注用户
关注用户
如何获取一亿海外用户