陈 智
(中南大学 公共管理学院,湖南 长沙 410075)
2022年11月30日以来,OpenAI公司旗下具有强大自主学习功能的自然语言处理工具ChatGPT引发了全世界的热议,并成为活跃用户数量增长最快的应用程序,正在全面而深刻地影响人类的经济、政治、社会、文化、军事等各个领域。2023年3月,ChatGPT内嵌的GPT-4正式发布;5月,ChatGPT移动端的iOS应用程序正式上线;7月,ChatGPT安卓版本在Google Play商店中提供;7月6日,OpenAI官方宣布最新的大型语言模型GPT-4将通过其API(Application Programming Interface,应用程序接口)正式开放使用。基于此,以ChatGPT为代表的通用人工智能凭借前所未有的超高性能产出海量数据并提供相应服务,使软件从“命令驱动”(Command-Driven)升级转向为“意图驱动”(Intention-Driven),从而进一步助推人类社会加速迈向下一个发展阶段。
在技术模型上,ChatGPT背后的GPT-3.5是基于人工神经网络、由45TB语料数据(包含8 000亿个单词和1 750亿个参数)训练而成的;根据推算,新近的GPT-4已有接近100万亿个参数,约是GPT-3的500倍,更接近人类大脑中神经连接的数量;ChatGPT主要基于“语料体系+预训练+微调”的运作模式,是由LLM(Large Language Mode,大型语言模型)与RLHF(Reinforcement Learning from Human Feedback,基于人类反馈的强化学习)技术融合革新的生成式人工智能产品。
在功能属性上,ChatGPT的“Chat”意指聊天,其采用Web浏览器/iOS或Android等手机应用实现即时的对话交互,能更加高效、高质地满足用户“搜索引擎”与“问答社区”等现实需求;“GPT”即生成式预训练转换器(Generative Pre-trained Transformer),这类转换器中的训练数据虽源于书籍、文章、门户网站、用户对话等不同方面,但具有极强的信息整合和优化能力,能够对海量信息进行筛选和过滤,进而反馈清晰直观的数据内容。
在优势特性上,ChatGPT强大的学习适应性促使其成为一个用途广泛的工具,不仅能够通过吸收并理解人类的情绪表达和喜好习惯,更为快速、精准、自然地回应并满足人类各种复杂需求,还可以通过全方位、多频次、高效能的对话式训练,逐渐彰显出人工智能系统行为与人类价值意图的契合性和一致性,从而实现人机之间的进一步融合与互嵌。总体上,ChatGPT被认为开辟了通用人工智能(AGI,Artificial General Intelligence)的新时代,是从“弱人工智能”向“强人工智能”进击的关键一步。
但是,任何新兴技术发展都存在双刃剑效应。虽然未来的ChatGPT极具想象空间,甚至有专家认为其将彻底改变人类世界,但任何跨越式进步往往都伴随相当的风险性,尤其是人工智能算法因其强大的计算能力和逻辑不可知等而更难以被有效规制[1]。因此,ChatGPT及其应用如何在技术创新和公共价值之间、在促进发展与保障安全之间实现平衡,亟待学界融合学理视角和政策情境等展开进一步探析。
当前,ChatGPT相关研究已成为我国计算机科学、法学、教育学、传播学、伦理学、公共管理学等学科的热点话题。其中,主要从3个层面展开探讨:一是从宏观层面概览ChatGPT的全景全貌,大多以“三段论”形式进行整体性论述,例如,探析ChatGPT的本体、影响及趋势[2]、挑战、发展与治理[3]、机遇、风险和挑战[4]等;二是在中观层面基于某学科门类或专业领域,聚焦ChatGPT的应用价值及问题思辨,例如,阐析其在经济循环体系[5]、数字政府建设及其治理[6]等现实政策背景下的前景与隐忧;三是以微观视角引入并使用相关理论范式,对ChatGPT展开更为深入的系统性解构,例如借助可供性视角[7]以及包容性治理[8]、韧性治理[9]等系统范式,进一步考察ChatGPT及其应用的学理意涵与系统架构。
诚然,我国ChatGPT相关研究日益丰富和深入,但在整体上缺乏足够的学理性和系统性进行支撑与延展,学理价值提炼和发展路径建构等方面仍存在较大研究空间。宏观层面,大多数研究均基于特定学科或行业领域的“平移式”或“嫁接式”构想,将ChatGPT矮化为一个跟风性的“标识”或“符号”,而忽视了其丰富多变的公共性和社会化属性,难以提出更具针对性和长期性的监管建议;理论解析层面,大多数研究偏向ChatGPT的“GPT”而非“Chat”,并且对其正负外部性分析大多停留在经验阐述层面,未对其中的深刻学理性进行挖掘和整合,造成整体性分析框架和治理范式缺失。并且,大部分人工智能所引致的社会风险不仅仅是技术导致的,而是与社会结构融合互嵌、同频共振后不断显现出来[10]。因此,学界针对ChatGPT的研究触角应当回归到社会化的实际应用中,进而系统探析其背后的学理逻辑与发展策略。那么,ChatGPT的应用具有哪些学理化特质?呈现出怎样的演化发展过程?又需进行怎样的系统性规制与治理?上述问题能否建构起一套整体性的研究框架?这些都是本文拟重点回应的内容。
每当新兴技术出现时,其发展走向都是难以预判的。但是,透过ChatGPT的应用过程,可在理论高度把握人机传播发展的规律与逻辑,以更好地认识、接纳并规制人机之间的各类传播实践。ChatGPT作为一项快速应用又影响深远的新技术平台,学术界对其认知应用还处于较为浅显的阶段。因此,有必要穿透ChatGPT的技术表层,将分散化、碎片化的应用解读升级转向系统化、动态化的逻辑考量,从而形成ChatGPT由表及里、由虚向实的科学研究范式。
系统理论的一般性研究框架是由肯尼思·博尔丁等学者于1956年归纳出的一套可供理论话语使用的层次性分析框架。之后,这一框架进一步被简释为“物理层”“操作层”“战略层”三个递进层次。首先,“物理层”是人类社会所创造出的机械、工业、通信技术等附随的物理形式,在本文研究范畴中首要需明确ChatGPT应用的前置性、基础性的“技术特性”;其次,“操作层”是为达到某一具体目标所采取的一系列行动实践的过程性集合,其强调一种应用发展的互动性和延展性,因而深入研讨ChatGPT应用具体的“演化过程”成为联系理论与实践的关键;最后,“战略层”是指在长期建设发展中所需遵循的战略目标、规划任务以及实施措施等[11],集中指向一种前瞻性、长期性和动态性的“治理方略”,需要融合顶层设计和行业规范等展开进一步的战略路径规划。基于此,在总体系统层次下衍生的“技术特性”“演化过程”“治理方略”三大议题可作为考察ChatGPT应用发展的核心研究思路和内容。
结合人工智能实践与理论对话的必要性,以及分析框架的整合性和系统性要求,本文拟将“韧性”作为一种解构并建构ChatGPT应用的核心概念与发展指向。“韧性”最早出现于自然科学领域,原意是材料在塑性变形和破裂过程中吸收能量的能力。20世纪90年代后,“韧性”被引入到社会科学领域,进一步融合“刚性”和“柔性”的优势属性,表现出在复杂社会生态系统中的灵活适应、协同包容、创新变革等正向发展能力。“演进韧性”是在“韧性”能力特性上进一步的具化和延伸,其聚焦于系统动态演化中的事物能否持续应对现实危机或潜在风险,强调系统需要源源不断的适应力、学习力和转型力等,以期共同发展进化并“弹向更好状态”[12]。“韧性治理”则是一种内嵌并综合韧性内涵的新型治理范式,其中包含多元主体为了应对常态化或突发性风险所积极采取的维持组织稳定和促进组织变革的治理行动,并强调在风险治理过程中能够有章可循、有的放矢地纾解各种负面影响,进而迅速恢复甚至超越原始状态[13]。
如图1所示,“韧性”是ChatGPT应用的关键技术特质,从“韧性”到“演进韧性”体现出其应用发展的“实然”过程,“韧性治理”则指向应对风险的“应然”状态。ChatGPT应用一方面扮演治理主体和工具的角色,持续发挥其赋能社会生活的“韧性”效用;另一方面,其作为治理的客体和对象,在与社会的互嵌与摩擦中,亟需构建起一套新的治理方略和行动范式。本文借助系统整合、互动演进、长效发展的“韧性”—“演进韧性”—“韧性治理”系统化视角,廓清ChatGPT应用的现实样态,旨在识别和应对现实发展中的亮点与痛点,进而在学理层面提升理论范式的实际价值。
图1 ChatGPT应用的“韧性”—“演进韧性”—“韧性治理”系统化呈现Fig.1 Systematic presentation of "resilience" - "evolutionary resilience" - "resilience governance" in ChatGPT applications
ChatGPT作为当前影响最为广泛和深远的应用之一,其持续扩散和发展的关键就在于搭建了强大的“平台—用户”互动反馈的基础架构,针对市场和用户需求,供给高效率、高效能的信息服务,从而在更大程度上吸纳广大受众并抢占行业市场。ChatGPT基于“大数据+机器学习+模拟演练+微调变换+加工输出”的人机智能交互应用程序,正在广泛融入并应用于“To B”即产业端(加速自动化,促进技术进步和新要素创造)和“To C”即消费端(通过内容生成,提升消费者效用)[4]。其中,“韧性”可被用于解析ChatGPT应用面对现实情境及风险挑战时所体现出的一系列能力特性。具体来看,“韧性”一词除在能力层面蕴含社会生态系统抵抗外来干扰而不被损毁之意,也在过程意义上强调经历外来干扰后能自我调适、学习并提高综合能力,进而变得更具韧性[14]。“韧性”不仅是一种静态能力(Ability)的基础象征,更是一种动态过程(Process)的有力体现,能够作为一种有效的解释性工具嵌入到ChatGPT的“To B”和“To C”两大应用层面之中。
“To B”意指面向产业/行业客户的功能应用。目前ChatGPT在现实应用中彰显的通用性(Generality)和普适性(Pervasiveness)愈发凸显,对医疗、教育、金融、咨询、媒体和游戏等行业都产生了重大影响,并带来规模化、平台化、场景化的跃迁升级,成为一项名副其实的颠覆性科技(Disruptive Technology)。
一方面,ChatGPT应用体现出开发兼容的优势特性。当前,ChatGPT可以通过迅速适应调整来应对行业需求变化,在不同领域问题上提供及时有效的帮助。例如,在法律行业,ChatGPT凭借对“法言法语”良好的理解能力,能够与法律人形成良好的人机协同关系,为全面提升法律服务的数量、质量与可及性带来可能;在客户服务中,ChatGPT能够吸纳不同产品或服务的特点,并通过提供个性化建议,改进客户服务体验,减少人力资源需求等。这些“韧性”特性有助于其快速适应各种环境和任务,并提供个性化、专业性和高水平的即时服务。此外,ChatGPT应用的兼容性也进一步显现。2023年3月1日,ChatGPT的API正式开放使用,其中,0.002美元/1000 token的定价仅为GPT-3.5价格的1/10。这种API搭建的兼容性应用生态网络,在其限定规则的情形下,允许参与者进行外部扩展应用,进而为应用生态作出更大贡献。例如,微软公司已通过ChatGPT API与Office办公软件、Edge浏览器及Windows系统等捆绑应用;一些OpenAI早期的合作企业也试用了ChatGPT API,包括但不限于社交平台Snapchat、电子商务平台Shopify、在线学习平台Quizlet等。
另一方面,ChatGPT应用呈现出开放包容的发展形态。ChatGPT带来的认知突破和范式转变,能够培育出推理、整合和共情能力,进而助益于不同行业领域的广泛应用。综观ChatGPT“通用技术”的表现,当前已然形成围绕其迭代升级所构建的开放包容的生态环境,对各行各业都产生如同毛细血管一般的联动影响。当然,除直接引入并应用ChatGPT API之外,泛AI行业中的诸多平台也在通过创新独立产品抢占市场。短短半年多以来,国际头部企业Google、Meta、Amazon等以及国内知名企业百度、阿里、腾讯等都先后宣布将基于自主研发的新技术,开发ChatGPT同类的产品和服务等。在ChatGPT浪潮的强有力冲击下,中国企业在大模型方面的竞赛尤为激烈。根据中国科学技术信息研究所2023年5月发布的《中国人工智能大模型地图研究报告》,国内大学、科研机构、企业等不同创新主体都在积极参与大模型研发,目前中国10亿级参数规模以上大模型已发布了79个[15]。例如,2023年3月16日,百度发布国内第一个面向大众群体的大语言模型“文心一言”;4月11日,阿里巴巴集团旗下阿里云研发的超大语言模型“通义千问”在阿里云峰会上正式揭晓;5月6日,科大讯飞的“星火认知”大模型在经过5个月集中研发后正式面世。这些类ChatGPT平台应用往往以其庞大的数据代码库、具有竞争力的存量用户以及营销能力等作为支撑,进而展开一系列战略规划和市场竞合行动。当然,这些类ChatGPT平台能否追赶上ChatGPT本身发展速度与高度,甚至在某些方面提炼并演化出独特性优势,尚需经历更大范围和更长周期的市场化检验。
“To C”层面的应用意指面向广义上的普通大众用户。与此前大多数人工智能系统只能处理特定任务或应用于特定场域不同,以ChatGPT为代表的通用人工智能已从实验室走向普罗大众,其低门槛和高性价比可以让越来越多的人共享技术红利。可以说,大众化和社会化的本质特性正是ChatGPT及其应用快速收割并不断拓展的根本动力所在。
一方面,ChatGPT在应用上体现出强大的学习自适特性。从应用模式来看,ChatGPT能够使用自然语言进行交流,并在文本到文本(Text-to-Text)、文本到图像(Text-to-Image)、文本到视频(Text-to-Video)、文本到任务(Text-to-Task)等过程中保持人机连续性对话,吸纳并整合不同指向性的信息内容,进而强化对话主题的一致性和专注度;从应用情境来看,ChatGPT可以灵活适用于不同用户需求,通过自主学习和数据分析,深入了解用户个性偏好和语言习惯等。例如,在教育应用领域,ChatGPT能够针对不同年龄段、学科和教学方式提供个性化辅助教学,并根据学生需求和反馈,针对性地回答问题、提供解释、展示示例等,从而一定程度上提升学习效率和效果;从应用迭代来看,ChatGPT于近期推出新的Code Interpreter(代码解释器)功能,其学习自适功能正在持续性地迭代升级。该功能支持用户直接上传并处理本地文件,满足大众便捷交互、强化学习、简化工作的目的,俨然成为一种处理繁杂信息的“万能工具”。在此基础上,ChatGPT本身也在愈发丰富、高频、可持续的功能应用中实现自主学习和持续迭代。
另一方面,ChatGPT在应用中具有突出的类人调适功能。一项技术、产品和应用越是强大,越是具有极大的社会性和公共性,就越接近公共物品的属性[16]。虽然普通用户使用ChatGPT仍有IP注册门槛、会员制服务等限制,但整体上ChatGPT应用的“韧性”特质愈发显现,尤其在人机互动中体现出超前的类人调适功能。在基础应用层面,ChatGPT对广大用户几乎有问必答、有求必应,接受随时随地的“差遣”和“调教”,进而辅助甚至替代人类进行思考决断;在交流互动层面,ChatGPT在量化和质化数据分析与处理上进步显著,尤其是在自然语言识别与处理方面,解决了语言情感分析的问题,在日常对话中表现出“高智商”以及更为难得的“高情商”,能够在字里行间透露出对用户的关心、担忧、抱歉甚至是有意识地讨好、取悦等;在模型发展层面,任何技术的赋能从来都不是单向的,同样需要考察用户对技术的实时供给和交互修正。人机对话的规模越大、频率越高,ChatGPT回答的内容往往就越具体、越准确。但也有研究警告,尽管ChatGPT具备了较高的类人属性和社会价值,但其中的信息处理和情感理解能力可能只是一种表象。基于此,大众在任何场景中使用ChatGPT等人工智能产品,始终需要结合人类的专业知识和判断力进行综合考量。
值得一提的是,除“To B”和“To C”两大主流层面的应用外,“To G”即在政府应用及其相关治理层面将ChatGPT深度嵌入政府管理服务、赋能公共治理智能化的案例和研究也在不断增加。根据新加坡《海峡时报》报道,有关技术开发部门正将ChatGPT整合应用到政府的内部办公系统之中,新加坡的公务员未来将使用ChatGPT来辅助撰写研究报告和演讲文稿等[17]。可见,ChatGPT应用发展的“韧性”张力仍在不断演化进步,未来亟需结合“演进韧性”系统展开更为具体深入的研讨。
韧性并非总是静态或正向地表达呈现,在演进过程中也需考察不同情境下的系统样态。Gunderson &Holling(2002)在“演进韧性”视阈之下,提出诠释系统运行周期和关注变化中持续性的“适应性循环(adaptive cycle)”系统,其中主要包含开发(exploitation,r)、保护(conservation,K)、释放(release,Ω)、更新(reorganization,α)四阶段[18]。各阶段之间,系统往往表现出不同的连通度和适应性,进而呈现出不同的韧性水平。诚然,上述四阶段虽然难以概括ChatGPT应用演化的所有形态,但足以对其半年多以来的快速迭代进行学理架构和经验剖析。另外,需指出的是,四阶段也可能是交错重叠的,并不一定按照线性顺序演化发展,因此,需结合具体情境具体分析,为韧性治理的系统建构指引方向。
系统处于开发(exploitation,r)阶段时,系统内部要素的联结度不断增强,这些韧性快速积累进而促进系统高效发展。初始的ChatGPT模型被训练和测试,并开始广泛应用于各种现实场景中,其中主要关注系统开发、功能实现和性能提升等,涉及数据收集、模型选择、模型训练和调优等阶段性任务。
从开发迭代的过程来看,GPT-1到GPT-4仅用了5年时间就实现了5次迭代,最新一代模型GPT-4在其前身GPT-3.5(即ChatGPT)发布3个月后即被推出。尽管OpenAI公司在推出ChatGPT之前非常谨慎,也进行了长时间测试,但作为人工智能奇点涌现的GPT-4从理念提出迄今也不到10年时间。可以说,生成式人工智能大模型的开发迭代正是以GPT-3.5为分水岭,之后更高版本的迭代可能变成以月、周甚至天为单位。
基于如此快速的技术迭代和技术延展,ChatGPT应用的效率和效能也得到进一步提升。计算机生物学领域的专家学者进行了科研实验,ChatGPT在几秒内完成了论文各部分修改,手稿审阅速度为5分钟/次,甚至可以发现方程引用错误,消耗成本仅为0.5美元/份[19];而最近的一项关于人工智能生产力效应的实验研究表明,使用ChatGPT完成任务所需时间减少40%,并且完成质量比不使用ChatGPT高出18%[20]。可见,依托超强的自然语言处理能力、智能增强性、前瞻预测性、强大记忆力与真实场景等多样化“韧性”特质,ChatGPT的开发应用可能产生“人人皆可为学者”的图景。
根据《自然》杂志在线调研显示,约80%以上用户使用过ChatGPT,8%的用户每周至少使用一次;57%的人表示他们使用ChatGPT或类似工具是为了“无关研究的创意乐趣”,16%的人把它作为撰写研究手稿、制作演示文稿的私人助手[21]。但不可否认的是,ChatGPT发展迭代的背后仍面临数据、算力和创新环境等深层次因素的制约,在不同地区、不同场景、不同情境下开发应用的广度、深度和稳定性等各方面尚存很大进步空间,因而需要注重进一步的稳固和调整。
在保护(conservation,K)阶段,系统各要素关联性和适应性增强,进入一个相对平缓的状态,但外界环境变化也考验着系统的承托能力和适应能力,否则可能陷入韧性较低的情境之中。由此,ChatGPT必须关注系统的稳定性和可靠性,以解决应用情形中的各种难题,例如语义理解不精准、系统中各类漏洞和错误等。
一方面,ChatGPT囿于功能的局限性以及不确定、不稳定等问题而遭到质疑。首先,ChatGPT往往只能根据给定的训练数据信息作出反馈,而无法完全理解对话中的确切意涵或真实语境;其次,由于算法模型的“黑箱”效应,ChatGPT易将虚假信息包装成看似可靠的东西,输出不符合科学常识的答案;此外,ChatGPT也可能利用其先前从训练数据中发现的语言规律,对现实中“不合理”的内容进行“合理化”编造,进而产生所谓的“幻觉”(Hallucinations)。基于此,在应用ChatGPT完成各项任务之余,用户也难免遭遇一定的风险。例如,美国律师史蒂文·施瓦茨(Steven Schwartz)因使用ChatGPT制作了一份包含虚构的司法意见和法条引用的法律摘要,遭到当地法院的罚款和惩戒[22]。
另一方面,ChatGPT也因能力过强、发展过快或具有侵略性而受到限制。OpenAI公司发布的《GPT4.0技术报告》将“用户的过度信赖”列为GPT系统存在的重要风险之一[23]。有研究指出,不同社会利益群体利用这些工具,沿着“数据—信息—权力”的路径生成“算法权力”,争夺“民意”或“政策”的解释权,可能对现实的社会治理实践产生深层影响[24]。尤其当ChatGPT嵌入到政府治理环节中,设计者的主观意志与价值选择将会显现,并或多或少地引发偏见和歧视,冲击政府的行政伦理。2023年3月29日,著名安全机构生命未来研究所(Future of Life Institute,FLI)发布公开信,呼吁暂停开发比GPT4.0更强大的AI系统,并提倡在6个月的暂停期内出台相应治理制度。这份公开信目前已获得一千余名科技领袖和研究人员签名[25]。
总体上,火爆出圈的ChatGPT正在颠覆人与技术之间的关系,凭借“无远弗届”的特性迅速壮大并持续调适升级,但在市场和大众的“欢呼声”中也夹杂着越来越多的“惊呼声”,因而需要以动态性视角围绕ChatGPT应用的风险及其应对作进一步解构。
如果不能对现有风险作出及时处置,抑或技术应用的迭代远超治理水平的跟进,将可能导致韧性结构和能力走向式微,从而进入到集中的释放(release,Ω)阶段。在此期间,更高层级、更大范围、更强频率的风险性将进一步涌现出来。例如,ChatGPT在技术伦理、法律规制、知识产权、数据安全等方面的现实争论不断发生,甚至遭到不同国家、行业部门的禁令或警示,因而ChatGPT亟待通过功能调试和技术维护等加以及时有效的应对。
人工智能技术指数级迅猛发展与人类的思想观念、政策取向、伦理规制等之间的非协调性,导致人类在享有技术便利性的同时,也面临诸多不确定性风险[26]。一是人机矛盾问题,由于人类知识广度和深度受到各种约束,人的智力和创造力或将远落后于ChatGPT,并且在机械化、程式化的信息影响下,人们将不自觉地受困于程序编织的信息茧房,进而对信息流的处理能力造成极大干扰,技术或将实现对人类主体性的僭越,最终导致人机关系发生颠覆性改变;二是数字鸿沟问题,在ChatGPT Plus付费制的背景下,将可能加剧“信息孤岛”和“数字鸿沟”的现实风险,尤其对于社会交往能力下降的老年人、部分残障人士以及数字基础设施欠缺的落后地区居民,形成“数字贫困户”,面对ChatGPT等人工智能应用时,信息障碍可能使技术鸿沟越拉越大并且更加难以逆转;三是技术性失业问题,外媒盘点了易因ChatGPT失业的工作类型,主要包括技术工种、媒体工作者、法律工作者、市场分析师等十余种[27]。积极派认为,每一次技术进步都会替代很多职业,因此,ChatGPT并不会带来集体性失业,而将推动就业结构调整升级。消极派则指出,与前三次人工智能浪潮不同,当前就业的技术性转移瓶颈过高,新岗位批量出现的概率较低,因而此次失业浪潮可能难以逆转[2]。
当前,ChatGPT虽在短时间内无法解决所有自身相关问题,尤其人类伦理层面的问题将始终存在,但结合相关风险仍可采取同步甚至超前的应对行动。在功能修复方面,ChatGPT虽多次因用户量激增而宕机,或因开源库中的错误导致用户姓名、电子邮件、地址、支付地址等隐私信息泄漏,但其往往能在短时间内修复漏洞,且问题发生概率越来越低,处理效率成倍数提升[28]。在功能升级方面,2023年7月20日,ChatGPT推出名为Custom Instructions的自定义指令/个性化定制功能,此功能还扩展到了插件,通过与使用中的插件共享相关信息改善用户体验,以帮助用户更好地利用智能技术;同时,近期增加了对ChatGPT Plus付费用户的消息限制,仅允许他们每三小时最多发送50条消息,旨在为付费用户和普通用户的互动提供更多便利性。在功能保障方面,为了更好地服务用户并降低相关风险性,ChatGPT也从技术层面四处“打补丁”,例如,推出专门的Moderation API来拒绝或忽略导致违反这些政策的用户指令,或是建立专有的自然语言调用语料和指令数据集,从而实现大语言模型对其它系统的精准调用。
经历“开发”“保护”“释放”后,“更新”(reorganization,α)阶段相当于经济社会遭遇波动后采取的重组与创新,系统将进入一个不断反馈调整、适应学习,进而重新组织和建构的状态之中。根据分析公司SimilarWeb最新数据显示,ChatGPT自2023年6—7月全球网络流量下滑约10%;自2023年3月以来,用户在网站上花费的时间也逐月下降,从平均8.7分钟减少到8月份的7分钟[29]。基于此,结合现实应用情境中的正负外部性以及发展趋势,接下来ChatGPT需作出更具全局性、系统性、及时性的策略回应。
任何技术创新都内含“奈特不确定性”(Knightian Uncertainty),并且功能越强、迭代越快,不确定性就愈发涌现,“人机共生”的背面将充斥各类矛盾冲突的暗流涌动。目前,ChatGPT正以广泛的感知、平台和技术可供性遮蔽其背后的不透明性和不确定性等,虚假信息的泛滥、道德伦理的异化也成为国内外监管机构的最大担忧。例如,生命未来研究所发布的公开信中质问道,“是否应该开发最终可能在数量上超过我们、智慧上超越我们的非人思想来淘汰或取代我们?”[25]。针对这一本质性问题,目前最常见的方案是在政策和组织层面限制ChatGPT的技术迭代进程。但可以肯定的是,大多法律规制的目的和用意是将风险控制在可接受的限度内,几乎不可能消灭所有的损害风险,发展性和风险性将处于长期制衡之中。
系统“更新”阶段往往更需韧性力量的注入,从而支撑并推进整体系统的存续发展。但随着智能技术持续迭代,ChatGPT等平台应用更加独立自主,人们将愈发信赖和依靠机器而逐渐远离自身的意识和行为,其中的“韧性”特质也可能异化或退化为一种“任性”风险,并且更加隐蔽化、随机性地嵌入到人类社会方方面面。根据《GPT-4技术报告》,早期的GPT-4仍存在巨大的风险隐患,不仅是信息内容的准确性问题,更存在被诱导性阐述的问题,包括会被诱导回答违反法律禁止性规定、违背伦理、种族歧视、伤害行为等问题[23]。基于此,《自然》杂志给出了进一步研究亟待重点关注的5个问题:务必要对模型进行持续校对;制定问责制与规则;投资于真正开放的大语言模型;拥抱人工智能的好处;扩大辩论范围等[30]。这些问题也进一步成为国内外人工智能相关政策规范的核心导向和关键内容。全球范围内,在《人工智能责任指令》(AI Liability Directive)、《人工智能法(草案)》(draft AI Act)的基础上,欧盟正在推进其《人工智能法案》的最后立法进程;美国和日本等发达国家也预计在2023年年底前出台监管政策。
总体上,导致ChatGPT等人工智能风险涌现的根本原因在于世界资源有限性与人类和人工智能需求无限性之间的矛盾,核心诱因则在于人类社会资源分配不公、法律规制不明等现实问题。关于合法性成本过高是否会扼杀技术应用的创新发展,这是一个国际社会不断辩论并且持续推进的关键课题,同时也启示ChatGPT应在新一轮的韧性演进发展中可持续地改进升级。
作为一种灵活适应于情景变化的治理范式,“韧性治理”的系统性、包容性、演进性恰好契合ChatGPT的发展特性和改进需求等,同时,与我国推崇的“包容审慎”监管原则存在较高的匹配度和融合度。其中,从整体性和系统性的角度出发,制度、技术、组织可视为面向ChatGPT应用风险治理的3个重要维度和梯度,系统建构起以制度规制为核、以技术发展为先、以协同建设为基的韧性治理路径,将成为当前及未来推进人工智能应用可持续战略发展的必然选择。
与“演进韧性”的研究范式相对应,“韧性治理”同样强调系统性、过程性、发展性等基本规则。在对区块链、算法推荐、深度合成等立法之后,我国对生成式人工智能这一新兴领域进行了又一次探索。随着2023年4月11日发布的《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《征求意见稿》”),以及2023年7月13日出台的《生成式人工智能服务管理暂行办法》[31](以下简称“《暂行办法》”),“规制法”还是“促进法”的争论在短时间内得到了最优解,中国人工智能的立法已步入崭新阶段。相较于国际社会尤其是欧盟相关规制办法,中国人工智能相关制度规范更强调一种立足国情的发展性和平衡性。坚持“包容审慎”的基本原则以及“负责任的技术创新”的发展宗旨成为ChatGPT可持续应用迭代的核心遵循,其中突出强调的包容性、冗余性、响应性、反思性、可持续性等,需在“韧性治理”系统范式下作进一步融合与建构。
技术应用问题的复杂度决定其治理必须延伸到制度规制的全面构建。如何在ChatGPT应用的优化改进中考虑更多的社会公平理念,又如何使其更加科学性而非投机性地融入社会实践,成为韧性制度营建需要不断深耕的课题。
一方面,《暂行办法》是我国在平衡科技发展与科技安全两者关系方面所进行的有益探索。在新兴技术及其应用发展中,技术发展与技术安全如何平衡是一个永恒的关键问题,尤其是与传统的网络空间相比,人工智能领域往往具有更为突出的不确定性与不可控性。基于此,《暂行办法》的价值取向之一正是确保安全,“实行包容审慎和分类分级监管”是其中的核心观点和价值导向。这是对既有安全三法(《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》)的承接,也是对《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等相关规定的吸纳。此外,与欧盟等以风险预防和责任追究为中心的立法不同,中国《暂行办法》的用意并不止于管控,还用大量篇幅表达出推动产业发展的方向,尤其强调“鼓励生成式人工智能技术在各行业、各领域的创新应用”,这不仅能让企业方更清晰、高效地开展相关工作,也能促使生成式人工智能的研发降本增效。可以预见的是,未来生成式人工智能的标准规范、技术研发、内容创作、行业应用等生态体系架构将日趋完善。届时,无论是ChatGPT赋能各行各业升级,还是以ChatGPT带动社会大众进步,都将在法治框架下更加健康有序地推进。
另一方面,在总体国家安全观指导下,亟需进一步完善相关法律体系,构建韧性化的技术发展环境。诚然,科林格里奇困境(Collingridge's Dilemma)始终伴随人机互动的动态发展,但在ChatGPT应用中必须要求其符合相关法律监管。《暂行办法》中强调“国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管”,并指出“提供者应当明确并公开其服务的适用人群、场合、用途,指导使用者科学理性认识和依法使用生成式人工智能技术,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务”[31]。总体上,目前《暂行办法》不论是技术界定、组织建构还是相关条例呈现等,都强调建构协调有序的动态发展环境,追求一种技术向善的韧性治理与发展路径。而面对日趋复杂化的风险治理格局,未来仍需通过韧性制度的系统考量和动态支撑来有效应对风险。其中,应重点探讨《暂行办法》将如何升级为建设人类命运共同体的关键策略,共同推动负责任创新伦理进一步走向世界领域。
面向ChatGPT应用的战略路径建构,拥有自适性和学习性的ChatGPT本身也可成为韧性治理的关键。自组织(Self-organization)是研究客观事物自身结构化、有机化、有序化和系统化过程的理论,其认为社会经济系统演化的根本力量在于系统内部的自组织力量,强调系统内部各子系统能自行按照某种规则形成一定的结构或功能等。由此,面对ChatGPT及其应用中的各种风险溢出现象,首先应依靠其技术优势予以自主优化和全面改进,从而在更大程度上助推整个韧性治理进程。
相较于之前的《征求意见稿》,近期出台的《暂行办法》中多了一项法律依据即《中华人民共和国科学技术进步法》。其中的指向性也十分明确,即未来ChatGPT应用将侧重“发展”而非一味地“限制”。诚然,通过学习人类数字化文明而形成的ChatGPT不是绝对可信的,但其可信度具有一定稳定性和可测性。因此,“治理ChatGPT”决不能脱离“运用ChatGPT治理”的基本逻辑路径,具体可以从技术理念、算法应用和安全规制等多个方面开展具体的战略路径建构。
在技术理念上,ChatGPT可通过自主性、反应性和机动性的经验学习,以技术上的自我修复和自我调整应对系统中的故障或错误。一方面,ChatGPT可以实现从生成到创造层面对人类的“超模拟”,其所使用的生成模型主要包括生成对抗模型、自回归模型、变分自编码模型、流模型以及扩散模型;另一方面,针对算法伦理缺陷,需要建立机器自我审查和自我纠偏体系,为其突破的伦理边界建立“围墙”,达成一致性的技术伦理准则,并进一步明确技术发展指向[32]。
在算法应用上,数据是ChatGPT深度学习的基础,也是作出问题反应的重要资料,ChatGPT需在提高数据安全性和对齐性(Alignment)等方面加大力度,保障机器在公开、透明的环境下进行数据学习与挖掘。一是要加强算法检验,在日常机器学习训练中,需要掌握ChatGPT话语规律和决策动向,加强限制回答违法违规问题的算法调配,并采取强有力的保护措施,防范私人信息被无端侵入;二是加强模型的调试与平衡,当给予不合法的输入时,ChatGPT可能会产生不受欢迎的信息内容,但ChatGPT也可能表现出对安全输入过于敏感谨慎,因此,在与人类反馈对话中仍需找到更好的平衡点。
在安全规制上,亟待加强数据遭受攻击的全方位情境训练,建立健全防火墙保护机制。需要明确的是,《暂行办法》中强调要“采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性”[31],蕴含着一种柔和的、渐进的做法,并非严禁出现不准确的内容。因此,针对ChatGPT输入问题、输出决策时产生较多问题等方面,需要关注错误关联特征,并在反馈训练中不断纠偏,使输出的话语体系逐渐完善。这将成为以ChatGPT为代表的人工智能产品强化其合法性和有效性的关键所在。
人是万物的尺度,尤其在韧性治理层面,既需要技术的“力度”,也需要人的“温度”。在整体上,ChatGPT等人工智能未必能够达到人性化治理的实效。当前,面对ChatGPT生成传播中“人”的因素被弱化的事实,以及数字化建设中呈现出一定的碎片化、分散化发展倾向,组织需要通过有效嵌入和有力施展,助力韧性治理的全过程和全环节。一方面,《暂行办法》是由国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局等七部门联合发布的;另一方面,在《暂行办法》中也强调“支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作”。由此,在韧性组织治理上,应当赋能引导多主体各司其职、群策群力,进一步聚合并释放出协同建设效能。 首先,政府部门一般具有更高的权威性和统领性,在制度规范和政策指引方面提供强有力的支撑。根据《暂行办法》中的“监督检查和法律责任”,“网信、发展改革、教育、科技、工业和信息化、公安、广播电视、新闻出版等部门,依据各自职责依法加强对生成式人工智能服务的管理”[31]。由此,各部门需结合自身在各领域的韧性能力与经验,以组织协同建设的方式协同抵御风险的生成演化。国际上,加拿大、新加坡、英国、芬兰等国家的政府部门都开展了针对ChatGPT的素养教育,这将有利于减少社会伦理风险。
其次,具有专业性的行业组织、企业以及其它社会组织也可加入协作阵营,寻求一种“资源互补、信任互赠、责任共担、治理有效”的多主体治理方案。例如,可以建立行业间的大数据协同体系,推进信息共建共享共治,提升ChatGPT应对问题的专业化程度。而企业方则可利用成熟的信息资本、强大的技术能力以及市场化、社会化运作的经验模式,为ChatGPT应用的发展与治理贡献优势效能。
最后,以广大用户为基础的社会力量同样不容小觑。大众是ChatGPT社会化应用拓展的主要服务对象,他们更容易接触、感知并揭露各类现实性应用风险,因而在发现ChatGPT应用不符合法律、行政法规和相关管理办法的情形下,用户应当有意识、有责任向当地主管部门投诉举报,通过意见反馈给予韧性治理以更强的社会参与性和政策说服力,从而在组织统筹和技术建设中强化人工智能技术真正为民所想、为我所用。
此外,行业自律和自我规范是组织建设的应有之义。利用元规制治理ChatGPT的风险性,不论从正当性抑或有效性考量,其中的参与者和处理者都应承担相应风险[33]。作为ChatGPT及其应用的核心创造者和改进者,相关科学家、技术服务人员以及营销管理人员等也需加强行业组织自律,同时强化与政策制定者的共商协作,从源头控制和缩减风险性的衍生,并有责任防止群体或个人利用技术走入灰色地带,否则也需承担相应的“风险代价”。
当前,“共同构建网络空间命运共同体”的主张逐渐成为全球共识。《暂行办法》中也特别强调,“鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,平等互利开展国际交流与合作,参与生成式人工智能相关国际规则制定”[31]。可见,针对ChatGPT的广泛应用及其快递迭代,国家和地区之间的合作治理具有更强的必要性和迫切性。回到“韧性”不易破损、越挫越强的原意,“韧性治理”的理念贯彻在很大程度上仍依赖于算法责任的合理分配以及组织建设的联动赋能,进而在集体协商与规范共治的指引下,不断促使人工智能技术的可控性落地。
无论盛赞或诟病,都是数字化转型进程中对生成式人工智能应用的考察与注解,旨在引导其向善发展,进而增进人类福祉[34]。在效率优先、复杂多样且充满不可预测性的应用中,各类风险性也在不断扩散和延伸,成为制约人工智能发展甚至人类社会进步的最大不确定性之一。针对ChatGPT“实践大于理论”以及“业界超越学界”的现实趋势,学界尚缺乏一套具备理念和实践张力的治理范式,对其正负面功能以及规制路径等进行系统研究。基于此,结合ChatGPT应用的创新性、开放化、共享式主题背景,本研究以具有系统化思维、公共服务价值导向和综合应对机制的“韧性”范式进行解构和建构,从“韧性”“演进韧性”以及“韧性治理”等方面解释技术应用的特性,探析发展过程中的演进状态并融合建构整体治理路径等,从而形成一套整体性、全局性、普适性的认知系统框架,有助于学术界和实务界更好地理解、应对并规划ChatGPT及其应用的可持续发展。
总体上,虽然难以规避甚至消除ChatGPT等人工智能技术所带来的诸多不确定性,但可以肯定的是,人与技术始终处于相互依存、不断演绎的关系中,两者在联合发展过程中不断耦合、生成和重塑。由此,人类本身的主观能动性以及思维力、创造力等往往能在逆境中迸发或涌现出来,并且这种“韧性”能力在政策规制的积极引导下,更可能转化为一种应对社会变革、治理社会问题的整体“韧性”范式。进一步地,在“韧性”及其衍生范式的有机解构和有效指引之下,ChatGPT等人工智能应用可以更具“韧性”张力地释放社会价值并持续演化改进,从而在整体层面和长期意义上推动人工智能向上向善发展。未来还应基于“韧性”理论视角,结合前沿研究方法和分析视角,展开ChatGPT及其应用的性能测评和社会评价等科学化探索,从而更好地洞察和研判人工智能技术的现实发展样态,进而更具前瞻性和针对性地谋划人与技术共生共存、协同发展的美好蓝图。