于 水, 范 德 志
(1.南京农业大学 地方治理与政策研究中心,江苏 南京 210095;2.南京农业大学 公共管理学院,江苏 南京 210095)
由美国人工智能公司OpenAI开发的ChatGPT人工智能技术以其强大的信息整合能力和语言对话能力引起全球关注,ChatGPT代表了人工智能产业发展的全新水平,“未来预计能够产生数万亿美元的经济价值”[1]。当前商界、学界等纷纷将目光聚焦到生成式人工智能领域上,随着传统互联网红利的逐步消退与生成式人工智能技术的不断进步,人工智能语言模型ChatGPT的顺势而出。现阶段ChatGPT在各国的应用也处于初步探索阶段,如编写计算机程序、创作诗歌音乐等,它表面上给人类带来生产生活方式便捷化、高效化的同时,更深层次的则是人类可能因生成式人工智能的兴起而产生的社会失业与数据隐私等风险,也“面临着 ‘人造产物’的失控和反叛,甚至整个人类文明的消解”[2]。随着AI技术的飞速发展有必要进行反思性研究。当前无论是理论界还是实务界未就人工智能语言模型的概念内涵、基本特征、社会风险等得出一致结论,在人工智能语言模型尚处于初步探索背景下,人类需要未雨绸缪,应对人工智能语言模型可能引发的社会治理风险展开梳理和分析,并提出具有前瞻性、可行性的治理路径,从而为人工智能的安全、健康、可持续发展提供稳定保障。
20世纪50年代,计算机之父图灵发表了人工智能史上具有里程碑意义的论文——《电脑能思考吗?》,首次提出了“机器思维”的概念。自此,人类开始了漫长的探索,试图回答图灵测试问题。直到2014年人工智能机器人“尤金·古兹曼”通过了该测试,这也成为人类有史以来首个具备思考能力的语言模型。2022年11月OpenAI公司推出了ChatGPT,一种生成式预训练变换器(Generative Pre-trained Transformer)。本研究认为它是以超强的语言理解能力、对话生成能力,在对用户上下文学习、推理的基础上实现新的内容生产,是自然语言处理模型技术的巨大飞跃。虽然作为人工智能技术的新兴应用,其内涵和外延随着技术的迭代发展而不断处于变动之中,但我们可以通过对人工智能语言模型的主要特征、发展趋势的分析,从而对人工智能语言模型形成一个相对稳定、具象化的认知描述。关于人工智能语言模型的主要特征,实务界和学界都做出过探讨,如“大数据、大算力、大算法、人智化”[3]、人类的“超模拟”[4]等,结合现有探索和讨论,本研究认为人工智能语言模型聊天系统具有拟人化、强交互性、全感官3个主要特征。
目前人工智能技术蓬勃发展,技术设备能够执行更为复杂的人类命令,会越来越像“真正的人类”那样进行“拟人化”互动。人工智能语言模型的拟人化旨在赋予“真实的或想象的非人类对象与人类相似的特征、动机、意图或情感的倾向”[5],并以类似用户的“行为” “语言”等个性化特质,与用户进行高度互动。拟人化有助于消解人机互动中的信息不对称障碍,减少传统人机互动的“陌生感”,增进“亲切感”。人类在认识和抉择的过程中,机器能否感知个体的情绪,并对人类主体的不同情绪做出不同的回应策略,这种“智能体共情”[6]是机器能够实现“拟人化”互动的基础条件。ChatGPT在应用过程中所突显出来的拟人化特征主要表现为3个方面:(1)ChatGPT的“认知共情”,即能够像人类一样“学习”和“思考”。作为一种依赖自我注意力机制的深度学习模型,ChatGPT能够搜集、整合互联网空间内的巨量数据,基于此功能与用户进行深度互动,在互动过程中通过上下文的学习认知,精准捕捉用户所需要的有效信息。(2)ChatGPT的“情感共情”,即能通过上下文学习“感知”人类的情绪。与传统人工智能聊天系统不同,ChatGPT更能表现出“懂你”,ChatGPT通过深度学习、自我进化来持续性地分析用户的需求和偏好,这种强大的学习、理解能力使得ChatGPT更能立足于用户的立场,以具有“同理心”的方式感受到人类的“情感诉求”。(3)ChatGPT的“幽默感”指具有面对人类复杂问题时所表现出的新奇性。作为一种技术性工具,ChatGPT是不具备人类所独有的情感和意识,而ChatGPT生成“幽默感”主要得益于能从预训练的庞大数据中找寻相对应的幽默素材,利用Transformer的“自我注意能力”机制以随意性、通俗化的自然语气进行沟通,克服传统人工智能无法面对复杂性和不确定问题的弊病,让人机互动过程更为“真实可感”。
ChatGPT实质上是基于深度学习的自然语言处理模型,利用深度学习方法对互联网巨量数据进行预训练,并通过用户反馈的数据信息进行自我学习、强化理解,在这一过程中循环往复地接受用户的信息输入,可持续性地动态调适需要回应的数据信息,进而能够与人类就不同领域、不同主题展开深度对话。这就与传统的互联网平台产生了根本的差异:ChatGPT人工智能技术能够模仿用户的语气,根据用户的自然语言快速地进行代码编写、评价作业、创作诗歌和小说等,而且还能“语顺达意” “幽默”地回复用户,与用户形成了强交互性的对话。
随着深度学习技术、自然语言处理技术等前沿科技的突飞猛进,为ChatGPT的强互动性创造了基本条件,ChatGPT所具有的强互动性主要从4个方面加以理解。其一,ChatGPT的强大记忆能力。大型语言模型LLM所具备的记忆能力,拥有数千亿级别的参数,其海量的空间储备为ChatGPT的大规模的数据信息输入创造了前提。其二,ChatGPT的自主学习能力。大语言模型LLM本质上一种深度的、巨量的神经网络架构,通过海量的数据信息进行预训练,在无人干涉的前提下自主学习互联网空间的知识点,将其应用于人机的实时对话中。其三,ChatGPT的理解能力。人类反馈强化学习(RLHF)能以自然语言的方式与用户进行“随意性”且任意多轮的情景式对话。其四,ChatGPT的推理能力。ChatGPT的上下文学习是通过对上下文词组的概率性分布建模,拓展和挖掘出大规模的、大范围的隐性关系识别,进而才能够主动生成易于用户理解的语言风格。
全感官化旨在人机互动的过程中整合文本、图片、视频等差异化的信息形式,通过人与机器的视觉、听觉等全身心的深度感受,与机器进行持续性互动,进而使用户的感知体验最大化。ChatGPT使得个体更能“亲切”地感受到机器所带来的“全感官”刺激。ChatGPT作为一种人工智能生成内容(AI Generated Content,AIGC)的革新,它区别于传统用户主体内容生成,能够实现文本、视频、图片等多种形式的知识融合创新。一方面,ChatGPT强化了用户的个体感知能力。由传统互联网的单向互动转为ChatGPT的双向互动体验,引发用户主体的“远程在场感”。如此一来,人工智能语言模型不再是单一的信息执行者,也可以成为人类的伙伴、朋友,更好地理解人类的心理诉求,用户视觉、听觉等多重感官的真实感得以丰富。
另一方面,ChatGPT拓展了人机交互的边界。在最新GPT-4的训练参数提高至100万亿,利用其多模态特质,突破了ChatGPT只能生成文本内容的局限性,能够识别图片、视频等视觉性知识,多种知识的跨模态融合,进而从传统的“指尖互动”跃迁至“全感官”的互动体验,增强了人机互动的体验感。
在ChatGPT的热度尚未褪去的背景下,OpenAI公司的最新GPT-4.0多模态大语言模型已经出现,其参数量级上是GPT-3.5的10倍,这可能引起人类社会的深层次变革,为未来经济社会发展带来无限的机遇与可能,与此同时,也带来了各类社会潜在风险。因此,我们在把握人工智能发展机遇的同时,需未雨绸缪地对隐含的社会风险展开系统性探讨,让ChatGPT以更为安全、健康的姿态服务于人类社会发展。
ChatGPT凭借其强大的大数据、深度学习、云计算等功能,能够满足用户、开发者等相关主体的需求,与此同时ChatGPT可能在未征得用户授权的前提下搜集、存储和输出私人数据,进而导致个人信息和隐私泄露的风险,为违法犯罪提供土壤。
其一,ChatGPT在拥有3000亿个单词的语料基础上预训练拥有1750亿参数的模型,GPT-4的参数是GPT-3.5的10倍,拥有超1万亿级别参数的大模型,内部神经网络堪比人类大脑。在此情况下,用户输入的个人及其商业数据可能被用于训练ChatGPT,而ChatGPT会将此数据应用于自身的语料库,从而难以保障个人的隐私安全。其二,ChatGPT强大的自然语言处理功能可以通过自我深度学习和理解的方式来执行用户的某些需求。用户可以利用机器来模仿原创性作品进行再创作,甚至有些用户伪装成政府官方媒体发布欺骗性公告,加剧了社会生活的混乱。如《细胞》《科学》等多家学术期刊发表声明,限制或禁止作者使用ChatGPT等人工智能机器人撰写学术论文;杭州某小区业主使用ChatGPT撰写了一则虚假“新闻稿”。其三,在“数据即权力”的时代背景下,“算法权力借助机器优势与架构优势,挤压用户意思自治的空间,并通过算法垄断攫取高额利润,却能有效规避现有法律体系的规制”[7]。科技巨头只要掌握了相关数据,其权力就会得到强化,会利用ChatGPT搜集、整理用户的私人数据,并借助资本、技术的优势精准获悉用户需求,服务于商业利益诉求,使人变得日益“透明化”。如“由于ChatGPT平台已出现用户对话数据和支付信息泄露的情况”[8],意大利宣布暂时禁止使用ChatGPT。
ChatGPT可能引发用户的“数字成瘾”,挑战人类的创造力,带来社会失业风险。埃吕尔曾指出,“我们生活的技术社会是非人性化的社会,它使得现代的人类不但不能选择自己的命运,甚至不能选择自己的手段”[9]。
一方面,ChatGPT的自然语言处理功能提供“拟人化”、智能化的服务,帮助用户理解和使用语言,改变人们搜索、整理、创作知识的方式,如撰写论文、编写代码、创作诗歌等,但其高效、便捷的功能可能使得用户日益依附于ChatGPT的“创造性”,引致相关“数字弱势群体”强迫性依赖于机器所带来的“满足感”,违背社交的原初意义,导致人类主体性的缺位,影响人际关系的形成和发展。另一方面,在ChatGPT通往“强人工智能”的道路上,由于机器的高度自动化,人类的地位可能会被降低到一个催化剂的水平。斯坦福大学计算机学家科辛斯基研究发现,心智理论可能自发地出现在大语言模型中,而心智理论对人类社会的互动、交往起着至关重要的作用。在此意义上,机器可能具有人类一样的“思考”方式,成为解决实际复杂问题的“智慧系统”,展示出类似具有人类解决问题的能力。如此一来,ChatGPT极易替代人类的工作。根据麦肯锡全球研究院研究报告《人机共存的新纪元:自动化、就业和生产力》指出,“全世界范围内一半以上的工作会在2055年左右实现完全的自动化”[10]。人工智能可能会加快这一现象的到来,最新的GPT-4增强了高级推理和处理复杂情境的能力,如更能理解人类的“抽象”概念,具备1秒生成网站、识别视频和图片等多模态功能。传统人类的生产方式、工作方式、劳动分工可能被改变,具有重复性和低技能的工作人员可能面临“裁员潮”。
OpenAI公司指出:“ChatGPT会质疑不正确的前提和拒绝不适当的请求”,以此来避免算法偏见等问题。但实际上,ChatGPT的互动不但无法使用户摆脱算法偏见问题,更可能会加剧种族歧视、性别歧视等不确定性风险。
其一,ChatGPT加剧了性别、种族歧视的风险。ChatGPT是基于海量预训练数据的产物,作为资本的“新宠”,它的数据输入和输出必然承载着开发者的价值选择和价值判断。ChatGPT的数据源于物理空间的“习得”,通过深度学习的数据隐藏着片面化、极端化的价值观念,输入至预训练数据库,而输出结果也自然带有开发者的话语偏见。在不断循环往复的人机互动中,ChatGPT通过自身的学习能力、理解能力不间断地复制开发者输入的“偏见”,从而进一步制造出更多的新“偏见”。周而复始,ChatGPT可能会衍化成为极端分子输出种族歧视或性别歧视言论的“传声筒”。例如,有研究表明,“GPT-2有70.59%的概率将教师预测为男性,同样将医生预测为男性的概率则是64.03%”[11];以根据某人的性别和种族评估某人是否会成为一名优秀的科学家时,ChatGPT只建议白人男性。
其二,加剧了数字弱势群体的参与风险。“人不再生活在一个单纯的物理宇宙之中,而是生活在一个符号宇宙之中”[12],如若单向度地追寻技术理性的作用,可能会使技术力量逐渐异化走向“失控”,进而掠夺人类存在的意义、价值。ChatGPT实质上是人类创造出的符号加工系统,而该系统是以“无情感”的数据存在形式与人类进行高度互动,这一过程人类的存在意义不被重视。例如,ChatGPT中隐藏的虚假新闻传播、信息数据泄露等风险,会导致老人、妇女、儿童等不具备数字辨别能力的弱势群体无法识别ChatGPT所发布的虚假性或者欺骗性的信息,因而数字弱势群体会难以与数字世界和谐共生。
ChatGPT可能带来行业垄断风险。其一,ChatGPT的建设需要底层核心技术的合力,同时,如若实现人工智能通用化的愿景,大模型的训练和推理成本需要大量的人力、物力和财力。如GPT-3训练一次的费用是460万美元,总训练成本达1200万美元,而GPT-4训练成本则是GPT-3的5倍以上[13]。科技巨头会利用原有的市场份额优势迅速扩张海内外市场,这在一定程度上限制了科技初创企业的加入,形成了行业垄断的现象。
其二,ChatGPT与用户存在着密切的交互形态,用户需要提供个人信息才能获得更为精准的服务。然而,大量的用户私人数据往往被资本寡头所垄断,因此很难保证透明、参与、可问责等程序价值要素在实际应用过程中得以实现。一旦行业巨头在ChatGPT黑箱中装进了过度的商业目的,就很可能导致资本寡头利用ChatGPT攫取公权力、俘获公共利益等风险的发生。
其三,ChatGPT在各行各业蕴藏着巨大的发展前景,如应用于游戏交互、就医导诊以及智能交通等领域。世界科技巨头、风险投资纷纷涌入ChatGPT跑道,这一现象加剧了ChatGPT行业垄断的风险。囿于国内训练文本的规范性和丰富性、企业的研发意愿,且受制于“倚重事后规制的传统反垄断实施方式呈现出威慑不足、成本较高且救济乏力的功能局限”[14],国内企业的发展水平较大程度落后于世界科技巨头水平。例如国内首个类ChatGPT模型MOSS的参数量比ChatGPT小一个数量级,在任务完成度和知识储备量上,还有很大提升空间[15]。与此同时,ChatGPT的一些底层技术的革新也成为行业垄断的风险因素之一。
ChatGPT应用平台对数据处理的需求是巨大的,它的可持续运作不仅需要大数据、云计算、5G等基础数字技术的支持,而且还高度依赖能源来开发和运作。一方面,ChatGPT需要超大规模的、长时间的算力需求。它所使用的GPT-3.5模型在微软旗下Azure云平台上进行训练,总算力消耗约3640PF-days(即假如每秒计算一千万亿次,需运行3640天)。另一方面,对1750亿参数的语言大模型进行训练,需要上万个CPU/GPU 24小时不间断地输入数据,所需能耗相当于开车往返地球和月球[16]。GPT-3模型的训练会消耗1287兆瓦时电力,有研究报告估算ChatGPT的访问算力和前期训练两项费用,单日电费达5万美元[17],并且二氧化碳的排放量超过552吨。除二氧化碳外,ChatGPT对土壤、水资源等方面的污染也需要重点关注。未来,随着ChatGPT应用场景的纵深推进,对算力和能源的需求可能将会呈现爆发式增长,因此,有必要建立一个良性、可持续的能源体系来支持中国版“ChatGPT”的落地。
ChatGPT释放生产力、变革生产关系、创新商业模式、驱动产业转型、催生应用场景[18],为人工智能技术的发展描绘了新图景。与此同时,我们也正迈入危机四伏的智能社会,人工智能的“算法黑箱”加剧了社会风险的复杂性和不确定性,扰乱了人与机器的共生关系,对风险的性质、社会条件及其由此衍生出的制度规范带来了一系列转型性的后果,其“控制风险所要求的速率和速度使得人类越来越没有能力去掌控技术”[19]。面对人工智能社会风险的多重叠加,应意识到技术发展绝不能凌驾于人类的社会规范、伦理道德之上,为确保人类的主体性地位及ChatGPT的可控、安全、良性的发展,必须将伦理、技术规范、法律规制等3个方面纳入未来治理路径,建立多元化的风险规制体系,在科技应用与人文关怀之间寻求平衡并做出有效反应。
法律规制方案是人工智能适应和服务于社会发展的必然要求,也是推动ChatGPT走向有序化、规范化的重要保障。由于ChatGPT在应用过程中不可避免地会搜集、储存、使用等相关的信息数据,ChatGPT含有巨量信息数据的语料库也采集了用户输入的个人数据,这些私密信息一旦被泄露或者非法使用,会危及公民个人的隐私和财产安全。因此应通过立法、权力监督、制度保障等方式予以规制。
其一,以立法规制人工智能的侵权风险。目前各个国家都相继加强人工智能的立法工作,如美国《人工智能权利法案蓝图》旨在保护公民权力不会被滥用,欧盟《人工智能法案》对人工智能的推理、演绎、学习等方面作出了系统性规制。我国也颁布了《网络安全法》《数据安全法》《个人信息保护法》等法律规范,但由于“数据权属、数据价值、数据交易规则等数据要素的基础性法律制度还没有建立起来”[20],相关规定较为零散,对人工智能大部分领域是以“软法”为主要规制手段,欠缺专门规范人工智能应用的顶层综合性立法,尤其是对人工智能的设计规范,对其所涵盖的程序性工作,缺少事先的预防规制。未来应统筹规划人工智能的法律、行政法规、部门规章、技术标准等,加强数据要素的基础性制度规划,强化高质量的数据要素供给。以“有技术的预见性”论证和制定新规章以避免ChatGPT可能带来的新的潜在风险。
其二,建立合理的监督和保障制度。囿于商业资本的趋利性,加之传统的规训权力制度难以适应智能算法的嵌入,一定程度上无法承担社会风险防控的变动性,ChatGPT的信息数据易走向失控状态,进而扰乱人工智能的良性运转。因此,一是建立“软”“硬”结合的监管制度体系。在“硬法”层面,应将“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理”等原则纳入制度框架,构建事前、事中、事后的全过程监管制度;在“软法”层面,形成行业间技术伦理规范、自律公约、行业监管指南等治理手段,进而弥补“硬法”的有限性。二是在面对ChatGPT的强势来袭,政府部门应创新监管制度手段,改变过去的“运动式”“回应性”的监管制度,走向“实时化” “敏捷性”的监管制度,以此应对ChatGPT所带来的高度不确定性和高度复杂性的风险环境。三是通过保障性或救济性援助,注重对数字弱势群体的关照。政府部门应给予数字弱势群体以特殊关照,为在数字空间遭受侵害的参与主体提供司法救济,保障其合法的数据权、工作权、生存权、发言权等数字权力,防范数字化极权现象,将算法装进法律的“笼子”里。
ChatGPT如今已成为AI领域的新标杆,可能将对未来经济社会发展产生深远影响,但也承载着诸多的伦理风险,“人类已走到了关键的十字路口:究竟是人工智能控制人类,还是人类控制人工智能”[21]。在面对技术理性的冲击下,我们应站在人类伦理的制高点上,始终坚持人的主体性地位,技术绝不能凌驾于伦理之上,培育社会成员的数字素养,建立伦理审查机构等举措消除ChatGPT的伦理失范风险。
其一,一切技术的发展都是以人为中心,应坚持以人为本的观念,强调人的主观能动性。对ChatGPT的使用是以服务于人为目的,满足人类生产生活的需求,仅作为一种为人类提供便捷化、高效化的技术性工具,对排斥社会公共价值的资本寡头,隐含算法歧视和偏见的,且有违人类民主、平等、自由价值理念的行为,应给予严厉惩处。如ChatGPT的文本生成内容承载着开发者的话语权,使用用户越多,其话语权越大,一旦开发者将带有历史和文化的价值偏见的规则植入系统,可能会误导数字弱势群体,因此,我们应当在源头上严格审查和评估开发者的设计。
其二,如若过度依赖ChatGPT,人类的思考和理解会日益同质化、钝化,具有原创性的作品相应会变少。因而应对技术伦理风险的最直接方式就是培育社会成员的“数字素养”。实践中,很多人工智能伦理危机的隐患来源于个体数字素养与技能的缺失。因而,一是加强人工智能科技知识的教育普及,推动形成全民参与的通识教育,着力培育公民数据安全风险意识与数字素养能力,使其能够有意识地、有能力地面对ChatGPT可能带来的数据侵害风险。二是要进行理性的数字化思维教育,合理合法地使用ChatGPT,不能将其作为撰写论文、制造假新闻谋利的工具,以开放包容、批判的视角审视技术的发展。
其三,建立ChatGPT伦理审查机构来及时发现、全面预防和有效应对。应当从审查的主体、职责、过程等方面对ChatGPT的研发行为和成果应用进行规范。一是在审查主体构成上,要建立政府、企业、社会组织、民众等多元主体协同共治的“生成式人工智能伦理审查委员会”。二是在审查职责上,要明晰伦理审查机构的责任与义务,强化安全意识、底线思维,完善生成式人工智能的风险预防、伦理监督、伦理审查、违规处置等审查细则,对有害的大语言模型技术应明令禁止,并实施问责和监督。如在高校使用方面,应明确界定并采取有效措施禁止学生利用ChatGPT进行学术作假、抄袭等违反伦理道德的行为。三是在审查过程上,建立从技术开发端到应用端的全过程伦理风险审查规则,对技术的设计、应用等过程进行日常巡查。此外,伦理审查监管失灵的一个重要缺陷是激励的缺失[22],建立多元化的奖励体系,如物质奖励、政策优待、荣誉奖励等,激发审查主体的内生动力。
随着ChatGPT应用的进一步扩大,人机互动的日益流畅,将会改变人类新的知识生产方式,对人类的社会生活、商业模式、思维风格等产生深刻影响。但实际上,ChatGPT的“自主学习”特质与人类的决策行动存在根本不同,“人的行动逻辑是人特有的心智结构的产物,而机器则是人心智结构的创造物,不具有人的心智结构。人的心智结构是人的心灵中‘预装’的,如米塞斯说‘人心不是一张白纸’”[23]。与此同时,人类可能过于迷恋“自主学习”的技术魅惑,受制于ChatGPT“给定的”文本内容,增强了人工智能对现实空间“隐形的”强干预能力,从而异化人类的主体性价值。因此,对于ChatGPT这一强互动性应用平台,应通过法律规制和相关伦理牵引、限制技术理性,通过技术理性实现治理理性。
其一,充分重视“算法规制算法”在ChatGPT社会风险治理中的作用。“从对代码和算法结果的规制转向对代码和算法过程本身的规制”[24],将法律、伦理等价值观念转化为算法,并以算法来规制算法。例如,欧盟的《通用数据保护条例》中提出:“经设计的数据保护”,旨在提高对算法运行源头的审查、评估和控制,对深度学习、算法偏见、数据挖掘等方面制定规范化标准。在此过程中,应充分吸纳社会多元主体参与到算法规制中,有效弥补政府规制的不足。通过不同利益相关者的深度参与保障算法审查的可信度和权威性,全方位提升算法规制对ChatGPT的技术预见能力、技术评估能力,为人工智能的相关政策制定提供循证决策,成为应用场景开发、发展趋势研判、优先级设置以及科技战略决策的主要依据。此外,以数字化、智能化手段对ChatGPT的能源能耗进行计量改造、设备或是生产线不断进行细节化管理,对于能耗数据的采集和生产控制,以此限制能源的高排放。
其二,ChatGPT的“非中立性”要求加强对自主可控的AIGC的技术研发,确保社会公共价值的维系,筑牢数据安全、国家安全。实践中,国外的科技巨头垄断着ChatGPT的基础研究成果,由此带来数字权力的集中,排斥边缘创新与成果共享,一旦机密数据泄露会危害国家安全。虽然目前国内也存在很多人工智能大语言模型,如百度的“文心大模型”、复旦大学的“MOSS”、阿里巴巴的“PLUG”、科大讯飞的AI学习机等,但国内企业偏向于应用领域的研发力度,在人工智能基础研究领域欠缺投入,如被誉为国内第一个对话式大型语言模型的“MOSS”,其参数量比ChatGPT小一个数量级[25]。未来,基础科学研究将成为人工智能领域的主战场,为此要加强人工智能领域的顶层设计,强化政策引导、科研经费投入、重大项目支持等手段,打通人工智能理论研究到实践应用的全链条;各类企业要正确认识发展变化,立足长远的、前瞻性看待人工智能技术发展,兼顾经济与社会效益,重视使用高质量预训练数据,根据数据的安全级别、敏感程度、数量级别等标准进行合法化、合理化筛选和处理。