杨慧
(北京科技大学 马克思主义学院,北京 100086)
ChatGPT是一种基于自然语言处理和人机对话的超大规模应用程序。不同于一般的聊天机器人,ChatGPT不仅具有强大的解题能力,而且也具有较强的语言生成能力。借助ChatGPT既可以进行对话聊天,也可以进行论文创作、文本翻译和检查程序错误等活动。作为一种新型的人工智能,ChatGTP不断创新的生成算法、多模态技术以及语言生成能力将对人类生产生活造成革命性影响,而且也对人们的思维观念、行为方式和价值取向产生强大冲击。有研究者认为,“ChatGPT的下一代系统GPT-4可能具有改造人类的思想和创造能力,形成人工智能超越专业化能力和大众化趋势,这一系统可能具备人类思维能力,也可能在某一方面或其它方面替代人类”[1]。随着ChatGPT的推广,其运用与影响实际上已经超越其固有的技术属性,其资本和技术包裹着的意识形态的渗透功能将更加鲜明。客观审视ChatGPT在资本与技术裹挟下的意识形态属性,理性分析ChatGPT运用中的意识形态风险,把握ChatGPT影响下社会主义意识形态传播规律,科学建构ChatGPT的风险治理之策,对于维护我国意识形态安全具有十分重要的意义。
ChatGPT作为一种创新性的技术存在物,是“资本逻辑”与“技术控制”的统一体,在运用中不可避免会超越工具理性,而以话语建构、主体塑造和价值判断等方式发挥着意识形态功能,凸显出科学技术的意识形态属性。
“科学技术即意识形态”是法兰克福学派意识形态批判理论的重要观点。在霍克海默看来,“不仅形而上学而且还有它所批判的科学皆为意识形态的东西;后者之所以也复如是因为它保留着一种阻碍它发现社会危机真正原因的形式”[2]。马尔库塞认为技术看似中立,实际运用过程中成为统治人的新模式,“技术的合理性展示出它的政治特性,这使它变成了更有效统治的得力工具,并创造出一个真正的极权主义领域”[3]。哈贝马斯分析科学技术在晚期资本主义社会发挥的作用时指出:“作为意识形态的科技是一种非政治的技术统治意识形态,具有更加难以抗拒的控制力。与传统、直接的政治暴力的意识形态不同,借助科技理性的当代新统治是一种不易察觉的意识形态,因为它并不强迫,但是却有整合的功能。故而,技术理性的概念本身就是意识形态。”[4]39上述法兰克福学派学者的观点客观上反映出科学技术的意识形态特质及功能。然而,就科学技术本身而言它并不具有意识形态属性,科学技术的意识形态的凸显在于科学技术变成统治体系的重要组成部分时便具有了明确的政治意向性。事实也证明,任何一种新技术只有赢得政治认同并为政治统治服务时,才能被广泛推广和运用。这种情况下,即使科学技术持有者力图确保其价值中立,但技术的生产力取向必然导致其成为支配人、操纵人甚至控制人的力量,不可避免带有意识形态的属性。
当下,ChatGPT技术横空出世,以其不断更新的生成算法、多模态技术和语言生成能力在解答、创作、咨询、翻译甚至考试等方面显示了几近完美的技术优势。对此,技术持有者显然会以一种“技术优越论”的态势高扬起“技术至上”和“技术主义”的论调。这种情况下,技术实际上超越了工具理性而彰显出价值理性。在技术主义的作用和影响下,一方面,人们对这一新型技术显示出高度的崇拜甚至迷信,在崇拜中其思维观念和价值取向很有可能被技术固化和统摄,容易被异化为单向度的人,这样ChatGPT技术的意识形态功能便得以体现出来;另一方面,作为一种新兴技术程序,ChatGPT的设计者在设计中必然会负载着自身的思维意识、价值观念和价值取向,这种负载虽然是无形的、隐形的,但是在实际运用中会潜移默化地渗透、浸润,发挥着意识形态的功能。
马克思指出:“资本只有一种生活本能,这就是增值自身,创造剩余价值,用自己不变部分即生产资料吸吮尽可能多的剩余劳动。”[5]269“资本害怕没有利润或利润太少,就像自然界害怕真空一样。”[5]871作为一种以利益为中心的单向度逻辑,资本逻辑不仅广泛渗透于传统生产领域,而且日益渗透和延展到互联网领域。“一旦有适当的利润,资本就大胆起来。”[5]871正是在利益取向的驱动下,资本家克服风险去寻找投资对象。互联网技术作为一种创新驱动的资本密集型技术,为了赢得竞争,客观上需要资本的介入,这样当资本与技术联姻并深度介入技术后,技术的正义向度必然在资本的驱力和影响下发生变异,资本在合乎目的的发财致富中使技术附设了立场、价值、观点和统治功能。有学者认为:“数字技术与资本主义的联姻,催生了‘自动化的新自由主义’,其中市场由数字平台配置,个人生活因个人数据的积累而改变,社会关系由算法技术来自动实现。”[6]由此看来,随着资本逻辑对网络技术的深度介入,一种以技术为媒介、以资本为后盾的数字资本主义顺势进入市场,并在资本逻辑的裹挟下使技术失去中立与偏离正义,同时负载着资本逻辑的价值立场和意识形态属性就会得以呈现。
毋庸置疑,作为一种超大规模的新型智能程序,ChatGPT技术的背后,不同程度上有着资本力量的背书和加持。为了获取更多利润,代表资本意志的ChatGPT技术操纵,处在信息资源分配和自然语言处理的金字塔顶,这是ChatGPT资本主义的重要特征。在资本意志操纵下,ChatGPT的资本主义意识形态属性在技术运用中得以体现。其一,资本逻辑对ChatGPT算法的垄断导致公共信息的私有化。ChatGPT作为一个大型对话型语言模型,对于自然语言理解和生成能力的多模态创造是其强大话语建构能力的体现。资本作为ChatGPT应用的控制主体,为了获得高额回报和增值,必须建构起符合资本主义物化意识的理想机制,使ChatGPT成为资本主义对外交往的有力工具,因而必然要在ChatGPT程序上预设价值立场。这一点无论是社交巨头Facebook还是开发者微软公司,在“网络自由”“网络正义”的幌子下都会进行深度介入和立场预设,至于程序运用的游戏规则以及用户的行为数据,最终反向成了他们制约用户和垄断用户信息的私产。其二,资本逻辑对大众活动的导控。ChatGPT本身也是一种以算法为技术支撑的应用程序。在算法技术的加持下,用户的习惯、偏好甚至日常活动日益被算法技术操纵和导控。ChatGPT超大功能的解题能力、自然语言处理能力和文本处理能力,日益引起越来越多用户的关注和期待,举凡对话、创作、文本翻译和检查程序错误等事务性工作,ChatGPT均能快速完成并把用户从繁难杂重的事务性工作中解放出来,由此塑造用户的依赖心理,而在ChatGPT背后资本力量的裹挟下,用户的活动很容易被其操纵和导控。
话语逻辑,是指在特定社会情境下人们进行语言交流和话语分析时呈现出的思维样态。话语逻辑具有极强的时代性色彩,每一个时代都有符合时代特点和话语风格的话语逻辑及与之相关的结构化了的意识形态。费尔克拉夫在《话语与社会变迁》一书中认为,“话语不仅表现世界的实践,而且是在意义方面说明世界、组成世界、建构世界”[7]。可以看出,话语本身具有意识形态的属性和改变社会的天然秉性。为了塑造人们的认知图式,影响人们的思想观念和行为选择,权力力量总是借助特定时代的科学技术建构起更具时代化、符号化、标签化的话语叙事,既可以表征时代的发展潮流,也可以内嵌这个时代的话语逻辑。这样,作为观念形态的话语逻辑就会以技术理性的方式渗透到社会生活的各个领域,这种科学技术就会成为控制人的力量,凸显了话语逻辑的权力主义意识形态性。为此,哈贝马斯指出:“当今的那种占主导地位的,并把科学变成偶像,因而变得更加脆弱的隐形意识形态,比之旧的意识形态更加难以抗拒,范围更为广泛。”[4]69从这个意义上来讲,科学技术所塑造的话语逻辑绝非仅仅是资本主义与社会主义对立层面的意识形态,而是在技术理性和话语逻辑耦合作用下的隐性渗透,其所体现出的话语权力要远高于现实层面的意识形态对抗。
作为一种人工智能的内容生产性技术,话语生产是ChatGPT的本质特征。基于超大体量的话语生产和程序应用,ChatGPT可以根据上下文语境和用户意图准确把握人类的语言习惯和价值偏好,生成话语文本,产生话语逻辑和话语主题,因而具有意识形态属性。其一,在ChatGPT的话语生产方式下,作为话语逻辑创建的人的主体作用逐渐退隐或消减,作为技术的ChatGPT扮演着话语创建者的角色,具有独立意识的人的话语行为很有可能被ChatGPT所创建的话语逻辑所左右。主体话语逻辑的缺失或遮蔽很有可能导致主体思维、意识的退化,其终极结果将是人的自主性、能动性的受困,这就是话语逻辑的权力意识形态的体现。其二,在ChatGPT的话语生产方式下,推测性话语会作用于人的主体价值,因而产生意识形态效能。作为一种多模态的算法技术,ChatGPT的文本生成、语言构建、创作翻译是建立在程序设计者意图和特定语境下的创作,它撇去人的主体功能,在推测基础上进行话语的机械性创作,这种机械性创作特点既有技术设计者话语逻辑的展示,也有技术操作者话语逻辑的应用,其隐藏的话语价值和话语形态的终极目的是服务于技术及其背后的资本力量,因而不可避免带有话语权力意识形态的逻辑印记。
波拉克认为:“不确定性总是伴随着我们,它绝不可能从我们的生活(无论是个人还是作为社会整体)中完全消除。”[8]乌尔里希·贝克认为:“风险通过与科学、科学实践和公共领域的紧密相互作用构造自身”[9]。人工智能时代,为了遏制和霸凌异己国家,西方敌对势力凭借其技术和信息优势进行意识形态的渗透与攻势,他们把技术和信息的意识形态功能发挥到极致,给使用这一技术的国家带来了意识形态风险。时下,风靡全球的ChatGPT技术以其独特的话语建构、算法霸权和价值判断方式对我国意识形态安全造成了潜在风险。
毋庸置疑,就本质而言,“话语是意识形态的‘外衣’,内蕴意识形态的属性”[10]。作为反映人类思维的ChatGPT技术不仅可以模拟人的思维,改变人们的思维方式和学习方式,而且可以直接进行信息生产和话语建构,产生意识形态方面的风险。这种风险具体体现为:其一,话语真实性难辨的风险。ChatGPT建构话语的过程类似某种技术黑箱,用户只知道这一技术显示的话语答案,对其思考、运作、建构过程及其背后的价值考量和技术取向全然不知,这样用户很容易信以为真,其思想和行为也容易被建构话语裹挟和支配,因而产生观念和意识层面的风险。其二,话语权威性难以保证的风险。研究表明,ChatGPT在对自然科学问题的话语建构上往往具有同质性,对于那些需要严密推理的自然科学问题其正确率却难以保证。ChatGPT更擅长回答文科类问题,如在描述历史事件、生成写作素材等方面更具有指向性和引导性。在生成话语时,ChatGPT的话语输出具有拟人化特点,能够准确理解上下文语境,也能理解用户的意图,ChatGPT在与用户的对话中会产生“真实人”的对话效果,这样很容易获取用户的信任。由于ChatGPT从产生之时就具有西式特点,其在应用中的拟人化话语建构方式便会强化西方的意识形态倾向和价值观念,当用户专注于这一技术带来的便利之时,西方意识形态的隐蔽性和渗透性很容易被忽略,其话语中的虚假知识泛滥、偏西方化价值充斥,久而久之就会产生“劣币驱逐良币”的风险。其三,话语碎片化带来的信仰风险。ChatGPT对于用户问题的回答几乎是问什么答什么,虽然回答及时细致,但多数情况下很难呈现出知识的整体性和系统性,这与技术本身所具有的非线性思维特点有直接关系。在技术的支持下,虽然知识细节和表征越来越详尽、越来越丰富,但在技术切割状态下,原本结构化、组织化的知识体系被解构了。当人们被高精尖的数字技术支配后,技术主义会使人丧失理性,行为中唯技术是从,浅阅读、快餐式阅读盛行,极有可能导致人们的普遍性知识被瓦解,知识信仰、精神信仰体系坍塌,进而危及社会的整体信仰。
ChatGPT看似是一种处理文本语言的工具,但实际上是一种算法驱动下的权力载体。算法权力是依据现存信息数据对用户行为分析时将自身价值转换为控制社会行为力量的隐性权力。在国与国的交流交往中,算法权力形成多方面的权力扩张和制约关系。因为算法权力具有明显的技术优势,西方国家凭借这一技术优势在世界范围内进行价值观渗透,给包括我国在内的许多国家带来了意识形态风险。其一,ChatGPT的政治偏见诱发的意识形态风险。ChatGPT的政治偏见缘起于算法在信息传播中早已预设意识形态立场,通过算法的信息传播对政治态度、政治价值和政治发展等产生作用和影响,这种看似中立的技术在实际运用中便表现出明显的政治立场。例如,当ChatGPT被要求分别撰写关于美国与中国的社会制度时,它对前者极尽美化之能事,而对后者则拒绝表示赞颂。当带有意识形态的算法被广泛应用于我国政治领域时,其内生的缺陷和政治偏见很有可能对我国主流意识形态造成信任危机。如果ChatGPT算法在政治传播领域被滥用,其所产生的道德危机、法律风险也有可能诱发社会秩序的混乱。其二,ChatGPT的西方化信息靶向产生的意识形态风险。ChatGPT具有超文本理解能力和信息处理能力,可以根据上下文语境推算出使用者的心理倾向、政治取向和行为动向,并借助使用者思想与行为的数据关联预测他国的民意和舆论走向,进而进行议程设置和靶向干预。正是基于这样的原理,西方国家凭借其信息和技术优势借助算法精准分析舆情,进行议程设置并推送相关信息消解他国的主流意识形态。事实上,作为一种全新算法程序——ChatGPT的每个代码都隐藏着美式价值观,承载着美国处理国际事务的双重标准。例如,回答有关新冠肺炎疫情的起源问题时,其直接指明来自于中国武汉,果断回复与美国绝无关系。由此可以看出,ChatGPT的西方化信息靶向不仅具有明显的双标态度,而且还扮演西方意识形态布道者的角色。如果不加以技术规制放任其在我国的无序应用,必然会对我国主流意识形态带来负面影响,甚至是不可预测的风险。其三,ChatGPT的工具化取向引发的意识形态风险。ChatGPT技术的横空出世,不仅仅是以技术存在的方式发挥影响,更是一种政治性工具在发挥作用。毫无疑问,在激烈的国际竞争中,ChatGPT日益成为继Facebook(Meta)之后西方大国利用算法进行意识形态霸权的重要工具。ChatGPT诞生于美国,暗藏算法黑箱的RLHF(人类反馈强化学习)和奖励模型必然会强化美国的价值标准,彰显美国的价值观。这种负载美式价值观的ChatGPT一旦被推广开来,将会以工具化的方式挤压他国文本数据和价值标准,势必在多个领域挑战他国的主流意识形态,左右国际舆论,引发政治安全风险和社会性危机。
价值判断是指客体与主体之间的价值关系与价值属性的分析和确认。价值判断关涉个人的理想信仰、行为选择和价值取向,是人们如何看待现实与自身的关系的反映。价值判断对于个人成长和社会发展具有定向作用,发挥着意识形态的功能。由于价值判断具有主观性和相对性,人们在进行价值判断时很容易受个人经验和外在因素的影响,如果仅凭主观经验和外在因素作用,往往会造成行为偏离和价值扭曲,甚至会产生意识形态方面的风险。作为一种新型的智能技术,ChatGPT本身并不具有价值判断行为,ChatGPT之所有具有价值判断属性是由其建立在用户信息识别及其信息输出时的价值判断能力决定的,ChatGPT的这种价值判断能力既潜藏着技术设计者的价值意识,也暗含着技术推广者的价值取向。无论是技术设计者还是技术推广者,追求利益最大化是其终极目标。利益的获得必然会关涉市场和资本等要素,从这个意义上讲,ChatGPT从其诞生之日起就无形地被资本及其背后的资本主义意识形态裹挟和缠绕,以至于当用户在使用ChatGPT时不可避免受到其负载的资本的政治倾向和价值判断的影响,这种无形中的价值判断会产生意识形态方面的风险。其一,ChatGPT在识别和理解用户信息时的意识形态价值判断风险。ChatGPT在回答用户提出的问题时,首先要对用户输入的信息进行识别,借助算法进行过滤筛选,对于符合资本主义意识形态的问题迅即作出回答,对于不符合资本主义意识形态的信息则拒绝回答。ChatGPT在识别和理解用户信息时的意识形态倾向和价值判断实际上是一种隐形的意识形态渗透手段,如果用户缺乏正确的政治判断力、政治识别力,高频率使用ChatGPT,很容易被其左右且受其影响,进而产生意识形态判断上的风险。其二,ChatGPT在信息输出时的意识形态价值判断风险。信息输出是ChatGPT技术的基本功能,也是ChatGPT技术发展的题中应有之义。当用户借助ChatGPT进行涉及意识形态方面的对话聊天、文本创作和翻译活动时,ChatGPT输出的相关信息是以维护资本主义意识形态为利益导向的,在价值判断上并非总是客观公正的,而是有着鲜明的意识形态倾向。例如,当问到“台湾参与世界卫生组织大会”时,ChatGPT回答:我没有个人观点,但可以提供以下事实,台湾曾经参与过世界卫生组织及其大会,但自2017年未被邀请……然而,台湾政府和一些国家非政府组织一直呼吁WHO尊重台湾人民的健康权利,并允许台湾参与世界卫生组织及其大会。这个例子可以说明,尽管ChatGPT标榜“作为AI,没有个人观点”,但实际上在信息输出时已经表明了其美式立场和价值判断,这种无视台湾是中国领土不可分割的一部分以及只有主权国家参与世界卫生组织的事实,俨然是对中国主权和内政的干涉,带有鲜明的意识形态倾向。如果任凭这一信息扩散,无论是对于能否恪守国际法等基本准则还是对于中国政治安全都会带来难以估计的风险,必须予以警惕。
ChatGPT作为引领世界新一轮科技变革的技术力量,其自身附带的风险和应用中衍生的风险问题对于我国意识形态安全建设带来了严峻挑战。正视ChatGPT所蕴含的技术力量和积极作用的同时,通过价值导引、制度规约、技术超越等策略,建立ChatGPT应用中的中国制度体系和中国版技术体系,是防范ChatGPT技术应用中的意识形态风险、实现ChatGPT数字化发展的应然举措。
防范ChatGPT技术应用中的意识形态风险问题,根本之道在于建立适应时代发展需要、与技术创新相契合的价值导向,这是新技术科学应用的题中应有之义,也是维护意识形态安全的应然之路。我们不能因为ChatGPT技术具有意识形态风险就断然拒绝这一技术的推广和应用,否则技术带来的优势和便利将无法服务于我们自身的发展。同样,我们不能因为ChatGPT技术在世界范围内的蓬勃发展,而不加分辨全盘接受,因为任何技术都是一把双刃剑。为此,我们要强化对ChatGPT技术的价值引领,重视使用主体价值建设,切实增强ChatGPT应用中的意识形态风险治理能力。
首先,用社会主义核心价值观引领ChatGPT技术的应用价值导向。ChatGPT通过自然语言处理和人机对话的方式能够推理出相关信息,在这一过程中,技术中心和资本利益价值取向的无限扩张必然会造成主流价值的空间被挤压甚至边缘化。为此,当引入ChatGPT技术及其程序时,有必要加强算法过程中的“价值敏感性限制”,在ChatGPT算法中文版的改良和设计中,要全面、系统地嵌入“自由、民主、法治、公正”等基于社会整体利益层面的价值,用社会主义核心价值观引领ChatGPT技术的应用价值导向,尽可能规避技术主义和资本利益价值导向,使ChatGPT技术真正成为每一个人发展、进步的工具,而且能够获得安全、有序地参与数字技术发展带来的便利和好处。
其次,重视使用者的主体价值建设,增强抵御ChatGPT的意识形态风险能力。技术为善还是作恶,除了技术本身潜藏着的意识形态风险之外,关键在于技术使用者的主体价值建设。技术使用者的主体都是具有独立意识和自觉能动性的个体,其自身对于技术潜藏的风险的价值辨识和判断能力决定和影响着其行为走向。如果主体自身的价值立场不明确、价值行为不坚定,无论采取何种措施或行动都无济于事。为此,重视并提升使用者的主体价值建设,是有效抵御ChatGPT的意识形态风险侵蚀的关键。为此,一方面,要切实提升使用者主体的技术伦理素质,要对ChatGPT心有畏、言有止。只有使用ChatGPT技术时不迷信、不盲从、不跟风,秉持开放包容的态度,才能够科学把握这一技术的优势功能;只有使用ChatGPT技术时不依赖、不沉迷,防范技术异化和意识形态渗透,才能够理性应对这一技术带来的风险问题。另一方面,要切实加强使用者主体的风险防范能力建设,不断提升使用者主体的网络信息判断力、信息鉴别力和信息行为力,防范和化解ChatGPT算法出现的极端化思想和极端行为,自觉做到不被利诱、不受牵引、不被迷惑,始终保持清醒与理智,自觉成为我国主流意识形态安全的忠实维护者、主动践行者。
凡事预则立,不预则废。任何一种新技术的出现,都有可能冲击现有的社会秩序和意识形态体系,这就需要建立适应新技术发展的制度体系,通过制度规约技术带来的负面影响。作为一项新兴科技,ChatGPT的应用遵循一定的科技伦理规则和法律规范,既是这一技术健康发展的必然要求,也是意识形态风险治理的应然选择。
首先,要用科技伦理规则规避ChatGPT使用中的意识形态风险问题。科技伦理是人类理性认识的产物,它的底层逻辑要求科技成果最大限度地有益于人、生物和环境,不能损害或者破坏人类的生存秩序、生物的多样性发展以及环境的平衡。ChatGPT作为一种新的智能技术,也应当遵循科技伦理规则,其中,高度的社会责任感、尊重主体的自主性和技术运用的精准性是这一技术的底层逻辑,也是不可逾越的红线。为此,为了规避ChatGPT应用中的意识形态风险,切实维护我国社会主流意识形态安全,在引入ChatGPT这一“美式化”的技术或者程序时,一方面要强化引入“美式版”ChatGPT的伦理规则建设,建立中国行业准入和使用标准,提高政治站位和技术准入门槛,用讲政治的视野和立场守护好社会责任底线;另一方面要加快研发中文版ChatGPT式产品,推进ChatGPT中文版市场的占有率和使用率。同时,也要加快制定中文版的数据抓取、算法应用的相关文件,引导、强化和规范相关科技企业、从业人员和使用者的主体责任意识和行业自律行为,使ChatGPT在科技伦理的规约中有序运行和规范发展。
其次,要用法律法规防治ChatGPT使用中的意识形态风险问题。科技伦理和法律是规避科学技术风险的两种行为规范。然而,相对于科技伦理的自我约束和自律规范而言,法律更具有强制性和保障力。一方面,要加快人工智能立法及相关法律的完善,为ChatGPT的善治提供法律支撑。近年来,我国先后出台了不少有关网络安全、信息安全和数据安全的法律法规,为净化网络空间生态提供了坚实的法律保障。但也应看到,随着智能技术的迭代更新,对于生成性人工智能中涉及意识形态风险防控和治理的专门法律仍然缺位。为此,加强从国家层面围绕数据安全、意识形态安全的立法工作日益迫切,出台与中国国情相匹配的人工智能法律体系显得尤为重要与必要。另一方面,要充分发挥现有法律的治理效能,依法加大对人工智能数据市场的监管力度,依法强化对ChatGPT意识形态问题的审查力度,在审查主体上要建立政府、科技企业、高校科研院所、民众等代表的多元主体共治技术伦理委员会和相关监督组织,依法建立投诉、举报和奖惩机制,确保ChatGPT技术朝着数据正义方向发展,切实维护我国意识形态安全。
技术引发的意识形态风险问题很大程度上仍然需要技术的手段加以应对和解决。ChatGPT技术进入中国市场,能否规避其意识形态风险而被合理利用,仍然需要一定的时间去探索。但是无法回避的是,这一技术的意识形态风险是客观存在的。当下,针对ChatGPT存在的意识形态潜在风险和应用中的风险问题,不仅要从价值层面和制度层面做好引导和规制,更要从技术层面加以应对。
首先,坚持自立自强,加强ChatGPT中国版技术的技术攻关和数据标准建设。习近平总书记指出:“加快实现科技自立自强,我们就一定能够不断提高我国发展的竞争力和持续力,在日趋激烈的国际竞争中把握主动、赢得未来。”[11]在人工智能这一新兴技术激烈竞争的国际背景下,任何意义上完全寄托于国外科技的创新发展,无异于自断双臂。要维护国家意识形态安全,就必须在关键技术领域实现自立自强。我们在引入ChatGPT这一技术时,必须开发中国版的ChatGPT语言模型,特别是要重点关注ChatGPT的关键基础产业和设施建设,加强大数据中心、超算中心、智能计算中心等设备及芯片技术等的研发和保护力度。
其次,建立健全中国版ChatGPT技术安全体系标准。要有效提升ChatGPT的意识形态安全体系建设,加快制定符合我国国情和对新一代人工智能要求的数据标准十分必要。一方面,要通过政府引导,鼓励科技企业、科研院所及第三方独立机构根据我国国情及ChatGPT技术应用现状,尽快制定ChatGPT技术使用的分级分类标准,建立健全人工智能行业技术标准体系,确保这一新兴技术不被意识形态所左右而产生风险问题;另一方面,要建立ChatGPT的准入标准,围绕ChatGPT数据处理和文本编写,对数据收集、分析、加工、传输等进行保护,进一步提升ChatGPT技术的入侵、泄露、窃取等整体预防能力。同时,也要积极开展国际交流合作,为国际ChatGPT行业规制提供中国样本和标准。
最后,夯实核心技术的安全体系保障能力。建设ChatGPT应用中的中国版技术体系,如果说核心技术攻关是基石、技术安全标准是重要支撑,那么技术保障能力则是关键。作为新近问世的智能技术,ChatGPT在中国的推广和应用目前虽处于初期阶段,但不能忽略它的意识形态风险,而是要未雨绸缪,防患于未然。这就需要国家及相关管理部门要高度重视并加大ChatGPT安全体系的保障能力建设。一方面,通过设立专项资金、财政补贴方式,加大对ChatGPT技术创新攻关的资金支持力度;另一方面,要建立ChatGPT技术的服务专家团队和监管平台,围绕ChatGPT技术的赋能、赋值功能和技术应用问题提供智力支持和技术监管,规范并引导ChatGPT技术的健康发展,切实维护数字技术应用中的意识形态安全。此外,在防范和应对ChatGPT的意识形态风险时,还需要建立政府、科技企业、行业协会以及公众共同参与的多主体协同监管机制,确保ChatGPT技术应用中多元参与和协同监管,为ChatGPT应用提供机制保障。
ChatGPT技术的问世与推广,以其自身的类人性和高智能在为人类生活、学习和工作带来极大便捷的同时,其潜在的意识形态风险也会对国家安全特别是意识形态安全造成新的挑战。当前,世界正处于百年未有之大变局,中美制度之争以及意识形态之争日趋激烈的复杂背景下,这一诞生于美国的科学技术以其背后强大的资本、技术和舆论优势成为新一代人工智能的主要控制力量,其所具有的强大技术和资本属性为资本主义进行意识形态扩散和渗透提供了便利,如果我们不加辨识和区分,全盘接受并运用到学习、生活和工作领域,势必会对我国意识形态安全造成潜在的风险。面对ChatGPT技术的双刃剑特性及其影响,我们应秉持开放、包容、审慎等原则,主动选择,化危为机,未雨绸缪,在引进ChatGPT技术时,不仅要发挥制度规约作用和价值导引功能,防范意识形态风险,更要在分析和借鉴ChatGPT这一新兴技术中不断增强技术创新能力,打造中国版ChatGPT技术,建构中国版ChatGPT技术标准,在技术的学习、反思和超越中不断壮大我国的人工智能发展水平,并以中国版智能技术和产业为依托,不断巩固和壮大我国的智能文化,切实维护我国主流意识形态安全。这是ChatGPT技术在中国发展的应然选择,也是ChatGPT技术在中国广泛应用和不断创新的应有路径。