何镇飚
(浙大宁波理工学院 传媒与法学院,浙江 宁波 315100)
ChatGPT是一种基于人工智能的聊天机器人技术,它可以生成自然语言的回复,与人类进行对话。ChatGPT的问答技术改变了人们获取信息和传播交流的方式,因为便捷、高效、精准,已经被广泛应用于各个领域,包括娱乐、教育、金融、医疗等。当前,ChatGPT已在各行各业对人类职业、专业和日常行为产生了重大影响,如果仅仅将ChatGPT视作革命性的技术,显然是狭隘的。詹姆斯·凯瑞指出,“技术与文化已经合二为一”,“技术这一‘最硬’的物质人工制品,从其产生之日起就彻底是文化产物”。[1]因此,需要从新的媒介文化的视角来审视ChatGPT,它不仅是技术手段和工具,而且还是媒介文化的产物及研究对象。现今的媒介文化,已经超越了传统媒体及其文化的领域,媒介文化存在着“泛媒性”和“万物皆媒”的特点。[2]媒介文化是一种通过传媒技术传播的文化形态,是人们在传媒技术的基础上产生的一种新的文化模式。媒介文化的出现与变革,不仅改变了人们的生活方式,也深刻地影响了人们的思想、价值观和行为方式。信息时代的媒介文化对艺术、娱乐、教育、政治等领域都产生了深刻的影响,给传统的文化和社会秩序带来挑战,也为人类社会提供了更多的机会与可能性。
ChatGPT可以取代新闻记者和新闻评论家的工作,早已不是危言耸听。英国最大的报业集团之一、《每日镜报》和《每日快报》的出版商Reach 正在探索利用ChatGPT帮助记者撰写短篇新闻报道。Reach 首席执行官吉姆马伦(Jim Mullen)表示,该公司已成立一个工作组,研究如何利用ChatGPT协助记者编写一些常规性的新闻,如涉及当地交通和天气的报道,或者在传统媒体内容领域之外为ChatGPT找到创造性用途。2023 年2 月,数字媒体公司Buzzfeed 宣布,计划使用OpenAI 提供的人工智能技术来协助创作个性化内容。ChatGPT的出现对媒介文化和媒介生态都造成了重大的影响。
在ChatGPT呼啸而来的时代,本雅明关于《机器复制时代的艺术作品》的观感,宛如一场预言,只是这次波及的不只是艺术作品,而是新闻、媒介文化甚至人类思想。本雅明对法兰克福学派有着举足轻重的影响,不论是阿多诺的文化产业理论,还是阿伦特的公共性的思想,都能看到本雅明的启蒙。本雅明关于媒介和大众文化的理论意义是巨大的,他对于都市社会和机械复制时代的感性批判,影响了许多人对于新兴媒体和大众文化的认识。[3]本雅明曾指出:“艺术最重要的任务之一就是对时下尚未完全满足之问题的追求。”“艺术形式发生着巨大的变化,它们追求着那些只有在技术水平发生变化时才能体现的变化。即只有在某个新的艺术形式中,新技术的影响让艺术产生截然不同的效果。所出现的艺术具有无节制性和粗野性。”[4]本雅明的这段话,同样适用于新闻和新闻生产,实际上,ChatGPT等人工智能技术的确可以帮助新闻机构提高新闻生产效率。
新闻形态的每一次变化,无不伴随着技术的革命,从报纸到广播到电视到互联网,类似美国媒介生态学派的传播学者保罗·莱文森所提出的“媒介进化论”,所不同的是,ChatGPT对新闻传播的颠覆,已经超越了“进化”的范畴。ChatGPT的原理是建立在大型语言互动实验平台(LLM)上的问答系统,ChatGPT作为一种新型媒介,改变了人们获取信息和进行沟通的方式。通过与ChatGPT对话,人们可以快速地获取信息,解决问题。同时,ChatGPT可以模拟人类的语言和思维方式,使得人们感觉与ChatGPT对话就像与真人交流一样。
人机对话,真正使新闻从大众传播变为更加个性化的人际传播。ChatGPT逐渐颠覆了新闻的“大众传播”形态,以人机对话的形式,生产出私人化、定制化、个性化甚至个人化的新闻,成为未来的媒介传播与媒介文化主流。Web 3.0 时代的UGC(用户内容生产),已经成为当下新闻生产的重要形式之一。人类的获知与求知模式本身因其发生重大改变,因此,可以将其理解为人类最新的知识新媒介。[5]在新闻成为ChatGPT时代的机器生产与复制品时,整齐划一的、一对多的传统新闻传播模式将不再存在。
新闻终于回到了“提问”的初心。过去在新闻学教育和新闻工作者培养的过程中,经常会强调“记者的天职是提问”。当ChatGPT崛起时,传媒学者们惊喜地发现,人机对话的实质就是提问与回答。人类作为新闻的“客户”在ChatGPT的客户端提问,人工智能则在后台根据问题进行搜索和整合,给出相关新闻和信息的回答。即使提问的内容是关于过去的知识和信息,但是这一问答是发生在当下和“即时”的,是正在发生的“事实”。这一深刻的变化,也对媒介文化造成了重大的影响,例如:信息茧房现象会不会进一步加深?个体对新闻满意度越高,是不是社会共识将更加难以达成?
ChatGPT对社会带来的重大影响,包括对弱势群体的扶持,也从技术上提供了支持。一款为盲人开发的公益应用Be My Eyes,通过接入GPT-4 打造Virtual Volunteer(虚拟志愿者),可以帮助盲人完成问路、导航、读取菜单、搜索等需求。正如该应用程序的官网所言,“让AI 成为你的眼睛”。视障人士只需拍一张所在地点的照片,再通过语音询问虚拟志愿者如何到达指定地点,它就会输出一条完整路线图,“读”给盲人用户听。它还能根据物品描述以及物体形状检索出此产品的功能和具体的使用方法。总而言之,视障人士只要把需求告诉ChatGPT-4 支持的虚拟志愿者,它就能帮助解决视力障碍人士的各种问题。技术的进步,有可能会对知识沟、能力沟进行积极的消弭。“能力沟”的制约有望通过 ChatGPT 的深度智能进一步打破,使得个体权力在其支撑下提升,加速社会权力结构的变化。[6]
但是,不论是ChatGPT本身,还是引入了ChatGPT技术的各个日新月异的新网站、新程序、新媒体,无一不采取了收费的模式。这种收费“墙”很有可能让ChatGPT陷入消费主义的陷阱。
鲍德里亚在《消费社会》中谈及大众传媒文化时指出:“对消费的历史性和结构性定义,即在否定事物和现实的基础上对符号进行颂扬”[7]104,“所以,决定大众传播性质的,是技术支持和P. P. C. C. (最小公共文化)的组合(而不是参加大众文化的人数)。计算机本身也是一种大众媒介”[7]110。和报纸的订阅费用,广播电视的收听广告或付费收听收看一样,互联网的收费订阅模式,开启了ChatGPT的包月或按次收费模式。ChatGPT和其他媒介消费模式不同,更像中间服务供应商。OpenAI对ChatGPT的定价为每月20 美元(约合人民币134 元)。已公布的ChatGPT Plus 服务特权包括“高峰时期正常访问”“更快的响应速度”“优先获取新功能”。[8]
2023 年3 月24 日,OpenAI 宣布解除ChatGPT无法联网的限制,以第三方插件为中介,使ChatGPT能访问其他网站并获取实时信息,还支持执行计算。此前,ChatGPT只能从训练数据中提取信息,导致其输出结果大大受限。OpenAI 官方称,此次推出的插件不仅允许ChatGPT浏览网页,还能让它与开发人员定义的API 进行交互,使其能执行诸如搜索实时新闻、检索知识库等更具体的操作。据官网资料,ChatGPT的第一批插件由Expedia(旅游订餐订宿)、FiscalNote(大数据创业)、Instacart(杂货配送网)、KAYAK(旅游搜索引擎)、Klarna(电子商务支付系统开发商)等公司提供,这些插件的具体功能包括推荐餐厅、制定出游计划、网上商店购物、企业办公、信息检索、语言教学等,涵盖日常生活的衣食住行各个方面。“插件商店(ChatGPT Plugins Store)”的推出意味着其他服务成为了ChatGPT的“眼睛和耳朵”。
媒介伦理是指社会对媒介所持的伦理观念和道德标准。ChatGPT作为一种人工智能技术,存在一些与媒介伦理相关的问题。首先,ChatGPT的使用是否会侵犯用户的隐私权?由于ChatGPT需要大量的个人数据来训练模型,因此用户的隐私权可能会受到侵犯。其次,ChatGPT是否会对用户产生不良影响?如果ChatGPT的回答涉及种族、性别、宗教等敏感话题,可能会对用户的情感和心理造成不良影响。
2023 年2 月24 日的国新办发布会上,谈到当前ChatGPT热的问题时,科技部部长王志刚说:“记者朋友的问题实际上是两个,一个是怎么看ChatGPT,一个是在伦理方面怎么应对。怎么做到推动发展的同时,兼顾科技的两面性,加强伦理规范。”社会和政府之所以会同时高度关注ChatGPT带来的伦理问题及其规范问题,是因为作为媒介的ChatGPT,需要遵守一系列的伦理规范和传播道德,但是,当ChatGPT被简单地认定为“人机对话”中机器的一方,还需要对机器执行严格的伦理要求吗?答案是肯定的。在一系列科幻小说和改编的影视作品中,机器人被视作未来人类生存的重大威胁。例如卡梅隆导演的《终结者》系列电影,就描绘了未来人类和机器人大战中,机器人部落派出机器杀手,穿越时空去谋杀童年的人类首领。正是因为这一系列的记忆铺垫,当ChatGPT展现出部分超越人类的智慧(主要是记忆能力、模仿能力和搜索能力,还没有体现出具有原创思维的能力)时,就有媒体惊呼“潘多拉的盒子被打开”,具有超越人类智慧的机器人世界似乎已经指日可待。在这样的舆论环境中,ChatGPT的媒介伦理问题,成为最重要的议题。
媒介安全是运用大众传媒战胜恐怖、恐慌和恐惧的非传统安全,分为国家安全、公共安全和群体安全三个层面。安全是大众传媒的现代功能,大众传媒可以让社会更安全。[9]
ChatGPT可以模拟人类的语言和思维方式,使得它可以被用于欺骗和误导。例如,可能有人会利用ChatGPT来制造虚假信息,误导公众。此外,ChatGPT的智能也存在局限性,它有时候可能会出现错误的回复或者误解人类的意图。ChatGPT的安全性,以及带来的意识形态安全,甚至国家安全的问题,已经引起世界各国的高度关注。
目前,各国的ChatGPT使用,都严格遵守使用国的法律与国家安全要求。2023 年3 月31 日,意大利国家隐私监管机构正式下令封禁ChatGPT,并指控OpenAI 非法收集个人数据。意大利对ChatGPT的监管,引起了世界各国的广泛关注。根据意大利国家数据保护机构GPDP 发布的新闻稿,OpenAI 收集用户数据并用于算法“训练”缺乏法律依据。[10]意大利对ChatGPT的封禁,也体现了其对自身国家安全的高度关注。同时,3 月20 日涉及用户对话和支付信息的泄露事件,明确地暴露出了OpenAI 在个人信息的处理上存在着问题。
虽然OpenAI 声称ChatGPT面向的是13 岁以上的用户,但由于缺乏相应的年龄验证机制,未成年人很可能会看到超出其自身发展和自我认知水平的信息。未成年人的安全,同样是媒介安全关注的热点。意大利监管机构表示,给OpenAI 20 天的时间,如不给出可行的补救措施,则会面临最高2000万欧元或全球总年营业额4%的罚款。[11]对此,OpenAI 表示,已经为意大利用户关闭了服务,并承诺会保护用户的隐私。
在美国,非营利组织人工智能与数字政策中心(CAIDP)也要求联邦贸易委员会(FTC)调查OpenAI 是否违反了消费者保护规则,并禁止其进一步发布GPT-4。[12]ChatGPT对群体安全是否会带来影响,也成为媒介安全和媒介文化当下的考量内容。
2023 年1 月,《科学》杂志刊登了乔治华盛顿大学教授卡梅伦·戴维森的一篇题为《ChatGPT很有趣,但不是一位作者》的文章。文章指出,在不到2 个月的时间里,人工智能程序ChatGPT已经成为一种文化轰动现象。在最近的一项研究中,由ChatGPT创建的摘要被提交给学术审稿人,他们只发现了 63% 的假文章。这是很多人工智能生成的文本,很快就会进入文学领域。多年来,《科学》系列期刊的作者都要签署一份许可证,证明“该作品是原创的”。对于《科学》期刊,“原创”一词足以表明ChatGPT编写的文本是不可接受的:毕竟,它是从ChatGPT中抄袭的。在文章中,《科学》编辑部明确重申:为了明确起见,我们现在正在更新我们的许可和编辑政策,指定不能在作品中使用由 ChatGPT(或任何其他人工智能工具)生成的文本、图像或图形,也不能是此类工具的产品。人工智能程序不能成为作者。违反这些政策将构成科学不端行为,与篡改图像或抄袭现有作品无异。[13]
与《科学》这类科学传播期刊最早禁止ChatGPT成为作者类似,如何界定类似领域ChatGPT与人类劳动的区别?譬如新闻生产。马克思认为人类劳动是人类与自然界之间的基本联系,是人类生存和发展的基础。而新闻生产作为一种特殊的生产形式,也需要人类劳动的支持和运作。新的问题是,为了区别机器的复制与生产,如何衡量凝结在新闻生产中的一般人类劳动?
在新闻生产中,记者、编辑等职业都需要进行劳动,他们所从事的工作包括采访、撰写、编辑、排版等。这些劳动都需要人类的智力和体力投入,也需要一定的时间和精力。同时,新闻生产也需要一定的资金和技术支持,这些都需要人类劳动的支持。
因此,马克思的人类劳动理论在新闻生产中具有重要意义。只有充分发挥人类劳动的作用,才能够保证新闻的质量和效益,也才能够满足人们对信息的需求和期望。但是,过去保护人类劳动的版权,在ChatGPT面前会不会变得脆弱不堪?受众无法知道面前信息的信源在哪里,搜集信源、整理文字的人类个体是哪些?这些人类个体能不能从信息采集、信息分析、信息写作中获得付出劳动的应有报酬?他们是职业的新闻人,还是ChatGPT面前的低收入劳工?新闻教育中,学生通过ChatGPT完成的作业,是否属于抄袭?面对这些问题,各个国家和地区给出了不同的答案,甚至对于ChatGPT参与学校作业的完成,不同学校都有不同的标准和要求。
总之,马克思的人类劳动理论对于我们理解新闻生产的本质和规律具有重要的启示作用,也为我们深入探讨和研究新闻生产提供了有益的思路和方法。
ChatGPT是一种基于人工智能技术的聊天机器人,它可以生成自然语言的回复,与人类进行对话。ChatGPT的问答技术已经被广泛应用于各个领域,包括娱乐、教育、金融、医疗等。在媒介文化方面,ChatGPT也产生了一定的冲击,而首当其冲的,是对传统媒介文化的冲击。
报纸、电视、广播、杂志,都属于传统的大众传播媒介,采用的是在短时间内到达大量不可预知受众的单向传播方式。随着融合文化和粉丝文化特别是社交媒体的兴起,互动性越来越成为传统媒体新闻传播的补充。而ChatGPT的出现,则进一步颠覆了传统,以人机对话的新闻讨论,深入了解新闻事件、新闻当事人、新闻产生背景、新闻后续与后果等各个方面。人工智能的机器答复,集中整合了各方面的个体新闻信息与观点,具有传统媒体不可比拟的信息优势和定制优势。
人工智能跨越各个学科讨论技术科学革新,可以用作探究AI 研究所引发的愿景,并获得关于整个社会如何引入新媒介的线索的代理。至关重要的是,这些新的媒介形式,是AI 领域的重要研究,也是发布面向更广读者群的文章的平台,通过新的传播方式,能够为关于AI 的潜力和未来的更广泛讨论作出贡献。[14]
新闻不再是千人一面,读者还可以让ChatGPT更改结果,实现从接受信息到改变信息,甚至创造信息。个人更改的新闻结果,可能影响到更多人群,这也会造成新的伦理问题。信息茧房现象在个人定制新闻中,会进一步被强化。而随着修改人数的增加,人机对话中的新闻背景信息会逐渐完善,到达阈值之后,信息茧房的现象会得到缓解。
贝尔认为,促进消费社会形成的主要原因是技术革命,新技术和新发明改变了人们的生活方式。[15]技术革命是形成新的媒介消费社会的主因,ChatGPT的出现,改变了人们信息消费的需求和模式。ChatGPT面世2 个月用户就过亿,这显示了当今人们对信息消费的极度渴求,但是,这种知识匮乏恰恰是媒介消费者不断追求新知识所造成的。同时,知识贫富两极分化的现象也随之产生,越有知识、越有经济能力的人群,通过ChatGPT掌握了更多的知识和财富;而越缺乏知识、越不会使用ChatGPT,也没有经济能力支付包月费和查询费的人群,则更加缺乏知识,从而无法摆脱贫困。
从某种程度上说,ChatGPT加速和加剧了知识沟和由此导致的一系列不平等,不利于老年人群、低学历人群,甚至低收入人群。鲍德里亚对于消费社会充满了批判意识,他认为大众传播的技术程式造成了某一类非常具有强制性的信息:信息消费之信息,即对世界进行剪辑、戏剧化和曲解的信息,以及把消息当成商品一样进行赋值的信息。[7]114目前,所有AI 服务的不菲收费,一方面催生了一大批新的百万富翁,另一方面使得价格鸿沟和数字鸿沟一样深刻,大量需要人工智能服务却无法支付昂贵费用的消费人群,被挡在了不平等面前。例如前面提到的为盲人提供的AI 服务,虽然在技术上解决了部分难题,但是残障人群如何支付ChatGPT和相关软件的高昂费用,是另一个现实而残酷的问题。
ChatGPT可以打破许多技术障碍,实现技术革命,但是却无法推动社会革命,也无力改变现有的数字鸿沟和经济鸿沟,甚至可能产生数字马太效应,让拥有使用ChatGPT能力和财力的人群享有更多的知识付费使用权,而让知识和财富贫瘠的人群,不论是在ChatGPT带来的技术变革,还是由此造成的阶级差距面前都陷入更深的深渊。于是,一个新的问题产生了,ChatGPT会带来贫富差距的进一步加大吗?若果真如此,社会有解决的对策吗?
算法偏见一直是大数据时代和UGC 社交媒体时代广为诟病的媒介文化问题,那么,随着ChatGPT的到来,算法偏见是可以缓解和治愈,还是会加重病情?公众可以使用竞争或替代的生成式AI 系统,这些系统引起了广泛关注,并引发了关于生成式AI 的影响、本质和伦理的争论。[16]齐泽克认为:新的人工智能“基于对现有文化的大规模挪用”,相信它们“真的有知识或有意义是非常危险的”。因此,我们也应该非常警惕新的人工智能图像生成器。布里德尔观察到,“在试图理解和复制人类视觉文化整体的过程中,[它们]似乎也再造了我们最晦暗的恐惧。也许这只是一个迹象,表明这些系统在模仿人类意识方面非常出色,甚至可以深入到潜伏在存在的深处的惊怖:我们对于肮脏、死亡和腐败的恐惧”。[17]
通过制造恐慌、恐惧来赢得流量,一直是网红们的不二法门,但是,当机器也开始模仿人类进行此类活动,对人类行为进行约束的媒介伦理,需要同样作用于ChatGPT。只是如何制约,如何执行?要把对人类传播的准则,适用于ChatGPT吗?对于不同的媒体,尚且有不同的伦理要求和道德规范,对于ChatGPT更适用于哪一种呢?
现在到了重新审视机械理性的时刻了,机械理性实质是一种认识论,主张将知识结构化成有序的逻辑体系,以形成可预测的结果并获得正确答案。强调知识采用系统化、模块化、分类化的方法,以人的一般智能替代显性认知,这样就可以使用能够产生可预测结果的程序、算法和规则来代替自然的手段解决问题。机械理性在赋予机器力量的同时,以媒介伦理和媒介文化,制约机器的言论和行为,目前来看是一种急迫而能够行之有效的思路。
莫斯可指出:“现代化理论主张,媒介与城市化、教育以及其他社会力量一样都是资源,它们将相互刺激经济、社会与文化的发展。因而,媒介成长被视作发展的表述”[18]10,“政治经济学已经开始从研究旧媒介中的权力运作的优势,转入探究新媒介中尤其是关于网络的种种方法”[18]12。商业化、空间化、全球化,始终是传播政治经济学关注的重点。莫斯可认为,“文化帝国主义理论确认了充当跨国公司和国家权力的工具的一系列结构和实践。由于美国制造的电影和电视节目,以低廉市场价格倾销,国内新闻生产以及正在成长的穷国的娱乐的生产被倾覆了,这种倾覆为从中心流向边缘的单向文化和信息流动铺平了道路”[18]94。2023 年3 月1 日,OpenAI 官方宣布,正式开放ChatGPT API,这意味着,开发者现在可以通过API 将ChatGPT和Whisper 模型集成到他们的应用程序和产品中。也就是说,企业或个人开发者无须再自行研发类ChatGPT,就能直接使用ChatGPT这样的模型来做二次应用和开发。最重要的是,ChatGPT API 比其他现有的语言模型便宜得多——每输出100 万个单词,才2.7美元(约18 元人民币),比之前的GPT-3.5,成本直接降低了90%。[19]
在ChatGPT迅猛发展的这段时间内,关于ChatGPT背后资本运作可能带来的意识形态风险,一直得到多个学科专家的提醒。如果把莫斯可提到的美国制造的电影和电视节目,改为ChatGPT通过1折价格来占领人工智能市场,同样可以看作美国中心主义和科技带来的霸权行为。因此,学者们担心ChatGPT带来新的意识形态风险并不是杞人忧天,而是在信息不对称和资源垄断的环境中,从传播政治经济学的视角,对媒介文化的发展提出了新的担忧。
即使在ChatGPT出现之后,新闻生产和新闻形态都发生了变化,媒介文化也随之改变,但是新闻专业主义的核心并不能因此动摇。新闻专业主义蕴含理性交往模式,构成民主的公共生活。在人人生产并通过社交媒体分享信息的“技术民主”中,新闻专业主义需要以理性交往模式对“元传播范本”展开重新阐释,并以之与现实条件相勾连。[20]在更加个性化、定制化的媒介文化时代,新闻的公共属性更值得被推崇。也只有公共性和专业性,才能解决机器复制时代媒介文化的问题。随着ChatGPT和AI 技术重塑媒体格局,媒体专业人士需要通过掌握新技能和能力来适应与AI 工具共同工作,在驯化机器的过程中,传递新闻专业主义和价值观。
人机对话是ChatGPT的工作特点,也是ChatGPT对新闻、媒介及其文化产生重大影响的方式。人机对话使新闻成为追问式的,取代了过去供给式、灌输式的传播模式。虽然传播模式的变化会产生问题,但是必须认识到,这是变革的开始,是生产力的解放,也为新闻自由和客观性的进一步发展提供了可能。新闻终于回到了记者提问的天职,问题而非答案才是新闻的真谛。挖掘新媒体中人类与AI协作的潜力,强调利用人类与AI 的优势共同生产高质量内容、提高效率和促进创新的重要性。
AI 技术可能会取代人类的工作,导致失业率上升。同时,AI 算法也可能会存在偏见和歧视,影响社会的公正性和平等性。这一问题的对策包括,对于受AI 和ChatGPT技术影响的工种和岗位,优先给予AI 的培训机会,类似当年汽车取代马车时,优先培训马车夫为汽车司机。但是这一方式也会带来新的问题,并非人人可以完成转型,行业中越资深、年龄越大的职业人群,往往越难完成转型。ChatGPT带来的社会公平问题,需要运用社会公平的思维和技术手段加以解决。ChatGPT带来的社会不公平现象,不是机器对人的攻击,而是知识鸿沟带来的。知识鸿沟是传播学研究领域的问题,建构社会公平的媒体文化,可以在一定程度上引发对ChatGPT所致社会不公问题的重视,通过议程设定、舆论框架建构等,呼吁社会资源的公平配置。
为了解决ChatGPT带来的媒介文化中的伦理问题,应尽快建立良好的相关媒介伦理标准。首先,ChatGPT的开发者需要遵守隐私保护法规,确保用户的个人信息得到保护,避免再次出现隐私泄露的问题,对于开发商主观违反伦理的错误,需要建立惩罚体系。其次,针对ChatGPT进行进一步的情感和心理风险评估,避免对用户造成不良影响。再次,提升公众的媒介素养,开发以数字公民素养、批判性思维和AI 伦理为重点的媒体素养项目。最后,需要加强对ChatGPT的媒介生态监管,动态处理媒介伦理的新问题,积极打击虚假信息等消极内容,确保ChatGPT在使用过程中不违反媒介伦理标准。
运用ChatGPT技术,实现视力残疾、听力残疾等特殊人群在危机中的人身安全与风险防范,发挥媒介的公共安全作用。避免新媒体技术带来的虚假信息和假新闻传播,防范媒介恐慌事件,实行公开透明的信息发布程序,防范相关风险,维护意识形态安全,避免国内个人隐私和敏感信息的外泄。完善信息安全和媒介安全工作,让ChatGPT及其相关媒介文化健康有序发展。