变革与应对:生成式人工智能在健康传播领域的应用前景探析

2023-11-03 15:55刘聪聪
传播与版权 2023年20期
关键词:健康传播

刘聪聪

[摘要]健康传播关系人民的生命安全,对国民健康素质的提升至关重要。以ChatGPT为代表的生成式人工智能推动了众多领域的变革,也影响着健康传播领域的发展。文章从ChatGPT在健康传播领域的应用价值、应用风险以及风险应对出发,探析生成式人工智能在健康传播领域的应用前景,并得出结论:生成式人工智能在健康信息生产、人机信息互动以及健康信息检索三个方面发挥巨大作用,同时也会造成信息误差、引发知识产权纠纷以及拉大数字鸿沟等问题。最后,文章从研发平台、用户及行业协会等方面提出风险应对建议。

[关键词]生成式人工智能;ChatGPT;健康传播

美国OpenAI研发的聊天机器人程序ChatGPT一经推出,便引起广泛热议。其能够通过学习和理解人类的语言,像真人一样与人类进行对话,还能完成文案写作、论文撰写、翻译等任务。ChatGPT并非人工智能技术的颠覆性革命,只是人工智能技术在算法模型上的进步和应用场景上的创新[1]。目前,关于ChatGPT的应用研究主要集中在教育领域,师生利用ChatGPT完成教与学的任务究竟是利大于弊,还是弊大于利,值得进一步探讨。可以肯定的是,ChatGPT在健康传播领域具有巨大的应用价值,其能够在健康信息生产、检索与传播方面发挥自身的作用。文章以ChatGPT的特性为基础,厘清ChatGPT在健康传播领域的应用价值与潜在风险,并提出应对之策,对生成式人工智能在健康传播领域的进一步应用具有一定的现实意义。

一、ChatGPT在健康传播领域的应用价值

(一)智能生成,健康信息生产从低效到高效

通过学习人类语言的使用习惯,ChatGPT能够模拟人类生成高质量的文本内容。在信息生产时效上,ChatGPT能够缩短健康信息生产的时间,提升健康信息生产的速度。ChatGPT具有强大的信息检索和内容生成能力,它能够在几毫秒内完成响应过程,根据指令生成人类所需要的内容。目前,ChatGPT能够基于人类的指令生成文案、视频脚本、代码、图片等形式的内容,基本可以满足新媒体时代人类的信息生产需求。而且,人类提出的问题越详细,ChatGPT生成的内容更具体、精准。

健康信息关系着国民的健康素养提升,健康信息的生成对生产者的专业素质要求较高,错误的健康信息会引发人们的恐慌,甚至影响民众的生命安全。例如,新冠疫情期间,人们迫切需要新冠病毒防治信息,“双黄连口服液可以抑制新型冠状病毒”的错误新闻引发了一波抢购风潮。ChatGPT生成的内容以大量数据为基础,在保证数据库信息真实性的前提下,ChatGPT可以快速提供相对准确的健康信息,避免因为人工的疏忽而导致的事实性错误[1]。

(二)智慧回答,健康方案从模糊到精准

互联网技术催生了“互联网医疗”,互联网医疗平台为医生和患者沟通提供了便捷的渠道,健康信息传播的主阵地正经历从线下向线上的转移[2]。受时间、经济、隐私等因素影响,线上问诊逐渐成为人们获取医疗信息的首要选择。ChatGPT能够通過模仿学习人类的语言使用习惯和情绪态度,生成具有人类情感的语言文本,其话语结构、用词特点等都与真人高度相似[3]。

此外,ChatGPT等生成式人工智能以丰富的数据库和语料库为基础,通过吸纳大量数据信息来进行机器学习[4]。如果我们将大量的健康、医疗、医学数据信息与ChatGPT进行链接,提高ChatGPT对健康信息的敏锐性,ChatGPT或许能够逐渐替代人类医生在线上与用户互动。根据用户提供的信息,ChatGPT能够对用户的身体健康状况进行分析,并基于用户的身体特点和健康需求,为其制订精准的健康计划,帮助用户了解更多的健康信息。通过应用ChatGPT,真人医生可以将更多的时间和精力投入医学研究、线下看诊、临床手术等方面,从而节约医疗资源。

(三)机器检索,信息获取从繁琐到便捷

ChatGPT以丰富的数据库和语料库为基础生成人类所需要的信息,但是ChatGPT并不能和百度之类的搜索引擎画上等号。因为搜索引擎是从静态的数据库中检索信息,不同主体搜索同一主题得到的内容并不会有很明显的差异;而ChatGPT是一个不断成长的系统,与人类的每一次互动都会促进ChatGPT的成长,不同主题、不同时间的对话,都会使ChatGPT给出不同的结果[4]。普通大众对虚假健康信息缺乏一定的判断能力,通过搜索引擎获取正确的、科学的健康信息对普通大众来说具有一定的难度。ChatGPT能够对碎片化的信息进行整合,并生成系统性的信息文本,使得普通大众获取信息更加便捷化和系统化。

二、ChatGPT在健康传播领域的应用风险

(一)信息风险:知识盲区,造成信息误差

ChatGPT的数据来源主要是互联网上的大量文本数据,这些数据信息并非完全正确,因此导致ChatGPT生成的结果具有信息不准确的风险。尤其是在专业性很强的领域,如果ChatGPT的训练数据不足,则很可能会导致其生成的文本内容存在事实性错误、捏造信息等问题[5]。此外,健康信息不断更新和丰富,不断有新的假设被成立、旧的伪命题被推翻,如果ChatGPT的健康信息数据库不能及时更新与完善,那么ChatGPT生成的结果就不能完全满足人类当下的需求,数据的有限性将会造成结果的有限性。然而,由于不断学习人类语言的使用习惯,ChatGPT生成的信息即使并不准确,但其生产的内容语言逻辑严密,也会给人造成一种非常客观、准确的假象,容易把人带入知识误区。

(二)法律风险:所有权不明,引发知识产权纠纷

ChatGPT以海量数据为基础进行内容生产,生成的内容并没有对所引用的文献、图片等资料标注其来源,ChatGPT在使用这些资料之前也没有获得版权所有者的使用授权。这就导致学者在使用ChatGPT进行健康信息作品生产或辅助健康传播研究时,可能会涉及作品剽窃或学术不端等行为,引发知识产权纠纷。目前,业界对ChatGPT的使用规范并无明确的标准,政府机构的监管也相对滞后,导致ChatGPT的使用处于一种自由无约束的状态,继而引发相应的知识产权纠纷。

提升全社会的知识产权意识、营造良好的知识产权保护环境,是提升我国国际竞争力的关键。ChatGPT等生成式人工智能的出现,促进了各行各业的革新,尤其是改变了以健康传播为代表的人文社科领域的知识生产和传播,同时也给我国带来了一系列的知识安全和知识产权问题。

(三)社会风险:使用门槛高,拉大数字鸿沟

数字鸿沟指在全球数字化进程中,不同国家、地区、行业、企业、社区之间,由于对信息技术的应用程度以及创新能力的差别而造成的信息落差以及贫富进一步两极分化的趋势。而在智能时代,智能技术已经深入渗透进社会的方方面面,技术原因导致的智能鸿沟也会影响日常生活的方方面面,使智能强势者对智能弱势者进行更高维度的打击[6]。已有研究提出,“数字鸿沟早已从早期信息时代的‘接入沟开始向互联网时代的‘使用沟和‘内容沟扩散”[6]。由于技术、法律等因素的限制,ChatGPT还未在中国通用,中国与其他国家在ChatGPT的接触上存在“接入沟”;而在我国,不同群体之间的信息“接入沟”和“使用沟”也将不断拉大。ChatGPT虽然有免费版本,但是想要使用更强大的功能则需要付费订阅。2023年2月,OpenAI发布ChatGPT Plus版,定价为每月20美元。普通大众是否愿意购买ChatGPT Plus的使用权有待进一步调查,但是价格门槛必定会影响人们对ChatGPT的“接入”。

三、ChatGPT在健康传播领域的风险应对

(一)ChatGPT研发平台:保证数据信息质量

ChatGPT基于数据库与人进行互动,根据数据库信息生成回答,因此每一次对话都能够促进它的成长。为了应对ChatGPT生成错误信息的问题,ChatGPT研发平台首先要重视数据的清洗环节,完善数据库的健康信息,对可疑信息进行验证,对虚假信息进行清洗,确保信息的真实性和准确性。同时,ChatGPT研发平台要密切关注健康领域的研究动向,及时更新数据库中的健康信息,保证健康信息的真实性。在系统研发层面,ChatGPT研发平台要在系统后台增加ChatGPT辨别信息真伪的功能,使ChatGPT能够进行自检,通过对ChatGPT进行长期的、有计划的训练,不断提升其对信息的辨别能力和验证能力,从而保障数据信息的质量。数据信息是ChatGPT之类的生成式人工智能系统运行的基础,从ChatGPT研发平台出发,完善数据库的健康信息、提升系统的自检能力,是应对其生成错误结果、造成信息误差的基础性措施。

(二)ChatGPT用户:提升信息素养

在新技术飞速发展的媒介环境下,用户需要不断提升自身的信息素养以适应时代的发展。第一,用户要增强自己对智能技术的使用能力。智能化时代,用户要提升使用新技术的能力,适应社会发展新环境,这样才能不被社会“遗弃”。第二,用户要增强辨别虚假信息的能力。ChatGPT等生成式人工智能具有严密的语言逻辑,导致其生成的虚假信息具有很强的迷惑性,但是用户通过提升对虚假信息的辨别能力,还是能够验证出信息的真伪。第三,用户要增强信息责任感。用户在上传由ChatGPT生成的内容时,要主动标明数据的授权情况,倘若数据的授权情况不明,也需要在作品中进行说明,平台也应当谨慎使用没有获得授权的数据[7]。第四,用户需要形成从正规渠道获取权威信息的习惯,同时树立批判意识,对获取的信息保持质疑的态度,并进行严格的验证比对。

(三)行业协会:制定行業规范,构建防范体系

行业协会作为非政府、非营利的公益性组织,具有沟通、监督、自律、协调等功能。2023年7月,美国生成式人工智能协会计算机器全球技术政策委员会发布了《生成式人工智能技术的开发、部署和使用原则》,就生成式人工智能技术提出最新的使用规范,以进一步指导生成式人工智能技术行业的发展。目前,我国关于生成式人工智能技术的使用指南存在明显的不足,政府、企业与技术人员需要抓住时代与国情特点,组建有影响力的生成式人工智能行业协会,在相关法律的指导下制定合理的行业规范,建立新的行业标准,构建严密的风险防范体系,从而推进我国人工智能行业的进步。

(四)政府机关:完善立法,加强管控

ChatGPT等生成式人工智能的出现引发了知识危机,虚假信息、知识产权纠纷、技术作弊等问题随之出现,知识产权保护、合法性检查、纠纷协调和解决、技术防弊等问题亟待解决。政府机关需要完善相关立法,确定生成式人工智能的使用场景,制定生成式人工智能的使用规则,对生成式人工智能的使用进行严格限制;对非法使用生成式人工智能的行为进行处理,依据其对社会造成的危害程度制定相应的惩处条例,从法律层面对生成式人工智能用户行为进行威慑。

法律对不法行为的处理大多在违法事件发生之后,在监管方面相对滞后。这要求政府机关出台相应的监管措施,保证用户正向、积极、合法地使用生成式人工智能。同时,政府机关应出台相关引导措施,对自主开发数据监管和甄别系统的互联网平台予以资金扶持。政府机关应从法律、监督和引导层面着手,将硬性威慑和软性引导相结合,促进行业生态向好发展。

四、结语

以ChatGPT为代表的生成式人工智能以其强大的信息生产能力和近似真人的沟通方式影响着多个领域的发展,推动着社会的变革。其在健康传播领域有着广阔的应用前景,能够在健康信息生产、人机信息互动以及健康信息检索三个方面发挥巨大的作用,同时,也会造成信息误差、引发知识产权纠纷、拉大数字鸿沟等问题。以梅赛尼为代表的技术中性论者认为:技术只是工具和手段,本身无所谓善恶;决定技术善恶的是使用技术的人;技术会带来社会问题,同时也在解决社会问题。技术对社会的影响是否向好向善,归根结底取决于人类如何选择和使用技术,而不在于技术本身。我们应当倡议社会各方最大限度地发挥生成式人工智能的正面价值,促进健康传播领域以及其他社会领域积极向好发展。

[参考文献]

[1]崔保国,邓小院.ChatGPT给传媒业带来机遇与挑战[N].中国社会科学报,2023-03-07.

[2]赵美荻.个体在线问诊使用意愿的影响因素研究[D].昆明:云南大学,2020.

[3]韩博.ChatGPT引发的人工智能内容生产传播风险[N].中国社会科学报,2023-02-16.

[4]蓝江.生成式人工智能与人文社会科学的历史使命:从ChatGPT智能革命谈起[J].思想理论教育,2023(04):12-18.

[5]冯雨奂.ChatGPT在教育领域的应用价值、潜在伦理风险与治理路径[J].思想理论教育,2023(04):26-32.

[6]王韵婷.智能时代下对数字鸿沟的再认识[J].声屏世界,2021(18):80-82.

[7]蔡士林,杨磊.ChatGPT智能机器人应用的风险与协同治理研究[J].情报理论与实践,2023(05):14-22.

猜你喜欢
健康传播
健康传播在畜牧兽医实践中的应用探究
基于实践视角的医学生媒介素养教育新探
《燕赵都市报》做好健康类新闻的认识与实践
科学传播视域下社交媒体中健康传播的特点及发展趋势研究
我国健康期刊出版的现状与问题
新疆乡镇居民健康信息传播类型研究