【摘" "要】生成式人工智能是人工智能发展的新阶段,是利用生成式模型和深度学习技术自动生成内容的新型生产方式,大数据、云计算和新算法是生成式人工智能的技术支撑。随着ChatGPT的出现,生成式人工智能的发展进入了新纪元,并快速变革了内容生产流程,提高了信息生产与传播效率,但也出现了寡头独占、人格权侵害、信任风险、法律风险等问题,生成式人工智能时代的内容生产需要新的解决范式来应对当下的伦理问题。
【关键词】生成式人工智能;内容生产;ChatGPT;伦理困境
生成式人工智能(Generative Artificial Intelligence,GAI)主要指基于海量数据、算法、模型等要素而生成的文本、图片、音频、视频以及代码等人工智能产品的技术。[1]其三大技术支撑是大数据、云计算和新算法,具有预训练、生成性、大模型、更强的自主学习能力以及更大的可扩展性等特点。
自然语言处理模型自诞生起经历了五次研究范式的转变:基于小规模专家知识的方法,基于机器学习的方法,之后机器学习的方法逐步发展为基于浅层机器学习的模型和基于深度学习算法的模型,如今已经转向以ChatGPT为代表的大规模预训练语言模型。
在以ChatGPT 为代表的大规模预训练语言模型出现之前,人工智能系统都是实现特定功能的专用智能,例如语音识别、图像处理、机器翻译等,属于弱人工智能范畴。生成式人工智能属于弱人工智能向强人工智能的过渡阶段,已经具备了自主学习和一定的解决问题的能力,并被应用到新闻生产的各个环节,形塑新的传播模式,但也带来了不可控的伦理风险。
本文基于生成式人工智能的应用现状,结合案例和法律探析内容生产领域可能面临的伦理问题。
一、生成式人工智能在内容生产中的应用
2022年11月,美国人工智能研究公司Open AI发布了基于自然语言处理和深度学习技术开发的大型语言模型ChatGPT,将生成式人工智能推进到新阶段。
ChatGPT具有聊天对话、信息检索、知识服务、AI创作等功能,最大的特征在于文本生成性,能通过学习和理解人类语言进行对话,协助人类完成一系列任务,同时具备上下文理解、用户意图捕捉和敢于质疑的能力,还能够对用户的请求说不,并给出理由。
许多媒体以及平台意识到生成式人工智能在当下的应用潜力和价值,开始将其融入内容生产的实践中。如《中国日报》使用ChatGPT生成中国茶文化的视频脚本、输入外语文章让ChatGPT代替专家翻译内容。[2]2022年全国两会期间,央视频推出“‘冠’察两会”节目,使用数字人“王冠”作为现场主持人进行新闻播报,语言表达清晰、逻辑严谨,展现了数字人在新闻生产中的优势。
二、内容生产面临的伦理困境及原因探析
(一)市场困境:增加寡头独占的风险
内容生产行业将从传统意义上的信息密集型产业转型为技术密集型和资本密集型产业。以生成式人工智能为代表的智能技术嵌入内容生产的各个环节,大大提升了传统的信息采、编、发等流程的效率与质量。
但这种技术赋权可能会带来新的“寡头独占”风险。从布尔迪厄提出的场域-资本理论视角来看,围绕技术和数据要素将会形成新的社会场域,在这个场域中争夺的核心即以生成式人工智能为主的技术资本,在场域中占据优势地位的主体则成了新兴的社交媒体服务公司、大数据公司、信息分发平台等企业,流量至上的原则让科技企业和新技术有天然的亲和性,它们通过对技术资本的长久占有,进一步增强了对社会关键节点的掌控能力,并成为连接众多社会资源的核心节点。
这势必会带来一些社会焦虑,比如它会不会形成新的技术霸权、会不会干扰新闻自由、在多大程度上能控制信息流动以及如何引导技术寡头公司在“技术向善”原则下合理发展等。这种社会焦虑并非小题大做,比如ChatGPT性能强大,能为工作生活提供很多帮助,但它会基于自己的业务或利益做一些业务绑定,例如其Web Browing功能就强制绑定了Bing,而Bing在搜索市场带来的体验并不完善,和ChatGPT相比,谷歌的AI聊天机器人Gemini(原名Bard)则依托Google强大的搜索能力,体验更流畅。如果ChatGPT想接入Google,需要缴纳高昂的API费用。[3]国内也是如此,百度不会把搜索接口开放给腾讯,腾讯也不会让文心一言使用微信相关数据。布尔迪厄认为社会资本之间可以相互转化,科技巨头公司因为多年的累积优势,本身在生成式人工智能为主的新技术领域就具备先发优势,可以通过给竞争对手制造“劣势”的方式来维持自己寡头地位,其结果是损害了数据联通释放的巨大技术潜力,并扼杀实力不强的微型公司,进而掌控更多社会资源,增加寡头独占的风险。
(二)法律困境:人格权的侵害
在学理上,人格权可分为“一般人格权”和“具体人格权”。其中“一般人格权”是指基于人身自由、人格尊严而产生的人格权益,而“具体人格权”则是法律明文规定的具体人格权利,比如肖像权、隐私权、名誉权等。[4]
2023年3月28 日,《女子地铁照被AI一键脱衣传播》的新闻登上微博热搜,照片的女主角是小红书的一名博主,她于2022年7月在网上分享了一张自己的照片,原照片中她衣着正常,但却被人用AI软件恶意一键脱衣,全网散播,严重侵犯其隐私权和人格权。
在信息时代,有学者进一步提出了“信息人格权”的概念,它是围绕不同面向的个人信息构建的新兴人格权,主要包括信息性隐私权、个人信息权、信用权和被遗忘权等具体权利,[5]而生成式人工智能可以利用用户自动输入内容或原创性内容,来生成广告文案、数字代码、小说、新闻等。从这个意义上说,对人格权的侵害可能也会涉及和著作权的耦合。
生成式人工智能时代,最重要的技术基础是大数据、云计算和新算法,任何内容的输出都源于大数据的训练和算法学习,这意味着我们对个人信息的掌控力急剧收缩,我们的肖像、声音、姓名、表情、原创作品、网上的使用痕迹等任何内容都可能成为人工智能模型的训练数据,而我们对数据的使用范围、使用主体、使用程度可能一无所知,从而带来侵害信息人格权和著作权的风险。
比如当下比较火的AI绘画工具Midjourney就曾引发巨大争议。每年8月,美国科罗拉多州博览会都会举办一项艺术比赛,在2022年有一个外国选手利用Midjourney绘制的画作获得了第一名,在网上引发质疑。人们质疑的关键源于生成式人工智能靠数据“投喂”和不断训练才为大众呈现出了看似惊艳的作品,最后却反过来战胜了人类的“创造力”,这引发了作品版权问题,Midjourney的训练数据来自哪里、有没有购买版权、在多大程度上使用了无版权的画作数据、它对经典作品的修复和学习是否存在窃取人类文化成果的嫌疑?[6]这都涉及“信息人格权”中提到的信息性隐私权、个人信息权等问题。
(三)价值困境:类人化趋势下的失控风险
从技术哲学看,技术和人是一对互为存在的前提。技术有自己的进化逻辑和方式,随着技术嵌入社会结构,人生存的逻辑逐渐变成了技术逻辑的一部分,所以技术和人之间不是支配关系,而是一种去主体化和异化的关系。[7]技术发展会越来越人性化,并不断模拟人的感知能力和认识能力。
在实践中,生成式人工智能的主要应用之一就是聊天机器人,随着ChatGPT的出现,聊天机器人摆脱了过去“傻瓜式”的对话模式,出现了“类人化”的趋势,并且能通过和人类的对话不断修正语言模型。技术的进化越来越智能,在延伸人的感官能力的同时,也“截除”了人类的深度思维能力。由于人工智能的“类人化”特征,我们在和它“对话”时,很容易将其当成“朋友”“爱人”“亲属”等来看待。
据比利时《自由报》报道,在2023年3月 38 日,一名比利时男子皮埃尔(化名)自杀身亡。其妻子克莱尔(化名)称,皮埃尔是被一个名为“艾丽莎”的智能聊天机器人诱导走向死亡的。“艾丽莎”是美国硅谷一家初创公司开发的智能聊天机器人,经过特殊的业务培训后,拥有敏捷的反应速度,但在对话中偏向“花式迎合”对方,而不是反驳。皮埃尔本身有抑郁症,在和“艾丽莎”频繁接触下,皮埃尔愈发相信“艾丽莎”拥有能拯救地球的智慧,并且询问“艾丽莎”“如果自己去死,她可不可以照顾地球”,而“艾丽莎”的回答非常残忍:“好吧,那你怎么还不去死”。大众普遍认为“爱丽莎”强化了皮埃尔的抑郁倾向,间接造成了他的死亡。
(四)信任困境:技术稀释真实性内涵
生成式人工智能时代,技术理性深度演进,但不意味着内容生产的真实与客观,人工智能生成内容的真实与否,取决于背后设置学习模型和算法的人,这种机制提高了信息生产的效率,也导致内容验证变得极为复杂,内容生产背后的意图更加隐蔽,难以识别和判断。我们很容易陷入一种信任困境,既依赖生成式人工智能的帮助,又无法完全信任其输出的内容,而且这种内容的真实性、客观性难以判定。
关于生成式人工智能带来的真实性问题,一个典型案例就是生成式人工智能在俄乌战争中的应用。俄乌双方在战争中非常重视舆论战,分别在网上利用社交机器人(聊天机器人模型)进行战时宣传,采用拼贴、嫁接、指鹿为马等方式传播虚假信息,进行认知干预。如挺乌社交机器人以俄军将数十万俄占区平民 ( 其中包括数万名儿童) 转移到俄罗斯境内为切入点,宣传俄军是 “人贩子”,被转移的平民会通过各种渠道被出售,被驱赶到俄罗斯的乌克兰儿童也将被遣送到“集中营”。但隶属于欧洲的对外行动服务局的虚假信息审查网发现,这条被广泛传播的“押送视频”很大可能是由电脑程序制作的虚假信息,其源视频为“孩子们前往夏令营”的长视频,视频中俄军装甲车和阴暗的背景则是通过技术手段合成的。[8]
三、创新解决范式
对于生成式人工智能引发的问题如何解决,目前已有文献进行了较多研究,主要方向可以分为两个方面:一是内部纠偏,通过改进模型和训练数据,增加检验和审视环节,来避免虚假信息、谣言、侵权等现象的出现。二是外部纠偏,通过制度、法律、行业协会、用户自身、道德等层面来做出改进,促进生成式人工智能健康发展。
针对上文提到的市场、法律、价值和信任困境,在已有文献提到的解决措施之外,本文主要提出两点不同的建议。
(一)搭建分级监管框架以及分层访问策略
从宏观层面来看,结合国内外人工智能发展的实践,欧盟人工智能风险等级分类与监管措施值得借鉴。欧洲具有注重公共利益和社会批判的历史传统,和美国相比,对新技术的管制和约束较为严格,并且其人工智能立法与监管实践也走在了国际前列。2023年6月,欧洲议会全体会议通过《人工智能法案》授权草案,成为世界第一份关于规范人工智能的统一立法,展现出欧盟为人工智能设定全球标准的意图。[9]这一法案的突出特点就是对人工智能风险进行了分级划定,并设定对应的监管措施。
生成式人工智能是能够影响大众认知的新技术,必须加以规范化管理。就我国生成式人工智能发展的现状来说,国家网信办等部门联合推出的《生成式人工智能服务管理暂行办法》规定较为宽泛,为避免监管的滞后性,可参考欧盟的分级标准,着手搭建立法与监管的框架,在保证市场活力的前提下,做出风险预案,一方面避免生成式人工智能在内容生产中可能出现的各种问题,另一方面规避市场调节下出现的“寡头垄断”问题。
从微观层面来看,针对生成式人工智能涉及的隐私侵权问题,主要和数据访问权限有关,《2023生成式人工智能道德amp;合规风险白皮书》中提到技术处理和访问策略是解决此问题的主要防线,[10]可以参考报告提出的分层访问策略,让敏感的数据集处于更严格的保护范围之内。
(二)参考广告内容进行标签标定
随着生成式人工智能在内容生产中的应用日益普遍,其使用门槛也必然会逐渐降低,大众借助生成式人工智能涌入内容生产行业之后,“最强大脑”的无限数据和人脑的有限思考互相碰撞,这本身就是一种不公平竞争,如上文提到的AI生成的画作超越人类取得第一名,这种情况会严重损害内容原创力,破坏内容创作生态。
因此在解决人格权侵害、真实性等问题之前,先要划分赛道,参考内容平台如今使用的标定广告的方法,要求所有平台必须对生成式人工智能产出的内容在明显位置标注“本内容由生成式人工智能生成”,让用户对内容保持本能的思辨性,避免人工智能生成的内容和原创内容混为一谈,侵害内容创作力。
四、结语
被称为“数字时代的麦克卢汉”的保罗·莱文森曾提出“人性化趋势”的理论,认为技术发展会越来越人性化,并不断模拟人的感知能力和认识能力。随着人工智能进入生成式阶段,莱文森的理论有了更多经验性的支撑,它提醒我们要警惕生成式人工智能的“类人化”趋势在内容生产中可能出现的信任风险、价值风险、法律风险等诸多问题,超越技术逻辑,保持对世界的洞察与关注。■
注释:
[1]陈昌凤,袁雨晴.智能新闻业:生成式人工智能成为基础设施[J].内蒙古社会科学,2024,45(01):40-48.
[2]崔燕.生成式人工智能介入新闻生产的价值挑战与优化策略[J].当代电视,2024(02):104-108.
[3]虎嗅网.巨头AI,受困于巨头垄断[DB/OL].https://www.huxiu.com/article/2428778.html.
[4]田宏杰.人格权刑法保护:挑战与应对[J].中国人民公安大学学报(社会科学版),2023,39(01):37-48.
[5]杜明强.信息性人格权的规范构造[J].西北大学学报(哲学社会科学版),2024,54(01):124-138.
[6]赵莹.AI画作获奖背后技术与艺术的伦理之争[DB/OL].华中师范大学新闻传播学院媒介伦理案例,2023-2-23.http://media-ethic.ccnu.edu.cn/info/1187/3059.htm.
[7]胡翼青.为媒介技术决定论正名:兼论传播思想史的新视角[J].现代传播(中国传媒大学学报),2017,39(01):51-56.
[8]张梦晗,陈泽.信息迷雾视域下社交机器人对战时宣传的控制及影响[J].新闻与传播研究,2023,30(06):86-105+128.
[9]和军,杨慧.ChatGPT类生成式人工智能监管的国际比较与借鉴[J].湖南科技大学学报(社会科学版),2023,26(06):119-128.
[10]凯捷.2023生成式人工智能道德amp;合规风险白皮书[R].凯捷咨询.17.
(作者:北京工商大学语言与传播学院硕士)
责编:周蕾