摘要:人工智能的兴起抬升了算法在社会信息分配中的地位,而以物理世界为学习原料的算法将现实社会中的偏见延伸至网络虚拟领域,通过隐形的力量塑造着赛博空间的潜在秩序。新闻出版行业是大众信息获取的“把关人”,如何与算法这一隐形力量有效合作,保证新闻客观与新闻真实成为亟待解决的问题。文章将新闻出版业中算法偏见的表现形式分为意识形态偏见、主流文化偏见、个体特征偏见三类,并从宣传引导、系统建构、人才培养三个方面,为纾解算法歧视提供思路借鉴。
关键词:人工智能;新闻出版;算法偏见
随着人工智能计算机系统被广泛运用在社会的各个领域,计算机强大的数据搜查与整合能力受到越来越多新闻出版者的青睐,并开始协助工作人员挖掘话题、梳理大纲、审校文本。有些生成式人工智能甚至摇身一变成为新闻出版的主体,自主撰写新闻文章。2020年9月8日,英国《卫报》刊登了GPT-3(可生成类人文本的人工智能程序)生成的一篇文章。文章首段开门见山地表示:“我不是一个人类,我是机器人,一个会思考的机器人。”尽管这篇文章由人类进行过编辑和校正,但依然在新闻界引起了轩然大波。算法逐步打破原先网络的虚拟限制,走进真实的社会。与此同时,算法偏见的出现打破了人们原先对计算机系统“完全客观、完全公正”的片面认知,人工智能似乎已不再是对人类的模仿。这引起了公众对人工智能这一新兴事物及其背后算法的担忧。
一、新闻出版业中的算法偏见
(一)意识形态偏见:赛博空间中强权政治的开疆拓土
从现阶段来看,欧美等西方国家借助其自身在信息技术方向的先决优势,持续推进人工智能的开发,将本民族政治文化纳入机器学习的大背景,机器模拟不再是作为世界公民的个体,而是开发者所在阶层、所持政治态度的缩影。文化霸权主义从物理空间进一步蔓延至虚拟世界,看似客观的算法存在着被规训的政治视角,代表规训者发言,强权政治在信息技术上继续“开疆拓土”,占据话语主导,弱势国家、民族被持续打压,建构出强者越强、弱者越弱的新一轮沉默螺旋。在我国,新闻业是党和人民的耳目喉舌,作为该事业重要组成部分的新闻出版也不能例外。因此,当人工智能进入新闻出版行业时,其辅助的选题策划、信息采集、内容建构、营销推广实际上包含着规训者借助技术渗透的意识形态,如果未能及时辨别,国家安全将受到严重威胁。
(二)主流思想偏见:多元社会下新闻严肃的消解
当前,社会日益呈现出多元化倾向,网络空间被各种内容填满,这些庞杂的信息良莠不齐,受众往往因为浅层需求而大量摄入不用思考的娱乐化内容。利己主义、娱乐至上等非主流思想驱逐主流思想,兼具深度、高度和锐度的新闻严肃被消解。
一方面,算法偏见加剧受众疏远主流思想。个性化推荐系统所运用的协同过滤算法是当前网络环境中最常见的算法系统之一,作为人工智能计算程序,它主要是以不同用户和商品间的相关性检测为根据,并借此计算消费者偏好,制订个性化广告、内容推送。基于这种逻辑,算法天然地会将受众好恶作为衡量信息价值高低的决定性标准。受众的选择不断肯定着个性化算法的基本逻辑,算法也不断向受众投放相似的观点和内容,塑造出信息茧房,公众误认为自己喜爱的观点是正确的,完全没有意识到正在同主流思想渐行渐远。
另一方面,算法偏见被非专业主体用来制造边缘文化。互联网的诞生整合了以往传统媒体文字、图像、音频、视频等各类表达方式,新闻传播的主体由最开始的记者、新闻工作者转向大众。部分非专业力量片面追求流量利益,迎合受众需求,将内容中心迁移到纯粹娱乐上来,吸引快节奏和高压生活下的受众点击浏览,受众的推崇鼓舞算法判定这类内容具备价值,将之推荐给更多人。非专业力量的影响通过算法偏见得以扩大,不断挤压专业新闻出版主体的生存空间,增加新闻出版行业的发展压力,许多专业化媒体、传统媒体迫于维持经营的需求,向算法妥协。
(三)个体特征偏见:刻板印象内个体特征的标签化
人工智能囿于本身是对“人”的模仿,在应用中显露出类人的刻板印象,通过将各种群体打上标签的形式加以生硬区隔,这种分众路径带来了性别、年龄等偏见。
一是性别偏见。由乔伊·布兰维尼发起的“性别阴影”研究发现,微软、国际商业机器公司、旷视科技三家公司生产的人脸识别产品均存在着对女性面部识别的误差,而这一现象在男性面部识别中颇为少见。另有一则案例是亚马逊的人工智能招聘软件,该软件在运行过程中被发现存在严重的性别歧视,更多的工作机会、求职信息向男性倾斜,而那些在平台上输入性别为女的求职者相比之下难以找到合适的工作。相似的事件同样发生在中国,作为现象级社交软件的“抖音”吸引了诸多新闻行业的入驻,这些官方客户端在抖音上出版新闻满足受众信息需求。然而,网友们发现a6b8b93d12877f4c5db7d89c22777fd1,不同性别的人所看见的评论区内容大相径庭。算法抓取信息是现代新闻出版行业了解事实变动的重要渠道,“见人说人话”的人工智能实际上阻碍着媒体全面、客观地探索民意,错误的数据收集可能带来反馈的失实,新闻工作者越来越难以把握受众的实际需求。
二是年龄偏见。2022年,世界卫生组织发出警告称,人工智能系统恐会加深对老龄人口的歧视,影响其健康状况。老年人作为数字弱势群体,明显表现出对高智能化信息技术的不适应,很大一部分老龄人获取信息的渠道同年轻人错位,依然保持着传统的纸媒、广播或电视新闻了解方式。与之相反的是,传统媒体在求取生存的转型中将主要阵地转移到网络平台,许多纸媒停产。新闻出版不断年轻化的同时,高龄人口的信息需求被逐渐忽略,他们的信息来源也随之减少。
二、人工智能语境下新闻出版算法偏见的治理路径
(一)加强社会主义意识引导,创新主流思想宣传形式
应对算法偏见,首要的是应对意识形态和主流思想偏见。新闻出版行业要坚持用社会主义核心价值观引领新闻出版发展,坚守思想阵地,加强理论武装,真正使人工智能算法为党的新闻业所用,为国家的新闻业所用,为人民的新闻业所用。一方面,新闻出版业要增强风险意识,守住意识形态底线。新闻出版行业工作者在使用各种人工智能信息技术辅助出版时,要警惕算法中西方意识形态的渗透,建立健全产业内部自查体系,严肃对待人工智能,尤其是生成式人工智能这一新兴技术。人工审核不应在新闻出版的全过程中缺位,面对尚处于发展阶段的算法,身为意识主体的人的存在是避免技术越轨最好的保障。新闻出版行业工作者警惕技术风险的同时,要善于反向利用算法筛选、过滤与国家意识形态相悖的恶意论调。另一方面,新闻出版业要坚持党性原则,打造思想高地。党性原则问题是社会主义新闻工作中的重大理论和重要实践问题,是新闻出版行业在每个时代必须回答的问题。当今世界是思想多元化的世界,坚守党性原则就是要有正确的政治导向,新闻出版行业工作者要发挥主观能动性,在把握底线思维的基础上积极宣传党的政策与主张,弘扬主流思想,引导舆论回归正轨;充实大众媒介素养,激发全社会向善、向好的精神气力;不断创新创造宣传形式,将人工智能算法有机地运用在扩大受众媒介可及性上,充分延展新闻触角。
(二)支持国内人工智能产业发展,构筑符合本土环境的算法体系
算法受到开发者固有思想、社会制度和数据采集实践的影响,想要真正纾解算法偏见问题,就需要避免被技术“卡脖子”。各级政府支持国产人工智能发展,首先要着眼政策,落实科技兴国战略,切实营造出智能智造的科技氛围;其次,要完善版权保障体系,尊重研究成果,既要保护符合本土语境的算法创新,又要保护公众隐私,在公众被告知且同意的情况下获取数据集,将技术发展建立在符合伦理道德的基础上;最后,要大力推进人工智能产业高层次人才培养,适当扩充财政教育支出,引导高校合理分配研究资源,进行知识交流合作,为新时期信息技术发展贡献合力。人工智能产业的发展要杜绝以短期效益为目的,这不仅要求科研人员坐得住“冷板凳”,更要求全社会对技术研究有耐心,为人才培养、技术发展塑造和谐的大环境。科技工作者要持续对现有算法进行优化,在改进计算逻辑的基础上尽可能避免业务理解偏见、数据集偏见、技术偏见和实践偏见。科技工作者要端正态度,以辩证的思维看待算法技术,对于其中合理的部分加以学习转化,对于其中敌对、冲突的内容进行改造。中国本土语境算法的构筑绝非争夺赛博空间政治权利,而是要抵制单一话语权带来的霸权主义,是世界多元化的重要和平力量。
(三)打破专业壁垒,打造复合型新闻出版工作者
规避算法偏见需要新闻出版工作者对算法运行的基本逻辑有初步的了解,只有明确技术运作的原理,才能从实际问题出发,探讨诱发问题的现实因素,从而选择更客观、合理的实践路径。打造复合型新闻出版从业者是全面建设高素质出版人才队伍的必经之路,也是紧跟时代潮流、反映时代脉搏的要求。对于已经在出版行业工作的技术人员,出版社应积极组织继续教育,国家级出版社要依托现有党政资源和影响力,向下带动省市地区级出版社,为缺乏资金和教育资源的弱势组织提供助力,举办多次、多种培训,在意识形态、主流思想上组建统一战线、统一口径,贯通垂直体系;省市地区级出版社要拓宽视野,新闻出版企业之间要多沟通交流,把彼此看作为了共同的社会主义现代化目标奋斗的好伙伴,而非抢占市场份额的竞争者,同时保持谦虚心态,合理树立榜样意识和比拼意识,在你追我赶中延伸横向连结。对于尚未进入出版行业的、仍在校园中的学生,学校要开设与人工智能语境下新闻出版相关的课程,培养理论基础扎实,且具有复合型思维的人才。此外,新闻出版企业要同高校紧密联系,为学生提供实习实践的岗位。
三、结语
人工智能塑造的网络虚拟空间并非完美无缺的“乐土”,映射着人类真实偏见的算法实际上为大众建构了一个与自己有相近观点、充满娱乐性色彩的拟态环境。对待技术,我们理应正视它内部的意识形态逻辑,引导其向更符合社会主义现代化要求的路径靠近,弘扬好以社会主义核心价值观为代表的主流思想,打破从刻板印象中脱胎的痼疾成见,将算法从流量的桎梏中解放,切实为人民更美好的物质文化需求服务。
参考文献:
[1]王悠然.全球认知生态系统兴起[N].中国社会科学报,2021-07-09.
[2]刘海龙,连晓东.新常人统治的来临:ChatGPT与传播研究[J].新闻记者,2023(6).
[3]叶青,刘宗圣.人工智能场景下算法性别偏见的成因及治理对策[J].贵州师范大学学报(社会科学版),2023(5).
[4]卜素.人工智能中的“算法歧视”问题及其审查标准[J].山西大学学报(哲学社会科学版),2019(4).
[5]贾诗威,闫慧.算法偏见概念、哲理基础与后果的系统回顾[J].中国图书馆学报,2022(6).
[6]谢梅,王世龙.ChatGPT出圈后人工智能生成内容的风险类型及其治理[J].新闻界,2023(8).
(作者单位:南昌大学公共政策与管理学院)