治理算法黑箱:建构算法科技与新闻伦理的道德智能体

2023-11-15 05:58刘耀华
大众文艺 2023年18期
关键词:伦理算法

刘耀华

(鲁东大学,山东烟台 264000)

算法科技与大数据的结合使传统新闻业的生产与传播发生了质的变化,带来了全新的媒介形态和用户收发生态,创造性的改变了处于行动者网络中的各个参与者间的互动关系,引发学界对新闻伦理进化的社会性思考。微观上,算法科技对从事传播行业的记者、编辑的职业理念、道德观念、采编方式等与新闻伦理相关的态度总和产生影响。对于普通用户来讲,首先,人们的信息越来越容易被获取、分析和应用。如果这些信息被错误使用,就有可能导致个人隐私泄露、身份被盗用等问题。其次,大数据中包含了很多个人的信息和数据,而某些算法可能会基于这些数据做出不公平或者歧视性的决策。再者,大数据在分析和处理数据时,往往会受到样本偏差和数据质量等问题的影响,从而可能会导致某些分析结果出现偏见和误导。最后,随着人们越来越依赖互联网和智能设备,大数据所带来的高效和方便也会让人们过度沉迷其中,导致精神健康问题。宏观上,根据中国互联信息中心发布的数据来观察,2023年上半年网民规模总量已经达到了10.65亿。再加上“双千兆”等基础网络建设的不断夯实与扩大,普通人随时随地接触使用互联网机会和可能性越来越多,官方和私人媒体出于对宣传、利益、流量等的需求,数据在分秒之间便可大量产生与消费,由于存在着信息茧房、网络放大效应和群体极化等原因,各种社会矛盾会不断滋生,导致群体性事件多发频发。大数据技术的发展会对一些传统产业和就业岗位带来冲击,这可能会导致经济结构的变革和失业问题。进而影响政府公信力、民众信服度。作为调节媒体与公众间关系的智能体,要产生积极的社会影响。因此,本文试图从拉图尔行动者网络入手,改善算法黑箱,探索处于网络中的人为因素及非人因素能够发挥地对算法科技的影响力,试图使算法科技与新闻伦理能够有机融合为一个道德智能体。

一、算法科技对新闻伦理的影响

康斯坦丁·多尔将算法新闻定义为,“从私人的或公共的数据库中选择电子数据,对预选或未选数据进行相关性分配,通过自然语言生成语义结构并在特定范围的线上或线下平台中发布的最终文本”[1]。总体而言,由于算法科技具有繁杂的程序逻辑,将其应用于新闻领域便会生成难懂的传播流程,即算法黑箱。算法黑箱的形成多是源于算法技术本身的复杂性以及媒体机构、技术公司的排他性商业政策,本质在于不透明、不公开、技术门槛高和难理解。拉图尔则指出:所有科学知识形成的过程就是在黑箱中完成的[2]。作为传播信息和认知的新闻行业,在借助于互联网技术生成并分发的过程中也存在人为因素和非人为因素共同作用,因此有必要对算法黑箱形成过程中的所有参与因素进行考究。

拉图尔针对转义过程中造成的差异现象提出了“转义”概念,拉图尔认为在行动者网络理论中,转义者与行动者的概念一样,转义者会改变(transformation)、转译(translation)、扭曲(distort)和修改(modify)他们本应表达的意义或元素。[3]在此转义者的链条之中,有可能仅仅是一种小到难以惹人注意的程序或者信息等原因也能够为改变此链条上的一个拐点方向而助力,造成信息的传播格局发生根本性的变化。如果将转义者比作设定程序前输入的既定算法,其中可以认识和了解到此算法中所包含的条件和信息等各种数据,唯一无法确认和预测的便是转义者的参与会输出、引发何种差异。算法科技中包含的转义者并非只有算法创立、设计和运用主体等人为因素,也包括算法技术接收终端和技术层级等非人为因素。

(一)算法技术下的新闻行业:新闻专业主义被消解

在算法设计之初,算法设计者们会提取用户的各类网络数据建立用户数据档案库,并根据个人主观偏见与公司商业利益等不断地进行算法数据匹配实验,以期设计出一套能够完美符合个体用户画像的算法机制后与人工智能完美结合。在此设计过程中,算法设计者可能会将“流量至上”原则植入算法程序,也难免会将自我价值观念和偏见植入,这种以数据主导、流量为王的移动阅读环境,加剧了低俗、虚假新闻的产生;算法新闻的个性化推荐,又进一步强化了信息传播的闭环,消解了传统媒体坚守的情怀、专业主义和对主流价值观建构[4]。

(二)算法技术下的新闻生产:新闻质量及价值被削减

随着互联网进入人工智能时代,人类期望生产出一种能够对人的意识、思维、习惯进行模拟和了解个人行为方式的智能机器。这就必须要有数据、算法的介入使之变成可能,进而催生了机器学习写作、算法推荐、数据抓取、语言识别翻译等越来越多应用于新闻领域生产的技术。

在新闻生产环节,部分媒体和商业过分追求新闻的时效性而采用了暂时尚未成熟的机器写作技术,将其应用于金融、民生等宏观和小众体育栏目、逸闻等长尾领域。由于部分涉及领域的数据总量大、变化快,即便先进的写作机器人在实现数据准确抓取、处理速度等方面仍有不足,过分地使用造成了泛滥的以依赖数据为主导写作的扁平化新闻,挤压了新闻真实性的生存空间;同时,在内容丰富性、分析深度、文字理解上的能力都不及人类,输出的文章味同嚼蜡,缺乏情感的铺设。机器写作虽然能够满足受众对于热点新闻监测的及时性和时效性的需求;同时能够使记者从快新闻中脱身,但总体而言,新闻内容的质量被削弱,使服务于社会的新闻价值呈现递减状态。

(三)算法技术下的身份识别:算法歧视与隐私泄露

随着算法技术的不断发展,机器深度学习成为可能,越来越多的社交类APP引入了计算机视觉分析中的图像识别算法技术,与人类识别图像内容的原理大抵相同,通过对图像中的像素分布、颜色、纹理等特征的统计和特征提取,将图像内容所属的类别进行正确的划分和准确识别图像内容真假。旨在避免过多的机器人注册和提供更高的安全性、精度以及自动化,但目前的算法识别技术在保存识别图像时,会因为数据库建设不完备从而丢失一些关键信息,引发严重的道德和伦理歧视问题,如据美国有线电视新闻网在2021年10月7日报道,因打车软件优步(Uber)的人脸识别系统无法正确地辨别有色人种,被指控涉嫌“种族歧视”,三名当事人已向英国劳动法庭提起诉讼,具体原因是官方指出此数据库是针对白种人建立且缺少必要监管,造成了杰米·萨斯坎德所说的“中立谬误”问题[5]。

算法在进行面部身份识别时,科技公司会有意地利用这一技术与机器学习结合使用帮助识别用户面部表情并理解与该表情相关的情绪,建立相关数据分析库并应用于广告推销行业,以期获得良好的产品反馈和广告推送。如挪威的Peppes Pizza餐厅正在使用带有隐藏摄像头的面别识别技术来投放性别广告。这引起了业界与学界关于自由隐私问题的讨论,主要的担忧在于像Facebook、Google、Apple等科技巨头在使用相关技术收集用户的活动签到、喜好、面部特征后被黑客组织盗取,从而造成大规模的隐私泄露。在此之前,Findface通过头像就可以在所有的2亿个VKontakte(俄罗斯最大社交网络)个人资料中识别用户,该软件的最初目的是帮助用户寻找新朋友,后来被许多非法团体利用识别和骚扰相关用户。

(四)算法技术下的新闻推送:信息窄化

互联网上成千上万的新闻造成了信息爆炸,为了提升抓取用户的浏览、搜索和停留时间及可用的数据,以数据化的方式画出用户的喜好、行为和习惯画像,从而巧妙地利用搜索引擎与算法推荐技术相结合,精准的缩小信息的推荐和分发的范围和提升效率。算法推荐技术可以看作是赋予算法进行信息筛选的权力,是一种“系统发起的个性化”。也就是说,算法的“过滤气泡”在很大程度上代替受众主动定制媒体内容的权利,信息窄化在很大程度上以“系统主导”模式压制“用户主导”模式,总体呈现出工具理性大于价值理性的媒介偏好,造成了新闻内容呈现的高度窄化,曼纽尔·卡斯特所言:“我们感受和思考的方式决定了我们行动的方式”,用户生存在对内容同质化定制的“制茧”中,成为无理性、非自主性的写照,由此引发伦理挑战。

算法的设计程序涉及商业机密绝不可能为大多数学者唾手研究,因此很难参透其算法黑箱的设计漏洞与底层逻辑及黑客的攻击不可预测性加剧了算法失控的风险,以上原因成为阻止公众进行伦理规制与识别的障碍。从拉图尔的转义理论来看,算法设计主体到运用主体及参与其中的各类转译者无法有效沟通、转义自身的价值与理念,最终造成信息窄化与道德偏差

二、建构新闻道德智能体的可行性路径

算法技术对新闻伦理造成的影响表现在技术与道德规范两者间断裂的问题。算法技术强调的是传播效率和个人定制化的传播理念,追求信息自动生产与匹配度的最大化。相比之下,传统新闻业对于新闻伦理的推崇表现在注重事实、从向善的角度衡量新闻内容。两者之间存在理性上的割裂,形成了对新闻伦理现代化的争论。因此,有必要探寻构建算法技术与新闻伦理的道德智能体的可行性路径,改善算法黑箱,实现两者间的有机结合。

(一)微观层面增加转义者间的交流

从算法创设主体到算法运用主体等各级参与到算法技术中的主体数量较多。不可避免的是在其运作的过程中,算法运用主体成了“新闻分发平台的代笔工具”,而算法的创设主体却倒置地成了能够凭借强大资本力量和高等技术设定新闻规则的制定者。因此认识到不同主体在微观层面的“转义”作用是探索交流的基础。

拉图尔曾强调要通过实践来对科学的过程而非结果进行理解和考察,逐渐在网格式的建构过程中生存发展成为科学,这是一种“正在形成的科学”,在这种网络中则会囊括所有的社会资源和人类计谋。在行动的过程中的行为实施者不仅包含了人,同时也包括如工具、设备、机器等非人因素。

在新闻生产与分发过程中的交流者分别为新闻工作者与算法设计师,两者应就如何利用传统的新闻伦理语境约束当下的算法新闻技术、在“人——机”协同过程中体现新闻工作者的求实、质疑精神、监督机器写作技术在新闻创作中的应用。

在算法技术公司的内部,其算法工程师多是以完成目标和绩效为主,很少有努力思考在工作过程中所产生的系统性后果。多数情况下,数字技术是按掌权者和特权者的立场设计的。因此,研发人员应作为算法工程师需要深入学习和了解传统的新闻伦理知识,尤其是在现代化的道德语境之下,搭建一套能促进算法技术与新闻伦理有机结合的智识框架,以帮助清晰且批判性地思考数字创新的伦理后果,提升新闻的应用价值。

(二)中观层面规训算法新闻道德智能体

算法技术应用于新闻业的过程中出现了算法权力与用户权利之间的不平衡,折射出算法设计过分关注技术理性、预测准确度和执行效率,因此亟待从中观层面发力全面规训算法新闻道德智能体向善发展。

第一,需要对目前已存在的监控机制的完善,比如事先将融合了伦理和个人隐私保护的算法新闻道德智能体通过测验“数据变换、隐藏、随即扰动、平移、翻转”[6]等环节,保证用户数据在算法技术的抓取与筛选等环节不会被滥用、误用、泄露。第二,构建人机把关下的算法规制。传统新闻时代对于新闻伦理的规制通常表现为人工检查,在进入人工智能时代则需尝试构建“人——机协同”的算法新闻伦理机制,从监控、预警和奖惩三个向度对算法运行过程中的各参与者接收处理数据的过程与结果进行伦理干预,确保此过程中被转译的各种需求与建议得到沟通和受理。第三,相关责任部门需要增强对算法科技公司的问责力度。鉴于目前的审核监管多是采用“人工+智能”模式,这种审核模式的短板在于仅仅贴切政治相关的问责机制,对于新闻评论中的谐音辱骂、挑衅等问题不能有效解决。在这种情况下,应进一步细化监管条例,加深监管的深度与宽度,全面提高对算法新闻道德智能体的综合管理效率。

黑箱的外壳(已经确定的历史事实在这种清理和追踪活动中逐渐变得透明。这种活动主要设计的是指政治、文化、社会层面的治理。技性科学观是行动者网络的核心概念。

(三)宏观层面促进算法技术与新闻伦理的有机融合

为识别和防范算法在全球新闻业中带来的安全风险,我国政府于2022年3月1日起正式实行《互联网信息服务算法推荐管理规定》,强调了算法技术在发展过程中所必须坚守的原则问题,旨在拒绝算法“绑架”、扼制“大数据杀熟”,从而维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。在此基础上还应从宏观上规划人工智能技术与新闻产业综合整理,调动人工智能产业从为服务人民的角度出发,持续推动为群众解难题的目标,提升自身利用价值。此外,对于诸如“不得生成合成虚假新闻信息或者传播非国家规定范围内的单位发布的新闻信息”“不得利用算法实施影响网络舆论、规避监督管理以及垄断和不正当竞争行为”等条例、要求与规范进行进一步的细化,由事后查处向事前事中监督转变,因此确立起算法技术在新闻生产、分发过程中的边界是目前算法新闻伦理的宏观问题。

结语

以上基于算法技术下的新闻行业、新闻生产、身份识别、新闻推送四个层面带来的算法伦理问题,透过拉图尔行动者网络理论和微、中、宏三个层面构建新闻道德智能体来解决算法伦理中存在的潜在和突出问题。

总之,在技术发展与伦理规范相冲突时,要自觉将工具理性与价值理性有机结合,从而赋予人工智能对于解析和判断道德和伦理困境的能力,在短期内对成果进行研判后取舍,有效治理算法黑箱中存在的弊端。防范与化解其中的伦理和道德等问题,营造人机协同高效治理的传播生态。

猜你喜欢
伦理算法
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
算法初步两点追踪
基于增强随机搜索的OECI-ELM算法
一种改进的整周模糊度去相关算法
医改莫忘构建伦理新机制
论《觉醒》中的伦理关系