刘 斌
[提要]算法技术与人工智能的出现极大地影响了新闻传播业的理论与实践,生产流程的外部化、参与者的多元化以及伦理事实的跨界化引发了对新闻客观性、专业主义以及媒介信念的思考,进而影响到对新闻伦理内涵与外延的重新界定。技术话语体系与道德话语体系之间的断裂与冲突激发了重构新闻伦理的迫切需求——将算法及相关研究者以及媒介、公众与政府纳入到算法的技术评估范畴,实现各方利益的均衡,并从微观、中观与宏观层面推动新闻伦理的重构,为新闻业的发展营造良好的技术与道德环境。
算法与人工智能的出现创新了传统新闻生产方式和工作流程,改变了媒介形态和传播生态,进而影响了新闻传播过程中所有参与者的相互关系,引发了对新闻伦理的社会性思考。所谓“伦理”,是人与人相处的各种道德准则[1](P.857)。正如梁漱溟所说,“伦者,伦偶,正指人们彼此之相与”[2](P.72-74)。由此观之,新闻伦理是传媒业及记者、编辑在新闻报道活动中所遵循的有关职业信念、行为规范、道德品格等各种正式与非正式制度的总和。新闻伦理在内向维度上调节传媒、记者、编辑之间的行为及相互关系,外向维度上则是调节媒介与政府、公众之间的关系,关涉大众对媒介的信任度及媒介的社会影响。目前,算法作为一种生产要素已经渗透进新闻生产与传播流程的各个环节,逐步成为新闻传播业的主导性力量之一。由于算法新闻涉及用户对客观世界的建构问题,因而对进入新闻领域的算法需要予以新闻伦理的检视。本文从技术与社会的关系入手审视算法对新闻伦理内涵及外延的冲击,进而探讨技术伦理与新闻伦理之间对话的可能性。
从技术哲学的角度来看,技术并非完全外在于新闻伦理。传媒技术通过延伸人类的感官,调节人的经验与行为,对人与世界的关系施加了一种建构性的影响[3](P.9-11),从而形成了对主体进行规制、管理和矫正的权力结构,进而影响到传媒与公众、社会、政府之间的关系,具备了道德调解功能。[4](P.113-114)从这个角度来看,新闻伦理应被视为“人—技结合体”的共同产物。[5](P.179-181)长期以来,技术与新闻伦理的关系一直处于被忽视的状态,而算法新闻的出现迫使人们空前关注传媒技术与新闻伦理的关系,甚至将之提升到影响新闻业存亡的高度。
早期人类传播体系中,人类的伦理观与天命观相符,传播伦理与政治观相混杂,人类伦理观既是处理人与人之间关系的原则,同时也是对传播活动的基本要求。科学技术与工匠技艺则被统治者贬抑为“奇技淫巧”,其社会地位和影响大大受限。
随着近现代传媒业的出现,“拟态环境”这一概念体现了媒介对受众关于真实、关于社会认知的影响,[6](P.9-10)因而对内容生产者——记者、编辑的行为进行控制与规范就显得尤为重要。《报人守则》《记者行为原则宣言》《新闻工作者职业道德准则》等相关规章制度的面世则确立了不同时代新闻报道活动的操作规程与行为准则,以保障信息传播的客观、真实与中立。不仅如此,这一时期人们已经意识到了媒介技术如电视“音画兼有”的特性与现场感对受众感官和经验的影响,但对传媒技术的道德调解作用涉及甚少,相关研究往往与媒介内容分析、效果分析相互混杂。
借助互联网、即时聊天软件、社交媒体,人类实现了“中枢神经系统的延伸”。[7](P.20-21)技术的进步推动了新闻生产过程的去组织化、UGC个体实践的开放化、传播路径的网络化与文本形式的碎片化,促进了新闻业的“液化”,[8](P.3-5)“传—受”关系出现逆转,新闻从业者的职业认同、群体认同也随之发生变化,而在“技术中立”原则下网络传播主体对速度与效率的追求超越了对真实、客观的尊重。当社会学家、政治家、传媒机构、公众开始讨论如何重构传播参与者的社会责任感与道德伦理时,科学家、算法工程师与技术人员等主体被排斥在外,这也是面临新技术挑战时传统新闻伦理几乎束手无策的根本原因所在。
随着人工智能、大数据、区块链等新技术的发展,人类迅速逼近人体延伸的最后一个阶段——从技术上模拟意识的阶段。[7](P.20)算法进入人们的视野并将其技术潜能转化为现实,成为人类认识与改造世界的新工具。当《福布斯》的Narrative Science开始新闻写作,Custombot可以根据受众的特定偏好生产新闻时,算法入侵新闻领域并开始施加越来越重要的影响。随着算法新闻的日益流行,一个严峻的问题出现了——算法或机器延伸了记者的“感官”,提高了新闻的生产速度与传播效率,但同时也使记者“自我截除”,[7](P.75-76)将记者与编辑的主体性驱逐出了行业之外,代之以自动生产,从而改变了传播过程中人与人、人与社会、人与机器之间的关系,适用于人类社会的新闻伦理无法规制新闻算法的运作,而阿西莫夫的“机器人三定律”亦难以保障“人—机”协同中人的主体性。这些加剧了人们对新闻业的忧虑,如何提升新闻伦理对算法及算法新闻的规约作用便显得尤为突出。
随着算法新闻的普及,科学家、工程师们以无人机、传感器与数据库的数据为原料,以算法为逻辑,以数据运算为工具为客观现实赋形,新闻的生产与传播过程成为“黑箱”,并凭借这种对现实的诠释能力推动了权力的重新分配,从而拓展了新闻伦理的内涵。
1.生产流程的外部化
传统新闻的生产与传播过程中,人是绝对的主体性因素,新闻职业伦理所处理的是记者、编辑行为与行业规范、道德原则之间的冲突。人的理性与同情可以有效地调节记者的思想与行为,控制负面新闻的危害,一切都发生在体制或系统内,具有一定的确定性。算法新闻的生产与传播则是自动化的,处于传统的新闻生产领域之外。同时,算法新闻的产量远远超出记者与编辑的处理能力,而智能推送和新媒体渠道的兴起也削弱了人类对新闻内容的生产及分发施加管控的可能性,这意味着算法新闻的真实性、客观性保障机制超出传统新闻领域之外,而在技术领域之内。
2.传播过程参与者多元化
随着仿生学、认知心理学以及算法的进步,无人机、传感器等智能设备出现在新闻传播领域,而算法新闻开始突破模式化的写作并针对用户的个性化需求进行生产和推荐,技术物与记者的关系从传统的“辅助”关系转变为“协同”乃至“替代”关系。不仅如此,人工智能主体的法律人格规制也被提上了议事日程,一些国家甚至承认了机器人的公民身份。这就意味着,随着人工智能与算法的进步,具备自由意志与行动能力的机器人或智能体将成为未来新闻生产与传播的主体之一。新闻伦理要面对的问题从记者、传媒、政府与公众等人类主体的关系协调转变为人与机器系统之间的共存与竞争,不确定性大大增加。不管是新闻行业整体,还是记者、编辑个体,都要从一个新的伦理高度来审视自己未来的工作岗位、工作内容以及行为规范等问题。
3.新闻伦理事实的跨界化
算法新闻大大提升了新闻的生产与传播能力,同时也产生了诸多问题,诸如Facebook“偏见门事件”和“剑桥分析事件”等,给社会带来极大负面影响。从性质上来说,这些问题具有明显的跨界性:算法新闻的生产与传播是技术性问题,而其影响则是社会性的;对算法新闻的规约是社会性的问题,但是规约的对象却是“中立”的技术物。算法新闻是在算法程序的引导下由机器人自主生产与分发,能够影响算法新闻内容质量的是算法设计主体——算法工程师所遵循的技术伦理如“安全性”“可靠性”“稳健性”“多样性”“非歧视性”和“公平性”等原则。[9]这些是对算法设计者的一般性伦理性要求,能为算法新闻的传播营造良好的技术环境,但与新闻伦理相比,两者之间还存在着一定的差异。如技术伦理中的“真实”以数据挖掘和分析技术为基础,[10]以数据真实性、透明性为前提,而新闻伦理中的“真实”则不仅要讲求微观的事实真实,还需要讲求在宏观上把握事情的全貌,[11](P.43-44)又或者在新闻真实之外,还需要追寻事物的客观规律,[12]从受众的接收角度来看还要考虑到“信任性真实”等不同的概念。[13]不仅如此,从具体内容来看信息伦理提倡的“Privacy(隐私)、Accuracy(准确)、Property(产权)、Accessibility(信息存取权)”等原则中,[14]“隐私权”“财产权”还没有上升到新闻伦理道德的高度,而“准确性”这一原则也与新闻伦理的要求有所不同。
同时,算法新闻生产所需的数据挖掘技术、数据结构、算法、设备等能力与技术等要素超出传统新闻传播的领域范畴,不论是编辑还是记者都难以为算法新闻从技术上设计出一套行之有效的基本伦理准则。这种矛盾性,决定了单靠其中一方来解决新闻伦理的重构问题基本上是行不通的。
当算法参与到新闻生产与传播的整个过程,技术话语所倡导的效率取向、“价值中立”原则与新闻伦理的人文价值取向之间出现冲突,新闻伦理的重构变得空前复杂。
随着逻辑学、可计算理论、概率论与大数据的进步,利用计算机模拟人的大脑思维过程成为可能,而算法新闻也于本世纪初进入初步应用期并成为关注的焦点。
在工程师和科学家的眼中,算法是一种“黑箱”,同时也是一种世界观、认识论,客观世界在这里成为相互之间具有某种逻辑关系的数据,意识可以被抽象成计算流程。算法新闻也体现了这一特征,其生产过程主要有数据的获取、新闻价值的计算、新闻角度选择、将相关细节放入新闻框架、自然语言润色等几个环节[15]。生产的原料是来自无人机、传感器、数据库的数据,生产的标准——新闻价值则由记者的价值判断转化为数据的“异常性”,报道角度则随数据的“异常性”而变化,最后将之用固定的模板表达出来。从生产与传播过程来看,算法新闻尊重的是一种事实价值,所谓的人文元素或价值观被转化为可计算的数据,从而可以进行数学运算,以此来判断新闻价值的高低并排序。社会事实的数据化以及自动化写作的发展,有利于提高新闻的生产与传播效率,甚至可以进行个性化的写作与推送。从这个角度来看,算法师、工程师等采取的是工具理性取向,追求信息生产的自动化与传播效率的最大化,以达到技术潜力的极致。
相比之下,新闻业界更加讲究价值理性,崇尚将事实转换为不确定性的“精神”,[16](P.7-8)是一种道德实践,希望从“善”的角度来衡量新闻工作的公共性、新闻内容的客观性以及新闻记者的行为与结果,是一种理想“乌托邦”,[17]而且客观、真实、公平这些概念本身就具备模糊性、多义性,难以靠赋值来解决,而是以记者的能力与品格作为保障。两者之间存在着的话语上的断裂,对算法新闻的技术评估与社会价值评估混杂在一起,形成了新闻伦理论争的两个维度。
所谓新闻专业主义,除了特定的专业技能、行为规范和评判标准之外,还包括媒介社会功能的信念、新闻工作职业伦理、相对独立的精神以及服务公众的态度。[18]美国学者拉尔森认为,新闻专业主义是在自我评价、行业规范以及专业知识层面建构起了一套话语体系。[19](P.10-12)这一概念的内涵包含三个方面:在个体层面,是记者对新闻专业独特性与声誉的认可;在规范层面,表现为记者的行为规范与公共服务精神;在知识层面,则是从事报道必需的知识与技能。到了算法新闻时代,新闻专业主义的内涵发生了变化。
首先,机器主体与职业认同之间的冲突。新闻算法执行的是工程师设计的方案与程序,在无人干预或很少干预的前提下可以实现信息采集、数据分析、稿件写作、新闻推送等环节的自动化。生产的主体——机器或智能体不具有对新闻行业的认可与忠诚度,也不体现公众服务的精神,因而现有的新闻伦理法规无法有效规制其信息生产与传播行为,也很难对其行为产生的道德后果进行追责。不仅如此,当技术及技术物开始由单纯之“物”向具有独立意识与自主行动能力的“主体”转化时,可能会产生更多与新闻伦理要求不一致的新闻产品,甚至是不道德的设计,比如提供信息的同时不经提示自动收集个人信息,以作他用等。
其次,自动化生产与专业知识之间的冲突。算法新闻的诞生,意味着专业主义的要求——从业者需要经过大量的专业知识与技能的学习这一条件正在失效。随着越来越多的“智能体”出现在新闻生产领域,机器开始由记者的辅助角色转变为生产的主体,“去主编论”正是在这一背景下诞生的。正如舒德森(M. Schudson)所言,“新闻某种程度上是19世纪三十年代的‘发明’,而记者则是19世纪八九十年代的‘社会发明’”。[20](P.55-56)今天需要在“算法主导”这一新的社会与技术背景下重新思考新闻及新闻伦理的定义与规范,思考“人—机”系统如何服务于社会信息需求的问题,包括未来的新闻生产系统是以人为主、“人—机”双主体还是多主体共治的问题、主体责任界定的问题以及算法新闻的版权归属、隐私侵犯、偏见强化等问题。
再次,算法逻辑与道德逻辑的冲突。传统新闻伦理不仅涉及操作规程、专业知识及其实践结果,同时与个人品格与德性紧密相关,其导向是“求真”与“求善”。而算法新闻的取向不是主体对客体的价值评价,而是依据数据分析与逻辑关系进行的建构,追求的是价值与速度的最大化。于是,新闻不再以“应知”作为报道与传播标准,而是以“新闻文本与用户兴趣模型的属性相似度”“用户兴趣与群体偏好的相似度”“内容热度”[21]为标准来指导新闻的生产与传播。基于“真”还是基于“善”(道德)的判断,形成两者价值取向上的差异。
2016年,美国的法官使用一款由Northpointe公司开发的软件来预测哪些罪犯更容易再犯罪。新闻网站ProPublica的调查发现:当算法与实际结果不一样时,对黑人再次犯罪可能性的评估远高于白人[22]。实际上,ProPublica比较的是黑人与白人的假肯定与假否定概率,从程序正义和最小伤害原则来看显然是要避免“错抓好人”的道德风险,而算法公司则比较了不同种族的正预测值——即所有肯定预测为真的百分比,是“宁错勿纵”,对公平的理解不一导致两者之间的分歧。在技术伦理与新闻传播伦理中,这种差异广泛存在。
客观性的定义非常多,可以是一种客观的世界或实在,也可以表述为获取知识的客观机制,[23]或是价值无涉、价值中立。[24]从科学史的角度来看,客观性可以分为三类:
Truth-to-nature,忠于自然。1820年前的科学家认为客观的描述“揭示了自然的本质”,不过要求人们不应只描述他们直接看到的真实物体,而是要能够画出该类事物的共相。[25](P.55-80)
Mechanical objectivity,机制式客观性。1820—1920年间的科学家们普遍认为科学客观性需要借助于统一的研究机制来实现,而科学家需要如实描述观察的结果,并克制人为因素。[25](P.115-183)
Trained judgment,裁决式客观性。1920年以后,科学的客观性依赖于受过相应科学训练的专家之间的共识。[25](P.309-357)
从技术角度理解算法新闻的客观性,显然更接近后两者。算法新闻的生产过程是高度智能化、自动化的,数据的分析、关系的建立、模板的选择,都是一系列决策与选择的集合,隔绝了输入与输出过程中人的介入与干预。可以说,算法新闻即便未完全反映真实与客观的世界,但至少部分反映了数据真实基础之上的世界。同时,算法是科学家与工程师的产品,不可避免地带有人类的“印迹”,因而需要追求结构性客观,对客观与公平的判断来自专家们的共识或技术伦理素养。
相比之下,记者与编辑则更像是“忠于自然”,既要对其所面对的事实与人物进行客观描述,又要试图揭示某种主题或规律即“共相”,从人类社会发展的高度对新闻事实或是社会事实进行判断、批评与反思。从这个角度来看,所有记者都是伦理学家[26](P.41-42),都是通过自己的学识、修养与品格对事实进行观察与过滤,以为公共利益服务的态度进行写作与报道,事实本质的呈现则依靠诸多媒体从不同角度进行报道与引发论争——即“报刊的有机运动”来实现[27](P.187-189)。可以说,算法新闻是在反映数据意义上的客观,而记者编辑则在追求不断向客观事实的贴近。前者需要接受社会实践的检验,更好地容纳新闻伦理的精神内核,后者则需要与时俱进,调整报道的价值取向与工作方式。
对算法所造成的伦理问题,一般有两种思考的视角:一是外在主义视角,关注算法新闻中违反新闻伦理的事实,提出应对措施与制度;二是内在主义视角,通过算法设计的改进与完善来解决算法新闻生产与传播中的伦理问题。
新闻传播学界关于新闻伦理的讨论大多采用了外在主义视角,从伦理的角度探讨算法所带来的问题,如“信息茧房”[28](P.7-9),“用户的选择权”[29],以及内容低俗化等问题。当人们从“危害最小化”角度入手来处理传媒与技术、社会之间关系时,往往提出新闻算法透明化、法制化、平等化等原则性的建议与意见。由于缺乏技术支持,这些概念往往缺乏可操作性,难以形成有效的规约。
从技术决定论的视角来看,这些疑虑是不存在的:一方面算法新闻提高了信息的产量,更多的社会事实与真相得以揭示。另一方面,无人机、传感器等智能体的应用使新闻报道的多元化程度得到了大幅度提高,能够激发个人的好奇心与持续关注,而社交媒体、虚拟社区则使人们拥有更多渠道,抵消了“茧房效应”。在实践层面,一些平台如头条等开始探讨个人兴趣与平台提供信息的广度与深度之间的关系,寻求两者之间的平衡,也取得了一定的进展。至于种族歧视或偏见植入等问题,主要原因在于训练的数据代表性不足,随着数据的丰富和更好算法的发明,这些技术造成的问题终将为技术的进步所解决,提供给用户一个更为公平、客观与多元的世界。
因而,算法时代新闻伦理的重构不仅要考虑到技术物的重要性,更要予以新闻伦理的观照,在技术与社会之间寻求一种对话机制,推动两者相互联通,相互融合:一方面推动传统新闻伦理的创新与转型,更好地指导新时代的记者与编辑工作,发挥其主体性;另一方面探讨将新闻传播伦理的精神植入算法设计之中的方法与路径,融合外在与内在视角,强化对新闻算法的规约,使其更好地为人类服务。
长期以来,人们都采用人类/非人类、社会/自然这种二元对立模式来认识世界,因而技术或技术物在人们的意识中只是经验的对象,是客体而非主体。但实际上,技术在人与世界的关系中起着中介调解的作用,能够转换人关于世界的感知,从而形成具身关系与诠释关系[3](P.131-132)。不仅如此,技术还促成了人们的道德行为与选择,因而具备了道德意蕴。算法新闻中,无人机、传感器等作为感官的延伸参与了人对世界的知觉与经验,而数据的相关性也重构了人对事物之间关系的认知,智能算法推荐则更是通过激发社交关系、群体情感,形成群体极化,推动人们将冲动转化为行为。从这个角度看,新闻算法及其产品不是中立的媒介,而是与人类处于互构关系之中,共塑着人的生存方式与社会关系。因而,新闻伦理的建构不能仅仅考虑人类主体性,同时也需要关注技术因素。布鲁诺·拉图尔(Bruno Latour)认为社会因素、科学实践两者之间并非毫无关联,而是同一进程的一体两面,两者之间相互影响,相互建构。[30](P.348-349)在新闻伦理的重构上,我们需要采用后人类主义的立场,将技术也视为新闻伦理建构的主体,予以平等对待。对技术、设备等非人类主体来说,它们无法言说但是可以通过代言者如算法工程师、科学家等主体来实现其利益的诉求,参与新闻伦理的建构。
雅帕·耶萨曼(Jaap Jelsma)认为,技术形成了人们行动的物质化环境,人们的行为受到物质化环境的影响,[31](P.221-231)因而设计者可以将物质化因素“铭刻”进算法新闻的设计中,实现道德的物化。[4](P.113)算法工程师可以将新闻伦理的精神内核赋予算法及程序,使算法新闻能够客观、公正地反映社会现实,更好地促进他们对环境的监测以及对公共事务的讨论。这一目的可以通过两种方式来实现:
1.道德铭刻
为了实现对设计的改进,雅帕·耶萨曼提出以下八个步骤:组建团队,包括设计者、工程师、技术专家以及人类学家等观察者;选择设计脚本并确认其逻辑;选择用户;收集用户的产品使用信息;建构用户逻辑;调整设计脚本;形成设计理念;制作和测试样品模型。[31](P.221-231)在新闻算法的设计与改进中,通过对设计者“脚本逻辑”与使用者“用户逻辑”的对比分析与迭代,可以将社会对新闻伦理的理解逐步“铭刻”进算法之中。
提升“道德铭刻”有效性的路径有三种:依靠设计者的道德责任和道德水平,评估技术物的中介作用并予以调整;推动扩展的建构性技术评估(Augmenting Constructive Technology Assessment),将技术与技术物纳入到利益相关者的分析框架中,关注技术物可能的道德调解作用并完善设计;情景模拟,分析用户在具体情境中的使用方法,找到改进设计的方法。[4](P.123-129)
从新闻伦理的角度来看,第一种方式关键在于工程师与科学家对新闻伦理精神内核的理解是否全面、深入,实际上单纯依靠算法研发者、设计者的道德水平与专业知识来提升算法对新闻伦理的适应性是非常困难的。同样,情景模拟也难以全面分析与描绘记者的价值判断,因为记者在不同情况下的道德判断与抉择是多变的、个性化的。本文更加倾向于第二种方式——扩大利益相关者的范畴,将政府、公众、传媒、投资者、算法工程师以及技术物纳入其中,听取各方的利益诉求,对技术物的道德调解作用进行全面的技术评估,通过转译和磋商将新闻伦理的基本价值观植入算法设计之中。
2.价值敏感设计
在如何让机器系统具备价值观方面,巴蒂亚·弗里德曼(Batya Friedman)提出了“价值敏感性设计”方法,认为通过从概念分析、经验分析和技术分析三个角度来实现这一目的。[32](P.32-36)在新闻伦理的重构上可以借鉴这种方法,将新闻伦理涉及的行为规范、价值取向纳入到新闻算法的设计之中,我们以新闻伦理中的“透明性”原则为例来审视这一过程。
概念分析即从哲学、政治学的角度分析新闻伦理的价值观念体系构成,就专业主义、客观、公平、真实等专业核心概念以及政治性、公共性等观念展开论争与对话,并推动伦理原则的概念化。通过聚集与算法新闻相关的科学家、工程师、技术人员、哲学家、伦理学家、传媒、公众等主体,共同讨论在中国语境下新闻伦理的内涵、外延及其变迁历程,重新界定算法时代新闻伦理的定义并形成社会性的共识,在此基础上促进新闻伦理的认知与理解从“精神状态”向“事实状态”转变,将新闻行业崇尚的精神用具备操作性的技术话语表达出来。随着新媒体技术的出现,新闻的客观性原则遭受到极大挑战,20世纪90年代以来“透明性”原则成为新闻伦理的首要原则。[33]这一原则由信息披露透明、参与透明两个部分组成。其中,“信息披露透明”是新闻生产者解释并公开新闻选择标准和生产方式;“参与透明”是受众被邀请参与新闻生产流程的不同阶段。[34]从内容来看,透明性包括了责任、互动与背景开放三个方面:责任即让受众了解新闻生产使用的方法与数据,互动即邀请受众参与新闻生产,背景开放即提供记者的相关个人信息及与新闻的关系。[35]
经验分析是通过观察、测量或记录用户的使用行为及生理数据,结合具体情境对概念进行具体分析。如政府、设计者、用户与新闻媒体组织、平台如何理解新闻伦理如透明性原则?不同主体对透明性的诉求是什么?平台如何公开新闻生产中使用数据与方法?受众应该在多大程度上参与新闻的生产流程?在什么情境下用户更加强调哪一种价值取向?不同的新闻产品中,透明性的重要性有何不同?等等。
技术分析则是探讨现有的算法技术如何实现某种新闻伦理。参照Ward对在线新闻透明度的总结,[36](P.45-58)从技术层面探讨提升算法新闻透明度的做法主要有:①设置提示,以提醒用户该新闻是否由算法生产与推荐;②设置链接,提供关于新闻数据来源及数据处理过程的信息;③利用超链接,同时呈现人工写作与机器写作新闻,让用户从不同角度了解事实;④公布人工审核的意见与结论;⑤提供多元交流空间,让受众参与对新闻事实的审查与生产,包括对新闻事实补充相关细节、文本与图片;⑥推荐新闻时,同时转发读者的意见与评价。此外,还可以创设更为简便的操作界面与程序,保障老人或低文化水平的人参与等等。
通过不断促进算法设计与新闻伦理内核之间的对话与迭代,强化对新闻算法的全面技术评估,推动算法技术的道德化,为新闻伦理的重构提供思路与对策。
新闻伦理的重构不只是一个技术方案改进的问题,它涉及更多的社会问题,包括算法的监督、主体利益的调整与平衡、新闻伦理知识体系重建等。
算法新闻的主体众多,从提升新闻伦理有效性的角度来看需要强化其“转译”能力,以促进彼此的对话,其中记者与算法技术的代言者——算法工程师与科学家是两类最为重要的主体。2017年美联社推出了《人工智能工作手册》,将记者与编辑可能遇到的风险概括为算法的风险与工作流程被打破的风险。[37]前者与人工输入算法的原始数据以及算法偏见相关,而后者则与新闻记者的实践相关。人工智能对记者提出了新的要求——擅长与数据科学家、机器人记者打交道。这也就意味着记者在传统的职业训练与道德规范之外,还需掌握与算法相关的知识、技能,在“人—机”协同中更好地体现其主导性,同时也更有利于表达伦理诉求,更好地推动对新闻算法的技术评估并监督新闻算法的运作。
同时,算法工程师、科学家则需要深入地理解人类伦理和新闻伦理,更好地设想用户的使用情境及使用方法,推动“脚本逻辑”与“用户逻辑”的结合,促进新闻伦理植入新闻算法。
传媒行业是新闻伦理的践行者,同时又是算法技术的应用者。传媒机构与相关管理部门在推进算法新闻在系统内应用的同时,还应采取以下措施:
1.赋予平台媒体地位,强化问责制
在算法新闻日趋流行的今天,越来越多的平台、互联网公司已经不再只是一个渠道而是直接参与内容的生产,因而不能单纯以科技公司视之,所谓“价值中立”原则也不应适用于这些企业。有必要赋予参与算法新闻生产与传播的机构或企业以媒体地位并予以新闻伦理规范的规制,改变其“价值中立”状态,推动他们对新算法的投资与改进。
2.建立算法新闻生产与传播的监管体系
通过技术的革新强化对算法新闻内容生产与传播过程的监管力度,使其符合受众与社会道德规范要求。在新闻生产上,强化新闻算法伦理责任,确保内容生产质量的同时推行“智能审核+人工审核”模式,保障算法新闻的逻辑真实、事实真实与技术真实,在此基础上强化公平、公正、透明性等价值观审核,体现社会阶层与文化的多样性。在新闻的传播上,调整算法推荐机制,理顺用户决定权与智能推荐的关系,强调信息广度与深度的整合。同时探讨算法新闻与技术、场景结合的路径,为用户提供更多传播渠道,并促进他们的参与和分享。在传播效果上,强化对其产生的社会影响与反馈的监控,及时解决因失实、偏见、版权等问题出现的负面影响。此外,还可以使用区块链等分布式技术追踪违背媒介伦理的行为,解决因匿名性、隐蔽性引发的不良行为。
3.重建新闻伦理知识体系
算法新闻的发展需要具备多种能力与素养的复合型记者与编辑,同时也需要精通人类传播伦理与新闻伦理的工程师、科学家,在从弱人工智能走向强人工智能的时代更是如此。因而,需要树立跨学科、交叉学科的视角,重构新闻伦理的知识体系。目前,新闻传播专业在这方面缺乏标准化的教材、课程以及能力评估体系,不利于人才培养体系的建立。可以由教育部门或是行业出面,聚集新闻、信息、工程、法学等学科专家及一线人员,共同编制适用于新闻传播学学科的教材以及实践教学体系。同时,提升计算机、电子、通信、数学等相关专业的工程伦理相关课程中人文素养知识的比重,增强算法工程师或科学家的“道德想像力”。
此外,在推动算法多元化的同时,还需要强化算法的第三方评估,客观评估新闻领域使用的算法技术可能存在的伦理风险,促进算法的改进。
1.推动新闻伦理与机器人伦理之间的联结
政府应将人工智能产业的发展规划与机器人伦理建设结合起来,促使人工智能以增进人类公共利益为目标,为新闻算法的改进提供良好的社会氛围与技术环境。近年来国家推出一系列人工智能的发展规则,强调人工智能发展中的和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则[38],为新闻伦理与人工智能伦理的对话创造了好的前提。
在此基础上,政府应建立平台,将算法新闻涉及的技术、资金、传媒、受众与评估机构包括5G、区块链的研发与运营商等主体聚集起来,展开对算法技术的全面技术评估,尤其需要强化对涉及新闻领域的算法及技术物的评估,深入探讨算法对于新闻生产、传播以及新闻伦理的影响及其“道德意蕴”,推动算法改良将技术之“真”、社会之“善”、艺术之“美”结合起来,更好地调节用户的认知与道德行为,更好地服务于人类的目标。
2.建章立制,确立算法新闻的活动边界
在人们对算法新闻顾虑重重时,规制约束是最好的保护。在算法新闻的发展过程中,有三个问题是需要考虑的:一是技术公司、投资者、传媒、受众以及机器等主体身份的界定以及利益的平衡;二是随着技术的进步,从事新闻写作的机器及“智能体”能否享有自己的权利并在对社会造成伤害时承担法律责任;三是用户能否自由决定“智能体”参与传播实践的程度与范围。这些是推动新闻伦理重构的关键,需要以制度的形式表现出来,为新闻算法的改进创设环境。同时,新闻传播过程中出现的伦理问题诸如偏见植入、种族歧视、极化效应等,也可以通过法律或制度的方式从外部实现规制。
目前,欧盟、日本、中国等国际组织、国家或地区都推出了相应的法令如《通用数据保护条例》《信息安全技术个人信息安全规范》等,对个人隐私信息的收集、保存、使用、删除等环节进行规范,在隐私保护方面起到了积极的作用,但是还有许多新闻伦理的核心问题尚未触及,需要进一步深入。
3.培养用户媒介素养,提升其利益诉求能力
算法的用户中包括传媒机构、投资者、政府、公众等不同的人类主体,只有提高其算法素养,才能在进行对话时更好地表达自己的诉求,进行磋商并达成共识。如何引导各类主体在“众声喧哗”中避免过于强调己方利益,保持论题聚焦将是一个重要的问题。多元化主体中普通公众应予以重点关注,他们在利益相关者中属于弱势地位,诉求能力不足,因而需要赋能。通过算法素养的普及增强其接触、评价、传播与反思算法新闻的能力,降低算法新闻负面效应。同时,引导他们运用主体所拥有“用脚投票”和“用手投票”的权力,推动市场机制或社会舆论对投资者、技术公司与平台形成压力,影响对算法的投资与支持,促进更好算法设计的研发、调整、迭代。
当算法的进步能够将传媒对社会的责任、技术对理性的偏爱以及个人对事实的价值取向有机地结合起来,算法新闻就能够在一定的道德框架内运作,消除人们对“算法控制”的恐惧,更好地服务于人们的信息与娱乐需求,有效地激发公众对于公共事务的关注与讨论,促进人类的自由与解放。