■ 耿晓梦 喻国明
随着大数据技术的发展、计算能力的提升与深度学习算法的成熟,人工智能迎来了又一次的发展浪潮。从自动驾驶、医疗机器人到语音识别、人脸识别,基于深度学习的人工智能应用在不断深入。资本纷纷布局人工智能,产业规模迅速扩张,与此同时,伦理研究也在跟进人工智能技术的发展。
目前,人工智能技术已经渗透至新闻生产传播的各个环节,如算法资讯分发、机器人消息写作等,媒体正在向智能化方向发展。同样,人工智能技术在媒体应用中带来的伦理问题也引起了关注。本文将从当下智能媒体的技术现实出发,分析智能媒体伦理适用的架构,从目的—手段的基本逻辑出发给出智能媒体伦理调适的价值目标和现实路径。
对技术伦理的准确把握建立在正确认知技术发展的现实情况的基础之上。探讨智能媒体伦理问题需要首先厘清智能媒体的技术现状。
计算机领域的学者们较为普遍地认为人工智能技术是计算机科学的一个分支,是研究模拟、延伸和拓展人的智能的理论、方法、技术及应用系统的新技术科学。①学者们通常在不同的技术层次上讨论人工智能。
通用人工智能(Artificial General Intelligence,AGI),又称强人工智能,指可模拟人脑思维和实现人类所有认知功能的人工智能,它本身拥有思维,真正有自主意识并且可以确证其主体资格,是有自我意识、自主学习、自主决策能力的自主性智能体。这里的“强”主要指的是超越工具型智能而达到第一人称主体。当强人工智能发展至其在普遍领域的认知均远超人类时,就成为超人工智能(Artificial Superintelligence)。波斯特姆(Nick Bostrom)在《超级智能:途径、危险与战略》一书中使用“超级智能”来描述机器智能爆发后的状态。②目前强人工智能研究还基本停留在设想阶段。
狭义人工智能(Artificial Narrow Intelligence,ANI),又称弱人工智能,主要是指执行人为其设定的任务的人工智能,它模拟人类智能解决各种问题,是不具有自由意志与道德意识的非自主性智能体。当前可实现的人工智能主要是弱人工智能,如自然语言理解、机器视觉、专家系统、虹膜识别、自动驾驶等。
智能媒体利用人工智能技术改造新闻生产传播业务链条,执行新闻线索获取、新闻写作编辑、新闻事实审核、新闻分发推送等特定任务,使媒体能够看似智能地行动。
斯坦福大学人工智能与伦理学教授杰瑞·卡普兰(Jerry Kaplan)将当下的人工智能应用实践总结为合成智能(Synthetic Intellects)和人造劳动者(Forge Iabors)两个方向。③智能媒体在这两个方向上都有所体现。
合成智能是数据挖掘与认知计算等相关技术的集成,即用计算机软件和智能算法自动处理分析各类数据,智能辨识、洞察和预测,以获取知识和形成决策。合成智能的使用在媒体实践中已比较普遍,如通过对用户网络搜索、阅读偏好等数据的分析、挖掘与聚合,对用户特征进行数字画像,从中找出有价值的特征,匹配此特征进行资讯分发、广告推送等。还有不少媒体尝试引入智能内容审核平台,即基于大数据分析,依托自然语言处理、语音转写、图像识别等关键技术,建立内容过滤平台,对图文音视等不同内容审核过滤。
人造劳动者是可以模仿或代替人完成特定任务的自动执行系统,它同样是由数据驱动的,其关键在于对数据的采集、处理和控制。智能媒体中的人造劳动者表现为机器人新闻,它们一般按照预先编好的程序工作,机器人写作是通过软件整理数据事实,遵循常用的报道模版,批量生产出有限类别的短新闻。
无论是精准分发、智能内容审核还是机器人新闻,都是由数据驱动的媒体智能,智能媒体功能的实现是借助软件编写的算法对数据的自动认知。因此,可以说,智能算法是智能媒体的功能内核与技术本质。
以算法为内核的数据驱动的智能媒体仍是一种工具,属于弱人工智能,智能媒体是有限自主的智能体。
一方面,智能媒体的智能程度有限。首先,智能媒体是尚不具备人类智能的通用性,缺乏人的思辨能力、创造能力和情感表达能力。以机器新闻写作为例,其内容通常是简单信息的组合,缺少深度思考和人文关怀,形式多套用既有模版,所以机器新闻写作更多地应用于体育赛事、财经资讯等高数据密度、低语境的新闻报道,鲜少涉及事实调查报道与新闻评论。其次,智能媒体仍无法超越算法。目前数据驱动的智能媒体所使用的方法本质上属于分类、归纳、试错等经验与反馈方法,方法论上并无根本突破,高度依赖于已有经验和人对数据的标注,主要适用于认知对象及环境与过去高度相似或接近的情况,其理解和预测的有效性依赖于经验的相对稳定性,应对条件变化的抗干扰能力较为有限。以智能内容审核为例,自动审核过滤的基础是一定数量的内容标签,即需要人工对数据进行标注以“投喂”机器进行学习。
另一方面,智能媒体有一定的自主性。首先,智能媒体可在一定条件下实现有限度的自动认知、决策和行动功能;其次,随着智能媒体的技术提升,人们可能赋予智能体更多的决策权,“技术黑箱”可能存在,即使是智能媒体的设计开发者或许也不能完全理解机器的自主执行过程;最后,智能媒体具有一定的交互性。虽然所谓的人机互动更多的是功能模拟而非实际发生的沟通,但人们仍会在一定程度上将智能媒体想像成类人主体,对其投射一定的情感,甚至可能产生心理依赖。新华社机器新闻生产系统被命名为“快笔小新”、今日头条的写稿机器人名叫“张小明”等,通过人格化的称谓显示出一定程度的情感需求。
历史上几乎每一次重大技术创新都会带来风险和挑战,人工智能也不例外。智能媒体正在不断推进和实现,可能会挑战传统道德规范、法律甚至社会制度。关注智能媒体的伦理问题,是为了对大规模风险和威胁防患于未然,也是为了引导技术力量,使智能媒体更为友善。
弱人工智能与强人工智能之间,存在是否具有自主意志与道德意识的不同,必须在认清本有界限的基础上分别制定对应的伦理规则。因此,人工智能伦理的讨论首先需要区别作为一般性技术伦理和作为特殊技术伦理的问题。
作为一般性技术伦理问题的人工智能伦理,是几乎所有技术都面临的技术设计和使用层面上的一般性伦理问题,是一般工程伦理,同时适用于弱人工智能和强人工智能;而作为特殊性技术伦理问题的人工智能伦理,更适用于强人工智能即自主性智能体。
如果从机器人技术这一特定视角切入人工智能伦理,上述两种技术伦理大致可以对应机器人伦理研究(roboethics)和机器伦理研究(machine ethics)。机器人伦理学将人工智能视为一般技术进行伦理审视,是对与机器人相关的人类主体进行规范性约束,也就是说实际上是机器人的设计者、制造者、编程者和使用者的人类伦理,而非机器人自身的伦理,指向人工智能体的外在伦理规范问题。而机器伦理学则关注如何让具有人工智能的机器具有伦理属性,强调在机器中嵌入符合伦理原则的相关程序,使其自身做出伦理决策或为使用者提供伦理帮助,是一种内在于机器本身的伦理。④
可以看出,人工智能的一般工程伦理与作为特殊技术的伦理是两种截然不同的伦理架构。两种伦理架构的根本差异在于对人工智能能否以第一人格主体成为道德伦理能动者这一争议问题的回答。鉴于实践中人工智能未获得独立意识、未发展成为道德伦理能动者的现实,一般工程伦理仍将与设计开发使用人工智能相关的人视为伦理问题的能动者,从工程伦理、专业伦理等维度探讨相关主体的行为规范、责任分配、权利权益等问题,是基于现实性的以人为中心的伦理架构。作为特殊技术的伦理,其逻辑立足点是具有道德判断和伦理行为能力的智能体可能存在,这是人工智能可以成为道德伦理能动者的前提,是基于可能性的以智能体为中心的伦理架构。⑤而目前,这一前提显然并不存在。因此,作为有限自主的智能体,智能媒体适用的伦理架构显然是一般工程伦理。
计算机伦理学创始人摩尔根据智能体可能具有的价值与伦理影响力将智能体分为四类:有伦理影响的智能体(ethical impact agents)、隐含的伦理智能体(implicit ethical agents)、明确的伦理智能体(explicit ethical agents)、完全的伦理智能体(full ethical agents),也就是伦理影响者、伦理行动者、伦理施动者和伦理完满者。⑥当下的智能媒体无论如何深度学习以进行自我改善,都不存在自主的道德意识和伦理行为,仍属于有伦理影响的智能体,只有在极少数的前沿实验的智能体勉强算是伦理行动者——设计者将价值与伦理考量提前嵌入算法程序中,在遇到预先设定的问题时自动执行。伦理施动者目前还仅是理论探讨的假设,伦理完美者则属科幻。
就现实发展而言,从智能媒体的价值负载来看,智能媒体呈现的风险与威胁没有跳出人与人之间的关系,没有超越人类已经面对过的控制与反控制危机。一方面,数据选取、算法设计与认知决策并非完全客观,相关主体的利益不可避免地影响着问题定义与解决方案的选择;另一方面,智能媒体的功能实现大多需要人机协同,数据对事实与意义的投射需要借助人的标注,相关主体的价值选择必然渗透其中。以视频内容的智能审核为例,人工标注的数据是机器深度学习的重要资源,过滤准确率的关键在于将人的经验通过人工标注融入数据之中。因此,业界的“有多少人工,就有多少智能”的说法是非常中肯的。
可以说,智能媒体带来的风险与危机仍属于常规性问题,与一系列技术推进所遭遇的伦理困境并无实质上差异,指向的都是如何避免少数人掌控技术后以更便捷、更隐蔽的手段损害他人权益的问题。
以控制与反控制的一般工程伦理为本质,智能媒体的常规性伦理危机在实践中有多种具象呈现,集中表现为偏见问题、隐私问题、算法设定认知问题等。
偏见问题。智能媒体以“大数据+深度学习+超级计算”为基本模式,数据的质量和隐含的信息决定了深度学习和超级计算得到的结果可能存在偏颇,甚至产生“算法歧视”。当人向智能体提供了带有偏见和歧视的数据时,智能新闻生产和智能新闻分发也会带着这种偏见和歧视。⑦在大部分缺少机器新闻理性认知的受众看来,机器生产与机器筛选更加客观,因此有偏见的机器新闻可能会比有偏见的人工新闻产生更大的危害。
隐私问题。智能媒体时代,信息采集的范围更加广阔,方式更加隐蔽。从新闻线索自动采集、新闻信息机器写作到新闻资讯精准分发,都依托于海量数据的搜集与分析,很容易产生数据泄露问题。应用于个人的传感器在进行线索采集时监测着人的各种行为并形成数据记录,存在个人数据非法收集、过度分析的危险;资讯的精准分发建立在隐私被让渡的基础上,对个人基本信息和阅读偏好的数据挖掘在一定程度上形成了对公民隐私权的侵犯。
算法设定认知问题。智能媒体中存在一种新的控制权力,即智能权力或者说是算法权力,具有精准的认知与操控力。智能媒体的精准分发通过算法,筛选出受众可能感兴趣的新闻并将其推送给受众,看似满足了受众的信息需求,实际上限制了受众的信息接收,忽略了真实世界的多元性,造成信息的窄化,这就是常被提起的“信息茧房”。⑧在智能媒体创造的拟态环境中,信息被算法框定,人的认知被算法设定,其可被理解为是需求满足意义上的一种隐性“欺骗”。
智能媒体面临的潜在伦理威胁不会自动消亡,对伦理危机进行调适成为智能媒体伦理共识的题中应有之义。处理伦理挑战应以何种价值选择为方向?又应该遵循怎样的解决思路?对上述两个问题的回答是把握智能媒体伦理调适目的与手段的关键。下面本文将以目标—手段为基本逻辑,从价值目标和现实路径两方面解读智能媒体伦理调适的进路。
现阶段探讨智能媒体的伦理调适,旨在保证优先发展造福人类的智能体,避免设计开发出不符合人类价值和利益的智能媒体。在这一大方向下,需要进一步明确使智能媒体的发展更符合人类福祉和公众利益所应该具有的价值目标。基于对智能媒体伦理困境实质与具象表现的分析研判,智能媒体进行伦理调适的主要价值诉求有公正性、透明度、可理解和可追责等。
追求算法决策的公正性。在信息日益不对称的时代背景下,若对智能新闻生产与传播中的算法决策持放任态度,很有可能制造、放大各种偏见与歧视。为了防范算法权力的误用、滥用,可以对数据和算法程序施加“审计”。基本思路是从智能新闻生产传播的结果及影响中的不公平切入,反向审查其机制设计与执行过程中是否存在故意或者不自觉的误导,核实其中存在的不公平、不包容与不准确,并督促改正。对算法决策公正性的追求还可以借助利益披露机制,即要求媒体机构作为智能算法的执行者主要说明自身在其中的利益,公开自身利益与他人利益、公众利益可能存在的冲突。伦理审计和利益披露仅是提供了部分可能的选择,无论采取何种方式,智能媒体需要保证算法决策与算法权力的公正性。
强化智能系统的透明度、可理解和可追责。智能媒体新闻生产的机制与过程通常是不透明的,难以理解和进行责任追溯。这些问题的根源在于深度学习仍是典型的“黑箱”,智能系统的认知与决策过程十分复杂,连研发人员可能都无法完整明晰地理解其机理。因此当智能媒体在新闻生产传播中出现错误,通常难以清楚界定和有效区分人与机器、数据与算法的责任。目前,解决问题的有益尝试已经展开:2016年,欧洲议会批准了《一般数据保护条例》(GDPR),赋予了公众“解释权”,即公众有权要求与个人相关的智能系统对其算法决策做出必要的揭示,要求组织必须在个人数据处理活动的所有决策中表现出透明度和问责制。虽然这项法律目前仅是面向宽泛的计算机及其相关产业,但在更细分的智能媒体领域,这一价值诉求同样强烈且值得关注。
当然,智能媒体伦理调适的价值目标是多元的,不仅限于公正性、透明度、可理解和可追责这些价值诉求。智能媒体是人工智能技术在传媒领域的应用,其伦理调适价值诉求的探讨可以借鉴讨论且已相对比较成熟的是人工智能价值原则。如2017年在Beneficial AI 大会上提出的“阿西洛马人工智能原则”,其倡导的伦理和价值原则包括:安全性、故障透明性、司法透明性、负责、价值归属、人类价值观、个人隐私、自由和隐私、分享利益、共同繁荣、人类控制、非颠覆及人工智能军备竞赛等。
智能媒体作为有限自主智能体,更多的是伦理影响者,其价值与伦理影响力仍无法独立地主动施加,而是在人机交互的关系与实践中体现,其适用的伦理架构是以人为中心的一般工程伦理,重在探讨相关主体的伦理规范。因此只有把智能媒体置于与人类主体构成的行动者网络中,明晰行动者之间的伦理关系,厘清其中的责任担当和权利诉求,才能真正把握伦理调适的现实路径。
在拉图尔的行动者网络理论中,广义的对称性原则消除了人与非人的界限,网络中既可以包括人类行动者也可以包括非人的行动者,非人行动者的意愿可以通过代理者表达出来。行动者网络就是异质行动者建立网络、发展网络以解决特定问题的过程,它是一个动态的过程而不是一个静态的概念。⑨
以拉图尔的行动者网络来分析人类主体和智能媒体的关系网络,智能媒体引发的价值关联与伦理关系并不是简单的人机二元关系,而是控制者—智能媒体—一般使用者的多元复合关系,一般使用者的“一般”是强调使用者与控制者无直接共同利益且是技术应用的非主导者和不完全知情者。在此行动者网络中,不能简单地将智能媒体视为控制者和一般使用者间的中介,考虑到非人行动者的意愿由代理者表达,要从控制者—智能媒体整体与一般使用者之间的关系方面展开分析。控制者—智能媒体是主导者与施加者,一般使用者是受动者,前者的责任与后者的权利是伦理关系网络的重要节点。
通过对智能媒体与相关主体伦理关系网络的透视,智能媒体伦理调适呈现出两条现实路径——负责任的创新与主体权利保护,即“问责”和“维权”。
负责任的创新是凸显主体责任的责任伦理调适,出发点是强调人类主体特别是设计者和控制者在智能媒体创新中的责任。控制者—智能媒体应主动考量其整体对一般使用者、全社会乃至人类的责任,并在控制者—智能媒体内部厘清设计责任和控制责任,以此确保一般使用者的权利,努力使人类从人工智能中获益。
主体权利保护是基于主体权利的权利伦理调适,出发点是强调主体在智能媒体时代的基本权利,旨在保护人的数据权利等,试图制约智能媒体中的算法权力滥用。权利保护路径的基本逻辑是权利受损的一般使用者发出权利诉求,展开对控制者—智能媒体的责任追究,进而迫使控制者—智能媒体内部厘清责任——区分智能媒体的控制与设计责任。
技术的发展需要伦理的介入与匡正。技术旨在求真,获得真知;伦理贵在求善,帮助人类在复杂世界中寻求安身立命之道。⑩
智能媒体伦理的思考应基于智能媒体技术本身的现实发展。当前的智能媒体只是在某些方面具备高于人的能力,并不完全具备自我意识,也无道德意识,仅是工具智能。立足智能媒体仍为有限自主智能体的技术现实,智能媒体伦理追问适用的伦理架构是以人为中心的一般工程伦理,其伦理风险与其他技术面临的伦理危机无本质区别,皆为人与人之间的控制与反控制危机。依据这一基本判断,智能媒体伦理调适的能动主体必然也是人类主体,智能媒体的伦理调适实质上是对与智能媒体相关的人类主体进行规范性约束。透视人类主体与智能媒体的伦理关系网络,得出智能媒体伦理调适的现实路径——“问责”和“维权”,同样与其他一般技术的伦理规范思路无本质区别。
人工智能技术的开放性创新仍在继续,其在传媒领域的应用也将不断升级,智能媒体的伦理追问还未完成。如果对强智能媒体的实现做适度伦理预测的话,强智能媒体不仅将更深刻地变革传媒产业,还将拥有与人类对等的人格结构。此时,作为具有自主意识的特殊技术,强智能媒体可能会带来新的伦理危机,如:会不会加剧“人工愚蠢”,导致低智能人类的出现?会不会与人类对抗?等。解决这些问题适用的伦理架构为以智能体为中心的机器伦理,也就是打造有道德的智能媒体。机器伦理的倡导者已描绘了多种可能:自上而下的伦理建构,将道德规范转化为逻辑演算,并计算与权衡实现的功利,使智能体能够从一般的伦理原则出发对具体的行为作出伦理判断;自下而上的伦理建构,通过机器学习和复杂适应系统的自组织发展与演化,使智能体能够从具体的伦理情境生成普遍的伦理原则,并在道德冲突中学习道德感知与伦理抉择的能力。
但应该注意到,强人工智能化媒实现的可能性仍存在争议,可以适度前瞻强智能媒体的伦理危机,但不应过分忧虑强智能体对人的反控制,要摆脱未来学家简单的乐观主义与悲观主义立场,从具体问题入手强化人的控制作用和建设性参与。尽管未来学家的乐观主义或悲观主义基调在媒体相关讨论中往往居于主导地位,但这却带有极大的盲目性,特别是未来学家的断言经常在假定与事实之间转换,缺少足够的证据。
因此,智能媒体伦理讨论更应该将对技术设计、使用等规范伦理的思考置于优先地位。对偏见问题、隐私问题、算法设定认知问题等具象问题的解析仍需要面向智能媒体应用场景的描述性研究。至于强智能媒体未来将带来何种冲击,恐怕以我们的想象力暂时还是鞭长莫及。
注释:
① 党家玉:《人工智能的伦理与法律风险问题研究》,《信息安全研究》,2017年第12期,第1081页。
② [英]尼克·波斯特洛姆:《超级智能:路线图、危险性与应对策略》,张体伟、张玉青译,中信出版社2015年版,第22页。
③ [美]杰瑞·卡普兰:《人工智能时代》,李盼译,浙江人民出版社2016年版,第2—6页。
④ 莫宏伟:《强人工智能与弱人工智能的伦理问题思考》,《科学与社会》,2018年第1期,第16页。
⑤ 段伟文:《机器人伦理的进路及其内涵》,《科学与社会》,2015年第2期,第39页。
⑥ 段伟文:《人工智能时代的价值审度与伦理调适》,《中国人民大学学报》,2017年第6期,第101页。
⑦ 靖鸣、娄翠:《人工智能技术在新闻传播中伦理失范的思考》,《出版广角》,2018年第1期,第10页。
⑧ 喻国明、杨莹莹、闫巧妹:《算法即权力:算法范式在新闻传播中的权力革命》,《编辑之友》,2018年第5期,第7页。
⑨ 刘济亮:《拉图尔行动者网络理论研究》,哈尔滨工业大学硕士学位论文,2006年,第33页。
⑩ 陈静:《科技与伦理走向融合——论人工智能技术的人文化》,《学术界》,2017年第9期,第111页。