王超群
(湖南科技大学 人文学院,湖南 湘潭 411201)
近年来我国人工智能技术发展迅猛,新的技术给家居、交通、教育等行业带来深刻变革的同时,也牵引新闻媒体生产进入智能时代。 人工智能、大数据、物联网、VR/AR 等技术纳入媒体业,带来了新闻生产的机器化、新闻分发的个性化、新闻体验的临场化。 2014 年美联社开始使用自动化技术报道新闻,中国2015 年8 月腾讯率先推出Dreamwriter写稿机器人, 今日头条xiaomingbot、 第一财经DT稿王、百度度秘解说相继浮出水面。 这些变化都意味着媒体正在进入智能化时代。人工智能在推动新闻生产剧烈变革的同时,也给媒介伦理带来种种风险与危机。本文在大量阅读国内外相关文献的基础上, 重点对2014 年机器人新闻问世以来国内外媒介伦理的研究成果进行了系统梳理,以期把握当前智媒背景下媒介伦理研究的重点与难点,并针对未来研究路径提出看法。
对于国内外媒介伦理研究成果的搜集,本研究采用的方法是:中文文献的搜集,主要在中国知网搜索主题关键词“伦理”“算法”“数据”“虚拟现实”以及“智能”,将学科范围限定为“新闻传播学”,搜索时间截止到“2018-12-31”,并剔除掉重复及不相关的论文,共搜索到有效论文183 篇。 外文文献的搜集,主要在传播与大众媒介全文数据库(Communication & mass media complete)进行。该数据库收录超过440 种期刊的完整 (“核心”) 索引和摘要,以及326 种期刊的全文,提供了传播和大众媒介相关领域的最全面优质的研究成果。通过在该数据库搜索主题关键词 “ethic”“algorithm”“robot”“data”“virtual reality”以及“Artificial intelligence”,搜索时间截止到“2018-12-31”,并剔除重复及不相关论文,共搜索到有效论文64 篇。通过对所有论文进行深度阅读,总结归纳出以下三个维度的研究成果。
媒介伦理研究内容最大的比重在于探讨人工智能技术在新闻生产、 分发领域所带来的伦理风险,主要包括算法歧视、算法偏见、信息茧房、数据隐私、数字鸿沟、对新闻价值的破坏等问题。
1. 智能技术的介入带来新闻传播领域的公平正义风险问题。 喻国明关注“算法歧视”问题,指出算法以“技术中立”的名义介入新闻生产,在实践操作中存在人主导的算法设计,难免体现出各种各样的“歧视”,世俗社会的民族、宗教歧视,商业社会的金钱歧视,政治社会的权力歧视等,只是歧视变得更加隐蔽[1]。Hollis Koo 关注“数字鸿沟”,认为数据的近用权问题会导致机会正义缺失,他指出,不同国度、不同类型的媒体组织获取和接近数据统计信息的能力有差异,获取大数据的有限机会掌握在少数人手里,影响了数据分配的机会正义,造成新的数字鸿沟等[2]。
2.智能技术的介入影响传统新闻价值的实现。首先可能会对“新闻客观性”造成损坏。针对建立在大数据挖掘技术上的数据来源可靠性问题,吴洪霞指出,数据表面上看似客观,但实际上数据来源的可靠性与权威性具有不确定性,不管是来自民间还是官方,都有可能存在有意或无意的错误、遗漏或者清洗,这些有先天缺陷的数据会误导受众相信新闻是“客观的”,而忽视了本质其实是“伪客观”的[3]。范红霞则指出,数据与算法驱动下的新式新闻更多地借用程序员、设计师、计算机和算法的力量完成,破坏了新闻专业主义的行业传统和价值基础,消解了新闻的客观性、真实性和专业性[4]。 其次可能会背离“新闻真实性”原则。 朱鸿军认为,基于算法推荐的新闻分发机制, 容易将标题党新闻推荐给用户,使得低俗与虚假新闻大行其道,直接影响新闻的真实性[5]。 Sullivan, M 则对虚拟现实新闻展开了质疑,认为虚拟现实新闻真假混合,VR 技术通过各种感官刺激使得新闻故事达到一种“新的真实性效果”,改变了社会通过新闻与信息互动的方式,是对新闻真实的背离[6]。 最后可能对传媒的“民主社会功能”造成损坏。 Bucher, T 指出,算法个人化推荐迎合个体读者特定利益, 通过过滤气泡和回音壁效应,具有破坏公共新闻理想的危险性[7]; 丁晓蔚等人指出,算法个人化推荐注重“点”上的深挖,难以最大程度地实现个人价值和公共价值[8],公民参与受到损害。
3.智能技术的介入带来受众权益受损风险。 首先是大数据挖掘技术对受众隐私的侵犯嫌疑。陈昌凤指出, 可访问的数据并不意味着符合道德规范,在网上所搜集的在线个人信息和阅读痕迹本属于隐私, 在没有知情同意的前提下被交换和买卖,存在侵犯个人隐私信息的嫌疑[9]。 其次,建立在虚拟现实技术上的沉浸新闻可能会带来对受众理性批判能力以及情感的伤害。张卓认为沉浸新闻的感官刺激既会带来信息污染,也会导致受众理性与批判能力的丧失[10];苏宏元认为VR 新闻360 度无死角的拍摄会引发隐私的泄露以及对新闻事件当事人的情感伤害[11]。
大部分学者主要从规范伦理学研究路径,探讨建设新的伦理规范以规避新出现的媒介伦理风险。其中美国的迈克·安妮(Mike Ananny ) 、马特·卡尔森(Carlson, M.)、尼古拉斯·迪亚科普洛斯(Nicholas Diakopoulos)等将研究焦点集中在治理“算法黑箱”问题。 Diakopoulos(2015)提出建构“算法问责制”(Algorithmic Accountability),即通过对算法的透明度测试,以识别商业秘密,发现操纵后果并超越复杂问题的认知天花板, 并提出逆向工程算法(Reverse Engineering), 来实现这一问责制的施行[12]。另外,视“透明度”(Transparency)为算法问责制最有效方法的研究日益火热[13],“透明度原则”替代“客观性原则” 越来越多地被用作合法化新闻的规范基础[14]。 杨保军则在“透明原则”之外,进一步梳理归纳了智能新闻的其他三大伦理原则,包括:风险可控原则、知情同意原则和核查更正原则[15]。 陈昌凤则从“引导人工智能价值观”的视角提出规范算法的价值理性,包括对“黑匣子”内部运算程序进行价值观测试,通过算法技术介入价值观来进行价值观引导等策略[16]。
除了规范伦理学路径,鲜有从责任伦理学路径展开研究,讨论道德责任主体如何承担起相应的风险治理责任。 这方面较为典型的代表学者有严三九,他认为算法工程师等新主体作为算法价值的决定者和伦理责任承担者,在过往研究中处于被忽视状态,他们对伦理问题的威胁性评估偏低且改善倾向整体趋于保守[17]。
这一部分往往通过实验法和观察法进行对比研究。 研究主题包括: 一是受众对自动化新闻“客观性”的感知。研究表明,虽然软件生成的内容被视为描述性和无聊的,但也被认为是客观的,不过受众无法将自动化新闻与记者手写新闻辨别出来[18];二是自动化新闻与记者手写新闻“可读性”的感知差异。研究表明,当同时阅读两类文章时,记者手写新闻在可读性方面更受欢迎,在信誉方面评分更低;受众对自动化新闻的可读性和质量期望更高(而不是可信度),但这种期望很少得到满足。以上种种证实了公众对记者信誉持有的负面态度,以及对新信息传播技术的期望[19];三是新闻记者与新闻消费者对自动化新闻“可信度”的感知差异。 研究表明,新闻消费者对于两者的可信度感知没有明显差异,但记者认为记者手写新闻可信度高于自动化新闻,并且记者对自动化新闻可信度的认可要高于新闻消费者,同时新闻可信度还受新闻主题的影响[20]。
科技创新带动了新的伦理学研究热潮,机器人伦理(Robot ethics)、信息伦理(Information Ethics)、算法伦理(Algorithmic Ethics)等成为热门词汇。 传统的新闻职业伦理学显然已经不适应当前的媒介化信息化社会环境,那么人工智能媒介伦理该如何发展?诸多学者在道德论、功利主义、美德伦理学和契约主义的道德理论基础之上,讨论了智媒时代媒介伦理学的建构。
陈昌凤指出,智媒时代媒介伦理表现出从新闻伦理到信息伦理的转向,主要体现为传统新闻媒体的信息把关人角色让渡给了掌握算法推荐技术的非新闻专业人员[21]。Ananny, Mike 提出智媒时代的媒介伦理可称之为 “网络化信息算法”(networked information algorithms)伦理,认为虽应以媒体问责制为目的,但分析单位应是人机交互行为,从三大维度加以建构:第一,建构对技术适用的道德伦理规则;第二,预测技术创新引起的道德关切;第三,建构技术人员自身的价值观和信念[22]。 Dorr, Konstantin and Katherina Hollnbuchner 两位学者提出了 “算法新闻伦理学”(Algorithmic Journalism Ethics)的概念,认为算法新闻学伦理处于数字媒体伦理和网络伦理的交叉领域, 可从三个维度展开:一是专业领域的个人伦理(individual ethics),依赖于记者个人的道德表现,诸如要求实现客观、透明和准确的报告原则;二是组织领域的媒体系统伦理(ethics of the media system),将个人道德延伸到立法者、 媒体工作人员和媒体所有人的分层责任;三是社会领域的受众伦理(ethics of the audience),主要包括媒介素养教育与需求的控制[23]。这种提法得到了包括浙江大学赵瑜教授等大量新闻传播学者的广泛认同。清华大学的常江副教授则尝试着从宏观(新闻行业)、中观(新闻机构)和微观(新闻从业者)三个层面建构起以社会责任、人本主义和美德原则为核心原则的数字新闻伦理体系[24]。
虽然智媒时代的媒介伦理研究取得了丰硕成果,但同时也暴露了几个比较明显的问题。
如前文所示,相关研究讨论得最多的话题就是“人工智能媒介伦理风险的表象及应对策略研究”,关于算法新闻、数据新闻和沉浸新闻所带来的伦理风险(算法歧视、算法偏见、数据隐私、数字鸿沟、新闻真实、情感伤害等)进行了阐释和分析。这些研究延续了传统媒体时代新闻伦理研究形而下的路径,出发点与落脚点分别是发现与解决行业内最新的问题,研究方法以脸书、今日头条等社交媒体或平台型媒体的典型个案研究为主。
而实际上,智媒时代的媒介伦理不仅仅只关乎传媒本身,它已经朝着传播伦理转向,与信息伦理、科学伦理以及计算机伦理有着密不可分的交集。有必要与其他相关学科开展研究合作与对话,在理论抽象程度上做进一步提升, 扩充自身形而上研究的路径。
学者们已经意识到,智媒时代媒介伦理风险对“传统新闻伦理规范”发起了新的挑战,新闻真实性原则、客观性原则统统失灵,自治、 公平、 正义、 责任、 服务公共利益等原则也遭遇前所未有的挑战,应对新风险的“新的媒介伦理规范”不断得到探讨。比如杨保军提出透明原则、风险可控原则、知情同意原则以及核查与更正原则;赵瑜指出,机器人伦理提出的人的尊严和人权、 责任、 透明度、 避免滥用和共生繁荣等原则, 也是人工智能时代新闻伦理的智识来源。 这些都是以行为为基础的伦理学研究,主要考察行动效果(如社会幸福)或义务(如规则)。
然而与传统新闻伦理需要回答“对谁负责”所不同的是,智媒时代媒介伦理还需要考虑“谁来负责”的问题,伦理道德主体有所增加、但其伦理责任意识弱化、责任思维匮乏、责任行为缺乏。故而有必要走出新闻传播学科的小圈子,从伦理学科体系中的“责任伦理学”寻找理论支撑。责任伦理学的伦理道德考量的眼光始于道义而终于目的和效果,是融“道义论”和“目的论”各自合理性为一体、克服了其各自片面性的“道义与目的辩证统一、相融共善”的伦理和伦理学。 尝试从责任伦理学的视角开展研究,与规范伦理学形成互补,对媒介伦理研究体系的建构大有裨益。
人工智能技术对新闻出版、报道、分发领域的影响是全球范围的,可以说,智能媒体伦理规范已经成为一个全球性的话题。 学者们早就注意到,传统新闻伦理规范受政治经济和宗教文化的影响,不同地域和国家地区之间有着巨大的差异,但同时又能够求同存异, 提炼出若干条全球适用的核心准则。 如美国传播学教授克利福德·G·克里斯琴斯(Clifford. G. Christians) 提出全球媒介伦理核心理念是“真实、人类尊严和非暴力”,得到了学术界的普遍认同。
那么,人工智能媒介伦理规范是否也能在全球视野与本土情境兼顾的情况下被建立起来呢? 不同国家和地区(包括欧美、非洲、亚洲、中东)、不同宗教信仰(基督教、伊斯兰教、佛教、儒释道)的媒体实践组织更新了哪些媒介伦理规范或道德准则,有哪些因素在影响他们媒介伦理规范的最终形成,这些问题基本上还没有得到研究者的关注。对于中国学者来说,未来有必要积极探讨如何建构一个既能跨越种族找到共识,又符合中国本土国情的人工智能媒介伦理规范。
综上所述,目前智媒背景下媒介伦理研究的局限性主要体现在:主要运用定性与个案研究方法分析现象,“发现问题-追溯原因-提出对策” 是常见模版,缺乏理论上的追根溯源和逻辑推演;新的伦理规范建构研究刚刚起步,责任伦理视角的研究还很缺乏,全球视野的伦理共识研究还没有涉及。 未来的相关研究应力图突破当前瓶颈,进一步拓展研究的深度与广度。
智媒时代的媒介伦理风险绝不仅仅是新闻传播学领域的议题,它与伦理学、信息管理学、政治经济学、 甚至认知心理学等多个学科都有着交叉融合。 特别是新闻传播学所聚焦的“算法侵权”“算法权力偏见”“信息茧房”等问题,也是别的学科所关注的焦点。目前,法学领域的“算法侵权”议题,已经上升到具体讨论如何立法来解决“用户信息挖掘与隐私权侵权论争”“智能媒体信息聚合与著作权保护论争”等问题。 又有公共管理学领域从“算法政治”的视角考察“算法权力偏见”在政治领域的运用、对政治传播与管理的影响等问题。 而反观我们新闻传播学,在讨论“算法权力”时,用得最多的就是福柯的“全景监狱”和“符号暴力”等理论。在讨论“信息茧房”效果时,我们更多地是纯理论分析算法推荐机制带来的效果, 而实际上效果是否被夸大,受众是否有通过其他的信息接触行为来减弱“信息茧房”效应,大都缺乏实验研究加以验证。而认知心理学领域通过实验法从神经学科和心理学科验证在受众身上是否产生“信息窄化”效果。这些学科的新视角新观点新成果启示着我们应该加强学科之间的融合与合作,从学科融合的视角来搭建科研团队,激发科研成果的创新。
目前,“智媒背景下新的媒介伦理规范该如何建构”研究视角处于主流地位,学术界人士谈论最多的是算法权力算法黑箱等问题的出现意味着传统媒体时代“客观性原则”已经不适用,取而代之的应该是“透明性原则”。美国“职业新闻工作者协会”新修订了《职业道德规范》,将“透明性原则”纳入其中,更印证了这种说法。
然而,我们制定再多的规范,如果道德主体没有意识到自己的问题,不去遵守这样的规范,那再多的规范也只能束之高阁。正如“今日头条”平台型媒体的负责人在面对算法偏向的质疑时,坚持拒绝价值观先行。 他说:“媒体是要有价值观的,它要教育人、输出主张,这个我们不提倡。因为我们不是媒体, 我们更关注信息的吞吐量和信息的多元。 ”所以,目前除了继续注重伦理规范的议题之外,更要将目光放在伦理责任的议题上。 新的媒体组织(平台型媒体)及其工作人员(算法工程师)在多大程度上意识到了智能新闻传播带来的伦理风险及自身的伦理责任?广大受众又是否如学界精英一样意识到了新的媒介伦理风险并对媒体责任有所要求?这些有关“责任伦理”的议题我们都鲜有触及。 但对于“新伦理规范建构”研究来说,弄清楚这些问题是基础,否则我们所讨论的建构问题就是空中楼阁,虚无缥缈,缺少根基。我们的研究不能仅仅站在旁观者的角度从理论上去要求新闻媒体实践者“应该” 怎么做,去人为的“绑架”他们应该做出什么样的改变,而需要站在他们的位置上去探索“实际上”他们是怎么想的,又是怎么做的,这样做行不行好不好。
故而我们接下来的研究需要两步走。第一步需要扩展我们的研究对象, 从传统媒体组织扩展到新的媒体组织及其从业人员以及普通受众, 因为伦理主体是人, 每一步伦理困境的选择与伦理准则的执行,都涉及到人的行动。第二步需要灵活运用多种研究方法。 针对新的媒体组织及其从业人员,可以综合运用田野观察、问卷调查、深度访谈等研究方法,深入探讨其伦理责任的认知、态度与行为;针对普通受众,可以综合运用实验法和民族志等研究方法,分析其对传媒伦理责任的感知、监督与评价。
他山之石,可以攻玉。不同地域、政治经济环境和宗教文化的国家对智媒时代的媒介伦理规范的要求不尽相同。 对于中国来说,需要建构一个既能跨越种族找到共识,又符合中国本土国情的人工智能媒介伦理规范。目前我们的研究更多的是借用边沁的功利主义伦理学、康德道义论和美德伦理学等伦理理论开展研究,鲜有从中国传统道德文化理论中去汲取养分。另外,在全球化的背景下,我们更需要扩宽研究视野, 把目光投放到不同国家和地区(包括欧美、非洲、亚洲、中东)、不同宗教信仰(基督教、伊斯兰教、佛教、儒释道)的媒体实践组织中,加强对国外全球媒体伦理实践的考察。这也对我们的科研团队提出了更高的要求,我们需要培养一批懂国际语言、通晓多元文化、能够进行跨文化交流与传播的国际性科研人才。
随着人工智能技术的发展,传媒业也逐渐从弱人工智能技术的运用过渡到强人工智能技术的运用,人工智能对我国传媒业的影响将更加深远。展望未来, 希望我国的智能媒介伦理研究能够在今后十年实现这样的美好蓝图: 完成一整套系统完备的伦理风险及治理研究; 建构起适应智媒时代的媒介伦理结构体系, 指导新闻传播业界的传媒实践;在全球范围内达成智媒伦理共识,一些新的媒介伦理规范原则为全世界传媒从业人员所遵循、信奉和坚持。