从“人机协同”看人工智能时代的新闻伦理构建

2019-02-18 21:47
社会科学研究 2019年4期
关键词:人机伦理人工智能

杜 娟

在人工智能时代,新闻报道和传播将更深度地依赖技术带来的革新。从新媒体到未来的智媒化,在人工智能技术驱动下,传统的新闻实践面对着更多元的形式和更为复杂的规则,随之而来的新闻伦理与新闻道德的讨论也将进入一个新的界面。人工智能在改变世界的同时,也对价值判断标准产生了很大影响。越来越多的人认识到,未来媒体将是人与机器的协同生产,这也会体现在新闻生产到传播的所有环节。构建一个何种内涵的新闻伦理观来适应这一变化?应该对这一问题尽快展开学术研究和讨论。本文试图从人机关系角度入手,来讨论这样一个问题:人工智能技术给新闻实践带来深度革新的同时,也给新闻伦理规范带来更多挑战,我们对此应如何应对。

一、人工智能与新闻伦理关系探究的必要性

《算法帝国》一书早已为我们描绘了“机器人革命”在人类世界各领域的发生和发展,并指出:“未来属于算法和它们的创造者。”①新闻生产和传播中大数据的广泛采集使用和算法大行其道,让受众直接感受到更快、更新的传播体验,而一些新的问题也开始出现和困扰我们,比如隐私权和著作权问题、新闻报道的真实性和客观性问题,等等。有关人工智能环境下新闻伦理方面的反思和讨论在近年的一些研究中已有涉及。毫无疑问,未来人工智能与人的关系对于新闻伦理的影响将是深远的。笔者认为,人工智能背景下的新闻生产与传播,其本质是“人-物”之间的信息交互。我们应该从人与机器的关系切入,来探讨新闻媒体道德伦理所面临的或即将面临的整合。这还是一个值得深度研究的议题。

(一)AI在新闻领域应用步伐加快

人工智能技术在新闻领域的应用在近年内获得了飞速发展。因为“人工智能的首要任务是参与繁琐的初级任务, 将记者解放出来从事更复杂、更高质量的报道和分析。人工智能能够帮助记者分析数据,验证模式、趋势,并从众多信息来源中探测原由和深意,看见肉眼不能看见的关系。”②在新闻生产端,最具话题性的就是机器人写作。机器人写作最早产生于美国。2006年,汤姆森金融公司开始使用机器人写作财经新闻。这项技术在当时被认为“无法更深入地揭示数据背后的含义。”在我国,2015年9月10日,腾讯财经开发的写稿机器人Dreamwriter发出第一篇稿件《8月CPI涨2%创12个月新高》,其生产方式是在大数据平台上,短时间内选出新闻点、抓取相关资料,在设定的新闻模板上生成稿件,它适用信息量巨大的财经资讯类新闻,在准确率和时效性上都完胜记者编辑。随后出现的机器人写作如今日头条“张小明”,新华社的“快笔小新”等。其优势是将记者编辑从一些低级的资料信息收集和资讯报道的工作中解脱出来,转向分析性的、深度的采访报道工作。

除机器人写作外,人工智能的强大算法还发展演变为普遍运用更多技术手段的新闻生产和传播方式,如视频直播、聊天机器人、VR/AR新闻、VR(AR)直播、传感器新闻等,无不强调人机的合作,都正在或将要不断刷新受众用户的接受体验。世界经济论坛全球议程理事会“软件与社会的未来”议题组的调查报告(2015年9月出版)显示,有80%的受访者认为未来视觉将成为新的交互界面。眼镜式、头戴式及眼球追踪设备都会变得越来越智能,谷歌眼镜只是第一个成功的尝试。未来,人眼与视觉也将成为链接互联网及数字设备的新媒介。通过视觉与互联网中各种应用与数据直接链接,个人的感官体验经过调节后被加强,从而更具身临其境之感。通过提供指令、信息可视化及交互作用,可使视觉成为一个即时、直接的交互界面,有助于人们更充分地与世界互动。③以VR新闻为例,这种形式强调的是360度沉浸式和交互性体验。在虚拟场景模拟下,打破时间和空间的局限,让受众“沉浸”在新闻中,这会让受众对新闻的接受变得更有趣。2013年美国的《得梅因纪事报》首次在新闻中使用VR技术。2015年,《纽约时报》推出了“NYT VR”虚拟现实APP,VR新闻正式起步。VR新闻由于其以用户为第一视角,用户不再是局外人,而成为虚拟场景下的事件“亲历者”。这不但改变了新闻制作方式,也对新闻从业者的技术素养提出了更高要求。

《2017年新闻业年度发展报告》指出,“未来,新闻视频与AR技术结合、与娱乐消费结合,将进一步丰富新闻的呈现形态,更加贴合受众的阅读喜好。同时,新闻和资讯视频的表现形式也将更多样化,超短视频、中长视频、视频直播、真实视频与虚拟的混合等各种形式的视频内容将呈现出更加井喷的增长态势。”④有观点认为,人工智能技术未来会在“基于物联网传感器的信息采集与应用、语音数据的采集与文字化转化、多语言数据采集与实时翻译、社交机器人采访、新闻现场要素的智能识别、新闻专题的智能化生成、智能化新闻核查”等领域产生。因而,智能化是具有能量巨大的“核能”,在推动媒体系统改造的同时,一旦使用不当也会带来巨大风险。⑤

(二)困境的显现——技术在新闻实践中的局限性

人工智能技术的快速演进,给新闻业带来摧毁式的创新。在这一摧枯拉朽的浪潮下,它必须从传统模式中走出来,进行艰难的蜕变。美联社在2017年推出的《人工智能使用手册》中指出:“人工智能技术带来的影响很大程度上将是一部人工记者如何适应人工智能的历史,而不是智能机器如何工作的历史。”“人工智能不是万能钥匙,它和人类一样存在偏见,而且容易犯错。”在新闻业适应新模式进行不断调整的过程中,当技术介入到新闻生产和传播实际操作中时,其自身的机器属性(或者说物的属性)也显现出了某种局限性,一些新的问题产生,如新的失范现象出现、价值体系的解构等,新的伦理困境开始显现。有必要对于人工智能背景下新闻伦理所遭遇的困境进行反思,而人与机器的关系是其中一个重要维度。当前的新闻伦理困境主要表现在以下几方面:

第一, 新闻客观性、真实性受到挑战。技术在新闻生产中能够达到准确的效果吗?现在看来,这个问题恐怕不好回答。新闻创作过程中,技术确实仍存在某种局限性:写作机器人是建立在计算机算法和大数据之上的,它能从资料库和数据信息中抓取资料,尤其是它依赖模板进行创作。如果模板的模式选取和数据库中的信息录入出错,以致机器人无法识别,会导致新闻报道“错上加错”,如果未经严格审查推送出去,负面影响的波及面会更大。而短视频、VR/AR新闻等形式,也有可能因为制造者的倾向性选择,主观的判断取舍,导致新闻素材的选材偏颇甚至产生目的性导向,使得其实际报道效果的客观性和真实性减弱。人们担忧的是,VR技术以图像符号和沉浸式的表达方式,取代了传统的文字与视觉符号的思维方式,它创造的是一个虚拟与现实合成的世界。可能会“进一步削弱受众对VR新闻信息的理解能力。”“VR新闻貌似客观和真实的技术呈现背后,存在着巨大可操控性和人为建构的可能性。”⑥为此,我们对VR新闻模式的使用要更加谨慎和冷静。

第二,新闻报道及内容推送的导向出现偏失。如果在新闻制造端,出现因设计者的主观偏见,而在新闻报道中出现偏向性的报道,一旦出现错误性的引导,所造成的负面影响将难以收拾。而在新闻传播方式上,偏见将带来更严重的情况。2016年,Facebook的“偏见门”事件中,该网站被指责热门话题榜(trending topics)受到人为操纵,新闻筛查存在政治偏见。此番消息发布后引起了轩然大波。人工智能技术支持下的新闻推送机制对传统媒体的新闻价值观造成了挑战。在社交新闻越来越占据重要位置的趋势之下,这种算法偏见所带来的新闻导向错误的教训值得所有媒体人警醒。

第三,机器化生产中人的主观个性让位,即传统新闻作品中的个性和情感关怀缺失。写作机器人等人工智能型采编系统依赖数据的整合和程序设定的模板进行新闻生产,缺乏新闻报道的现场体验,目前来看它还未能达到高度类似人类的情感思维能力,尤其难以判断一个新闻事件背后的深层意义和主观性因素,在深度报道方面其能力还无法胜任。因此,写作机器人等智能采编系统受到颇多质疑。当对技术的追求成为新闻媒介追求的一种普遍性趋势时,标准化操作使得新闻越来越多地向同一性和同质化方向发展。新闻作品越来越不像“作品”,而成为一种没有特点的“产品”。此外,记者和编辑可以创作出不同效果和风格的新闻报道,尤其是在深度报道和新闻调查中,受众能够感受到生产者的情感和思想。借助人工智能参与新闻生产,虽然可以大大减轻人的负担,但智能化新闻产品也可能缺乏新闻报道所需要的个人风格及媒体自身特色。

第四,隐私权、著作权与信息安全面临的风险加大。2018年3月,Facebook“用户数据泄露事件”爆发,引发了全球对信息安全的关注。由于人为操作,超5000万用户的资料数据被非法用于大数据心理分析,甚至被使用到政治活动中。新闻活动本身是一种人类信息的交互,大数据技术的手段使得新闻生产和传播更加快捷迅速,但同时也打开了“潘多拉”魔盒。电影《搜索》中,新闻记者出于个人的私心,借助媒体互联网传播将他人隐私公之于众,导致对方在互联网上被“人肉搜索”。新闻记者的报道活动应该符合职业伦理的规范。人工智能时代的新闻生产与传播,尤其应该注重隐私权、著作权和数据信息安全的防护。这不仅是基于市场规范的考虑,同样是基于职业伦理道德的要求。新闻生产者和公众所面临的风险主要在于以下几方面:第一,对信息源数据包括公民隐私权的非法使用和采集。对数据来源缺乏安全有效保护,对数据来源造成侵权行为;第二,对数据的解读不客观甚至是错误、恶意利用,导致错误导向的舆论报道;第三,作为新闻报道的新闻记者,版权得不到有效保护。在传统媒体和新媒体时代,有效的新闻立法始终无法彻底解决新闻版权保护问题,那么,人工智能时代,这个问题的解决将会更加困难。

第五,“信息茧房”效应。哈佛大学法学院教授凯斯·桑斯坦在《信息乌托邦——众人如何生产知识》(2006年)中提出了这一概念。他认为,在信息传播中,因公众自身的信息需求并非全方位的,公众只注意自己选择的东西和使自己愉悦的通讯领域,久而久之,会将自身桎梏于像蚕茧一般的“茧房”中。互联网和大数据为我们带来的,是扑面而来的海量数据信息。无论写作机器人还是智能化的新闻推送,程序的设计通常被设定在某一范围之内,受众容易因个人兴趣所限而陷入自身的狭隘领域,长久以往将逐步影响受众对社会公共问题的认知,也将对人与人、人与社会的沟通产生影响。从新闻生产者的目的出发,我们有必要考虑,精准化的“投其所好”是否只是体现了科技的强大优势?这种目标精准的投放是否本身带有算法上的某种倾向性或者说是“偏见”呢?它带来的是个性的解放,还是更深度的“作茧自缚”?

(三)相关问题的学术研究亟待深入展开

智能机器与以往的事物都有所不同,在人类智慧的设计下,它具有更高级的能力。因此,不能单纯从技术层面来理解人机之间的关系。近年来,人工智能成为各个领域关注的热点。从哲学和伦理学视角对人机关系进行深入研究,也有不少成果问世。从传统哲学角度来看,人与机器的关系,也被理解为“人-物”关系,人对物的控制如何合理地实现,人与物如何共处,比如道家的“天人合一”。1960年,美国的利克里德(Liklider JCK)提出了“人机共生”(Human-Computer Symbiosis)的概念。可以肯定,未来人机将共同演进,人机关系从某种程度上说就是人与人之间的关系。“从人类自身而言,应该谨慎地避免自己在技术中迷失,保持独立的思考,更多地关注人之所以为人的本质问题。”⑦有必要从哲学维度切入展开反思,这是一个很好的视角。

美联社在2017年2月推出了编辑部的人工智能使用指南,用于指导新闻人员如何利用智能机器从事新闻活动。在国内,人工智能对于新闻业的影响已是有目共睹,但是对于人工智能与新闻伦理关系的研究和实践还尚未深入展开。作者在“中国知网”按照文章“主题”进行搜索发现:“新闻伦理”主题的文章有1273条搜索结果,“机器人写作”主题的文章有80条搜索结果,“VR新闻”为主题的文章有241条结果,而有关“人工智能+新闻伦理”主题的文章,仅有9条搜索结果,“智媒体”为主题的文章有110条结果。在百度搜索引擎上粗略搜索一下“人工智能和新闻伦理”,搜索到110多万条资讯(截止到2018年10月14日)。从搜索的数据来对比,可以发现,对人工智能技术与新闻伦理问题的社会关注度是很高的,但是国内在这一领域的学术性讨论研究还远未达到相应的“热度”。也可以说,鉴于当前新闻业发展的实际,从人机关系入手来分析新闻活动中的伦理问题,相关的理论研究也还远远不够。为了应对当前以及未来新闻伦理在人工智能渗透下所遭遇的困境和难题,有必要尽快对这一课题展开理论研究。

二、人工智能时代的新闻伦理困境探因

(一)马克斯·韦伯对“工具理性”和“价值理性”的阐释

鉴于人工智能在各领域日益凸显其重要性的现实,对于其所产生的不可估量的影响力的分析和反思,已经在近年来转向更加深入的哲学、技术伦理学的向度。在新闻传播领域,新的传播手段必将对传统新闻媒体的理念和形式带来冲击。鉴于当前新闻伦理所出现的困局,从理论层面对其展开深入思考实为必需。尤其是,在人工智能环境下,应该重视在新闻传播过程中充分考虑人机之间的关系。

我们借助德国著名社会学者马克斯·韦伯有关“工具理性”和“价值理性”的概念,来进行这种考察。我们知道,马克斯·韦伯对西方发展起来的理性主义做出了经典的诠释。在《经济与社会》(第一卷)对社会行动的描述中,他提出了工具理性(Zweckrationalitat)和价值理性(Wertrationalitat)的概念。工具理性决定于对客体在环境中的表现和他人的表现的预期,行动者会把这些预期用作“条件”或者“手段”,以实现自身的理性追求和特定目标;价值理性是指对某种包含在特定行为方式中的无条件的内在价值的自觉信仰,无论该价值是伦理的、美学的、宗教的还是其他的什么东西,只追求这种行为本身,而不管其成败与否。前者重视的是条件和手段为主导,后者则重视内在价值为主导。他指出,“完全理性地考虑并权衡目的、手段和附带后果,这样的行动就是工具理性的。”价值理性总是“将价值观念一以贯之地体现在具体的行动进程中”。但是他也说明,“完全是为了理性地达到目的而于基本的价值观无涉,这样的行动取向实际上也并不多见。”⑧他没有把两者完全割裂开,而是肯定了两者之间的某种互补关系。但是,看起来他更加重视的是“工具理性”的作用。

韦伯之后,法兰克福学派对“工具理性”的批判主要指向于此,认为它造成了人的异化。确实如此,技术手段、算法的优势及其带来的高效率和巨大收益,让我们忽略了价值、信仰、伦理的理性思考。问题往往隐含在人机关系的背后。马克斯·韦伯的“工具理性”和“价值理性”的概念,可以被用来考察在我们在新闻实践活动中的行为,尤其是对人机关系的理解。我们可以由此找到未来新闻伦理构建的一种路径。

在中国哲学体系中,始终把道德伦理作为核心命题。孔子的“仁”,孟子谈“性善”,宋明儒学对天理这一道德的遵从,对内在心性的探索,始终都围绕着道德精神这一核心思想不断地深化。当代新儒家的代表人物牟宗三先生在儒家与康德思想的基础上提出“道德的形而上”的概念,指出人具有“智的直觉”,即道德本体的直觉,德行优先于知识。在道德与科学知识的关系问题上,他指出道德是人之本,也是科学知识之本。没有道德的根本,科学会带来罪恶的物欲,但是没有科学知识,道德理性也难以实现。他认为:“故古人首重‘正德’与‘敬慎’。这不但是中国传统如此,即在西方,古人明知重智,其目的亦在成德。”⑨所以,“从这个意义上讲,科学知识与道德是一个有机和谐的统一体,二者合则共存,分则两亡。”⑩

(二)新闻伦理困境产生的原因

人工智能技术颠覆性地改变了新闻传播的格局。在此格局下新闻伦理所面对的困境及背后的原因值得探讨。本文试图对此进行分析并认为,由于没有深刻认识人工智能时代人机关系的本质,在新闻生产与传播的过程中,价值理性与工具理性关系失衡,以致传统的新闻伦理未得到相应的调整,从而导致前述种种新闻行业失范行为的产生。具体来说有以下几方面的问题:

1.技术与道德二者间的关系没有得到协调和统一

人工智能技术是现代工业社会的新物种,它的快速发展和普及对传统的道德伦理产生的冲击是巨大的。伴随人对人工智能技术的依赖逐渐加深,人的主导性被弱化,一切让位于数据和算法:为制造新奇刺激的感官体验以吸引客户,而牺牲了新闻报道的客观性和真实性;为追求市场效应,新闻在算法的设定下进行分类推送,不利于公众关注社会公共问题,新闻的舆论功能和社会价值被弱化;为爆料而无视个人隐私与公共信息安全的新闻行为,则触及了新闻伦理和法律的底线。

马克斯·韦伯的“价值理性”和“工具理性”概念认为,二者都是人的理性的不可分割的重要方面。价值理性体现人对价值问题的理性思考,体现人对自身和世界的终极关怀;而工具理性则是一种以工具崇拜和技术主义为生存目标的价值观,从追求功利的动机出发考虑,忽视情感和精神价值。我们借助这一概念来考察新闻实践中人对技术的关系,可以做出新的理解和判断:如果只坚持工具理性而忽视价值理性,新闻传播将失去价值判断;反之,摒弃技术手段,新闻价值也难以得到最大化。两者关系的失衡,极易导致新闻伦理失范问题的产生。只有二者统一,人与智能机器之间的关系协调统一,同时实现新闻实践中技术的最大化利用和对伦理价值的坚守,新闻价值才能最终实现。

2.“算法偏见”(algorithmic bias)

算法本身是一套解决问题的系统机制,但是程序的设计者,有可能在种族、性别、年龄歧视等社会倾向或其他方面有主观性偏见。算法反映了设计者的主观认识,在应用过程中本身就已经附带了某一类人的价值理念。反过来,人们会担心设计者和技术公司会因为巨大的利益驱使而被算法所控制。2017年初,皮尤研究中心联合伊隆大学互联网创想中心发布了名为《代码依赖:算法时代的利弊》的报告。该报告指出:“有受访者表示,相较于准确性和公平性,算法更看重效率,长此以往,会更符合算法的创设者的利益。而且算法只能反映社会现实,也会体现现实中的偏见、加剧不公,于是它们可能有利于白人男性,或许也会偏袒来自亚洲的年轻男性,而不利于女性、老年人、单亲父母、有色人种、移民、穆斯林、非英语居民等。”算法偏见体现的是人的偏见,在新闻实践中直接体现为新闻报道的倾向和目的,因偏见而产生的偏差进而出现导向偏颇,对受众的差别化待遇甚至引发不良的舆论效应。前面提到的2016年Facebook的“偏见门”事件即为算法偏见导致的典型案例。

3.新闻实践中,尚未确立人工智能技术的相应标准和行业规范

工业革命以来工具理性的发展,不断向前推动和刺激着科技的进步和社会经济的发展。但是,没有价值理性的指引,仅依靠工具理性也难以更好地推动人类社会的进步和发展。当我们进行伦理的判断时,也需要借助一定的量化标准。目前,对于新闻传播中人工智能技术的使用,还没有确立明确的标准或者规则。这就使得人工智能技术可能被滥用:在新闻生产端,机器人写作等技术手段无法保证客观全面地处理数据;在新闻推送端,受访者隐私和数据库的信息安全得不到有效保护;没有通用的对于智能化新闻作品真实性进行审查的相关标准,也没有通用的对新闻社会效应进行实时跟踪监控的详细操作规则;VR/AR新闻客观和真实性没有可操作依据,视频直播频频炒作不良低端导向的话题,一再突破社会伦理的底线,等等。

这是因为,人工智能算法和数据的使用标准无法紧跟技术发展的速度。尤其令人担忧的是,人工智能的深度学习能力会一直不断更新完善,这给相关的技术行业规范的制定带来更大挑战。

三、对策——确立人机协同前提下的新闻伦理观

对于人工智能的反思一直没有停止过,相关的伦理学反思伴随着人类力图控制机器的努力相伴相生。美国科幻小说家阿西莫夫1940年代人提出了著名的“机器人学的三大法则”,目的在于确保人在智能发展中的主体地位,并确保人的核心利益。这是最早出现的处理人机关系的法则。

近年来,世界各国和公共机构开始积极关注人工智能的法律、伦理、社会、经济等影响。在我国,2017年7月20日,国务院印发《新一代人工智能发展规划》,涵盖了从法律法规、伦理规范、重点政策、知识产权与标准、安全监管与评估、劳动力培训、科学普及等多个方面的措施。2017年底,IEEE(美国电气和电子工程师协会)宣布了三项新的人工智能发展标准,即:“机器化系统、智能系统和自动系统的伦理推动标准”“自动和半自动系统的故障安全设计标准”和“道德化的人工智能和自动系统的福祉衡量标准”。今年5月,号称“史上最严的”欧盟新的数据隐私法规《通用数据保护条例》(简称“GDPR”)已经正式生效。该法规规定,个人用户将拥有更多权利要求公司披露或删除他们持有的个人数据。本着技术服务人类社会的核心宗旨,媒介和受众双方都需要解决这样一个问题,即考量人工智能技术在新闻实践中占据何种地位。解决了这一问题后,有关新闻伦理的问题才能展开。

(一)“人机协同”概念的两个层面

马歇尔·麦克卢汉认为:“任何发明或技术都是人体的延伸或自我截除。这样一种延伸还要求其他的器官和其他的延伸产生新的比率、谋求新的平衡。”近年来,业界对“人机协同”理论的讨论即是在谋求这种“新的平衡”。

“人机协同”,意为人与智能机器的交互协作。有人称其为“人机共生”“人机合作”。在人机协同模式下,人与机器携手合作。由人员控制并监控生产,而机器人则负责体力工作。两者发挥各自的专长。这种模式将为未来工业生产带来根本性变革。在技术层面上,对人机协同的理解有两个方面,首先,人始终处于算法回路之中,人的行为调节和改善算法,使之不断完善提高。其次,以机器来拓展人的能力。应该说,在人机协同中,人是智能的总开关。在人机协同关系中,人居于统摄地位。

从伦理层面来看,“人机协同”则代表了技术与人的和谐、统一和平衡状态。或者说,它真正实现了工具理性与价值理性的统一。首先,技术是人类实现更好发展的实现路径,而人类作为技术的创造者,是技术发展的源泉,两者之间互为补充。其次,人的主体性决定着技术发展的目标,人居于主导地位。第三,技术与人之间的合作关系处于不断的变化之中且能够相互协调,保持平衡。人工智能永远不可能替代人。机器一定是为人所利用,这是人机协同概念的核心。或者说,“我们必须在与技术的关系中形成自身。”人机协同提供了一个有关人机关系的解决方案。它是未来人工智能发展的方向,也被认为是未来传媒生产分发的主流模式。这一概念不仅体现为人机的协作,还体现为二者始终维持着动态平衡的关系。进入智媒体时代,只有构建人与技术平衡共生的局面,才不至失去新闻价值衡量的准绳。

对于如何在技术运用中实现道德的制约,近年来也有一些学者尝试从技术伦理学角度进行探讨。值得一提的是,荷兰学者彼得·保罗·维贝克曾经提出了一种解决路径——技术调节。他认为,“所有设计中的技术最终要调节人类行动和体验,这有助于形成我们的道德决策和生活质量,因此,技术设计的伦理学应该处理这些未来的调节作用。”并且寻找处理技术的合适的中间路径应该是负责任的调节形式的发展。比如,选择者应该尽力评估设计产品可能具有的、未被预期的调节能力,设计者明确尽力去建立预期所考虑的调节形式,而道德性则成为产品“功能性”的一部分。根据这一理念,实现人机协同就是不断在技术与伦理之间进行负责任的调节。这种技术调节理论体现了“技术设计中的内在道德维度”,伦理学是关于如何行动,设计者负责如何有助于形成技术并调节行为,设计则是伦理学的物质化形式。每一个使用中的技术物都将调节人类行动,每一个设计行动都会有助于构成道德实践。因此,未来传媒技术的应用发展需要借助负责任的调节形式,构建正确的伦理观和价值理念。

(二)构建“人机协同”模式下的新闻伦理

在人工智能时代,我们如何构建一种新的新闻伦理?通过对人工智能技术在新闻传播中的实践,我们需要从哲学和伦理学层面对此进行探讨。本文尝试提出一种路径:在坚持“工具理性”与“价值理性”统一的基础之上,以“人机协同”模式来进行新闻实践活动。这一路径的展开,强调要在继续发展工具理性的同时,秉承一种负责任的、以人为本的价值理性精神。要发挥人的主体性作用,利用技术调节负责任地在人与机器算法之间确立一种动态和平衡的协作关系,通过最大程度地发挥技术的作用,让新闻生产服务于受众。由此,本文认为可从以下几方面来推进新闻伦理的构建:

1.人机协同首先要明确界定人机之间的关系,明确人在新闻实践中的主体地位

新闻活动是人的活动。对人机关系的关注本质上就是对人的关注。明确此前提之后,才能展开新闻伦理价值定位。在发挥工具理性现实作用的同时,也要充分重视挖掘价值理性,后者往往是最本质的东西。伦理学学者何怀宏认为:“人类最好把价值判断留给自己,这也是保持一种人类对机器人的独立性乃至支配性。……如果说,我们最好不要让多数人在人工智能的领域内太依赖少数人,我们就更不要让全人类在智能、在精神和价值判断的领域里依赖机器。”如果新闻媒体为追求人工智能技术带来的利益最大化而降低价值判断的标准,最终只会导致新闻价值的丧失。人必须成为人工智能算法的掌控者。本着这一原则,在新闻实践中要明确智能算法是手段而非主体,更非目的。人在这一关系中居于主导地位,强调机器能够自主配合人的工作,新闻价值标准的设定更要限制过度依赖机器和算法的推演。为此,新闻媒介主体应肩负伦理责任。

2.强化社会责任与职业道德建设,坚持以社会主义核心价值观和传统文化为指导思想

有学者提出应该在新闻媒介从事新闻实践的过程中,将价值观引入算法。“我们应该拥抱人工智能所引发的算法革命,构筑以人为本的人工智能型算法发展的战略,强调智能型算法的价值观,为沉浸式产品植入必要的干预机制,确保其朝着有益于个人和社会的方向发展。”把价值观引入算法,即是突出价值理性的调节作用。

在新闻实践中使用人工智能技术,要做到以价值观为精神指引,具体来说可以通过以下几方面来进行:

第一,从传统文化和社会主义核心价值观中汲取养料。党的十九大报告强调,要深入挖掘中华优秀传统文化蕴含的思想观念、人文精神、道德规范,结合时代要求继承创新。传统文化思想,如儒家倡导的“义利观”“先义而后利者荣,先利而后义者辱”“不义而富且贵,于我如浮云”,道家的“物物而不物于物”等,对于当前新闻伦理的建设均具有重要指导作用。党提出的社会主义核心价值观,从国家层面强调“富强、民主、文明、和谐”,从社会层面强调“自由、平等、公正、法治”,在个人素养方面强调“爱国、敬业、诚信、友善”,不但可以用于指导传统新闻实践活动,而且在人工智能尤其是未来智媒体时代依然适用。

第二,将价值观嵌入到新闻采编技术操作实施的全过程。在新闻采编到推送的过程中,除记者、编辑、技术人员和广告推送商职责之外,还需要加强人工审查,对于内容导向错误、虚假、违法等情况的新闻内容,包括社交媒体中的互动留帖,在发布前进行审查,确保新闻的真实有效。

3.人机协同要求必须充分发挥智能算法的优势,引导良性社会舆论,构建社会共同价值

借鉴贝维克的技术调节理论,我们可以在新闻实践中,对技术的实施实现恰当的调节,使之符合伦理道德的要求。新闻传播行为是一种社会性的实践,具有很强的社会行为,良性的新闻传播行为是构建良性社会舆论环境所必需。我们完全可以利用技术创造更多形式的传播互动方式,在让新闻作品提供全新新闻体验快感的同时,还能够进一步通过技术来营建一种动态平衡,打造一个良性的舆论环境或者社区,构建社会共同价值体。具体来说,可以在人工智能抓取数据信息的基础上,加强对新闻的分析解读,引导受众;在新闻推送中进一步增强互动,设置关键词的提示功能等,以此来构建聚合性社交环境。

4.确立行业标准,规范职业素养

作为调节手段,还需要考虑规则和标准的制定与设计。美联社在2017年推出了《人工智能工作手册》,从伦理视角对人工智能技术如何辅助新闻业进行了反思和指导。当前,新闻工作者应该尽快适应新的媒体时代的要求,以新闻专业素质与人工智能技术的协同创新来提高职业素养。具体来说,可以从以下几方面进行探索:首先,明确技术在新闻生产和传播中的边界问题,倡导积极的算法透明原则。比如,公开源代码、程序设置流程、决策过程和受众反馈等信息。第二,提高数据管理和保护意识,主要包括对数据的甄选和利用,以及对爆料人和受众的隐私保护。第三,积极引导第三方评估进入新闻技术领域,对媒体公信力、技术人员的职业能力、新闻推送方式等进行行业评估,定期公开发布评估报告。第四,培养规范新闻从业人员和技术人员的职业素养,加强人工智能时代的新型新闻技术人才的培养。传统新闻人员必须向技术型过度,技术人员也必须了解和学习新闻生产和传播流程。为此,有必要设置专业化考核,新闻技术人员参加定期考核,通过考核后持证上岗。第五,建立完善的心理辅导和评估体系,针对技术型人员的心理健康评估尤为重要。

5.加强新闻监督,完善相关法律法规

应对人工智能给新闻伦理带来的挑战,关键在于人机关系的构建。要防止人工智能技术被滥用,必须完善相关法律法规。在这方面,我国还需要尽快跟进。这包括如何通过法律来明确新闻活动中人工智能技术使用者的主体权利和责任;明确技术便利给个人隐私权、个人和公共信息安全带来的潜在危险;对于媒介组织已经发生的新闻行为引发的不正当效应,还缺乏相应的法律细则来定罪量刑。

虽然目前还没有完善的人工智能法,但相关问题在未来一定会提上议程。需要考虑以下几方面:首先,明确界定相关法律规范和法律条文,平衡和规避言论自由的技术便利所带来的对公共信息安全和个人信息安全的潜在危险;第二,新闻传播主体扩容,个人自媒体、技术媒体、新闻采集编辑算法设计者等的主体权利和责任,都要纳入调整对象;第三,人工智能生成的新闻的著作权保护;第四,人工智能生成新闻过程中对个人和公共安全造成的侵权行为和责任承担;第五,新闻传播过程中的舆情预警机制和问责机制的设计,等等。

四、结语

“人与技术之间存在着复杂的界面。人类是技术的产物,就像技术是人类的产物一样。”“我们必须学会和它(技术)一起生活。”换句话说,“我们必须在与技术的关系中形成自身。”为此,必须以正确和负责任的方式来构建人与技术的关系。

与其试图抛弃技术,不如找到与之协调的方法。中国传统哲学里有关“物”的认识或可为新闻伦理中的技术反思提供解决思路:人机关系的和谐是解决伦理困境的出路,人的价值理性与工具理性的平衡统一,才能使新闻技术充分激发新闻的价值。由此看来,哲学学科和新闻传播学科在这一领域内的综合研究值得继续。

人工智能时代,数据、算法以及智能机器的深度学习,无时无刻不在更新我们对世界的认知,也改变着新闻生产者和新闻受众对新闻的接受度和感受力,推动着新闻实践向着更多元、更多样的方向发展。技术给新闻传播插上了翅膀,但新闻传播技术改变了,并不代表新闻价值会改变,新闻伦理的讨论也不会因此而停止。相反,在技术手段愈加重要的今天,新闻伦理要愈加明晰和坚定,唯有如此,新闻价值才得以彰显,新闻生产者和新闻受众才不至于在技术的浪潮中迷失方向。“随着传统新闻专业主义的消解,人工智能时代的新闻专业主义应当得以重构。随着人工智能在新闻生产环节中的应用越来越多,新闻价值也易于被忽视,因此,由专业的新闻从业人员把关新闻生产中的价值取向,找回‘把关人’这一角色对重塑新闻专业主义来说至关重要。”人是所有技术的领导“核心”。这取决于技术理性的进步,也取决于伦理意识的清醒。人机协同是工业发展的未来趋势,也是双方关系的哲学表述。在技术浪潮中保持清醒和独立思考,用人类的智慧让人工智能在新闻实践中实现“物尽其用”,才是新闻工作者未来需要努力的方向。

① 克里斯托弗·斯坦纳:《算法帝国》,李筱莹译,北京:人民邮电出版社,2014年,第194页。

② 余婷、陈实:《人工智能在美国新闻业的应用及影响》,《新闻记者》2018年第4期。

③ 〔德〕克劳斯·施瓦布:《第四次工业革命》,李菁译,北京:中信出版社,第130页。

④ 张志安、李霭莹:《2017年新闻业年度发展报告》,《新闻界》2018年第1期。

⑤ 彭兰:《移动化、社交化、智能化:传统媒体转型的三大路径》,《新闻界》 2018年第1期 。

⑥ 赵双阁、高旭:《VR技术应用新闻实践的伦理困境机及其突破策略》,《出版发行研究》2018年8月。

⑦ 陈鹏:《人机关系的哲学反思》,《哲学分析》2017年第5期。

⑧ 〔德〕马克斯·韦伯:《经济与社会》第一卷,上海:上海世纪出版集团,第114-116页。

⑨ 牟宗三:《现象与物自身》,长春:吉林出版集团有限责任公司,2010年,第21页。

⑩ 颜炳罡:《整合与重铸》,北京:北京大学出版社,2012年,第198页。

猜你喜欢
人机伦理人工智能
《心之死》的趣味与伦理焦虑
人机“翻译员”
从内到外,看懂无人机
护生眼中的伦理修养
2019:人工智能
人工智能与就业
数读人工智能
“人机大战”人类智慧遭遇强敌
下一幕,人工智能!
未来深空探测中的人机联合探测