媒体智能化发展的伦理与法律问题初窥

2018-02-10 01:41邵国松
现代传播-中国传媒大学学报 2018年11期
关键词:假新闻算法用户

■ 邵国松

一、导论

人工智能(Artificial Intelligence,简称AI)无疑是当下最热门的科技话题,整个社会对其发展和应用都极为关注,并已渗透到新闻传播活动的各个环节,比如腾讯财经DreamWriter、新华社“快笔小新”等写稿机器人通过对数据的自动化采集和加工,几秒之内就能完成新闻的撰写;今日头条和一点资讯等借助算法精准分发资讯,大幅提高了用户在海量信息中获取所需信息的效率;《纽约时报》、财新网等媒体积极尝试VR、AR视频报道,用户由此获得了沉浸式新闻的崭新体验。质言之,媒体朝着“技术+内容”的方向大步前进,媒体智能化时代已全面开启。

在我们看来,新闻传播从来不是纯粹的商业活动,而是具有明显的公共产品属性。几乎所有民众都依赖新旧媒体获知信息,这使得后者能对社会产生深刻影响,包括但不限于设置公众讨论议程、影响公共舆论走势、对政治和商业权力进行监督、促进各社会主体之间的民主协商等。然而,倘若不能遵循一定的社会规范,以保证新闻的真实性和客观性,或保障新闻传播活动的合法性,那么新闻传播业就有可能无法履行其“社会公器”的角色,甚至构成对个体和公共利益的侵犯。在自媒体大行其道、智能化媒体已经开启的今天,新闻传播业失范的风险从未有如此之高。集中探讨媒体智能化发展所带来的社会问题,无疑有着重要的公共价值和迫切的现实意义,这也是写作本文的目的所在。

具体来说,我们首先讨论人工智能和新闻业结合的三大领域,即机器化写作(新闻写作)、算法推荐(新闻分发)和沉浸式新闻(新闻体验)。它们各自的发展脉络如何?带来了怎样的社会问题?之后我们将讨论和人工智能运用密切相关的两个议题,即假新闻泛滥和个人数据保护。假新闻可被视为新闻的异化,它普遍存在但对公共利益而言具有腐蚀作用。个人数据是驱动AI发展的核心资源,但若不予以合理保护,会构成对公民权益的严重侵犯。媒体智能化发展所带来的伦理和法律问题有的日益显现,有的尚未成形,本文结合国内外相关研究和实践,对这些问题进行初步探讨,以期抛砖引玉,引起学者和业界对此问题的足够重视和深入探讨。

二、机器化写作及其问题

机器化写作是人工智能在新闻生产领域的运用,主要是指针对数据的自动化采集和写作。机器化写作起源于美国。早在2006年3月,美国数据提供商汤姆森公司就开始运用计算机程序加工财经数据,并生成、推出完整的财经报道。2009年,美国西北大学的计算机系和新闻学院共同研发了一款能自动生成体育类新闻报道的软件Statsmonkey;次年,该团队成员成立了专事机器化写作的公司“叙事科学”(Narrative Science),吸引了大批投资者和客户的注意。2014年3月,洛杉矶发生地震,三分钟之后,一条有关本地震的新闻便出现在《洛杉矶时报》网站上。这条新闻是一款名为Quakebot的软件自动写作的,内容虽然简短,但报道之迅速和准确都让人大为惊叹。此后,美国逐步出现了多款机器新闻写作的软件。比如,美联社和Automated Insights公司共同研发了Wordsmith写作软件,用来分析企业财报等数据并生成财经新闻稿件;《华盛顿邮报》则推出了TruthTeller来实时监测政客的演讲是否符合事实,此外还使用名为Helioraf的程序来收集2016年里约奥运会的赛事信息,供记者进一步加工形成更具深度的新闻报道。

2015年9月,腾讯财经网首次使用机器程序Dreamwriter写作的稿件,机器化写作自此进入国内读者的视线。之后,新华社推出了“快笔小新”、今日头条开发了xiaomingbot,这些软件的写稿速度和发稿量都十分惊人,主要集中在财经新闻和体育新闻两个领域。此外,新华社和阿里巴巴公司共同研发了国内第一个媒体人工智能平台“媒体大脑”,在2018年全国“两会”期间登台亮相,其发布的首条视频会议新闻,生产仅用时15秒,涉及舆情分析、信息可视化、视频剪辑等诸多环节,都是媒体大脑自动完成的,这表明我国机器化写作程序的开发已经达到了一个新的高度。

在可预见的将来,机器化写作将大幅提升新闻报导的数量,将记者从某些机械的、刻板的新闻写作中解放出来。特别是与民众生活密切相关的本地新闻,对于预算和人手被大幅削减的传统媒体来说,已是难以完成的使命,但机器人记者却能轻松在短时间内写出不同的社区新闻,高效满足读者个性化的需求。①机器化写作对新闻业更重要的影响是能与人协作,拓展人在特定报道领域的能力。在新闻选题的策划与发现、未来趋势的预测以及传播效果的预判等方面,人机协作都有望带来新的可能。特别是社交媒体的高度渗透,使得分布式新闻生产的“万众皆媒”成为可能;物联网的应用,则造就“万物皆媒”的景象,即万物都有可能成为新闻信息的采集者和传播者。②无论是“万众皆媒”,还是“万物皆媒”,都将构成机器化新闻生产的坚实基础乃至强劲推动力。

在此背景下,机器化写作不仅关乎新闻生产的创新,也会带来一些需认真对待的问题。比如,Matt Carlson认为机器化写作的广泛运用有可能增加记者失业的可能③,但在Noam LemelshtrichLatar看来,在大数据时代,社会活动都被以电子形式记录,人工智能技术则能挖出这些数据进行新闻写作,比专业的新闻记者还要高效。④在这样的情形下,新闻从业人士需要开拓视野,将来可能会是数据分析经理和软件程序员管理新闻编辑室,因此记者需要调整他们的技能,以适应媒体智能化发展的需求。但Andreas Graefe指出,新闻机器人的编程人员和使用该技术的新闻人士之间存在知识鸿沟,会导致不当的新闻实践,新闻由此也难以发挥其社会服务的功能。⑤

机器化新闻写作主要包括三个环节,即信息抓取、信息处理与信息输出。论者指出,这个写作流程也充满一系列风险,比如:网络爬虫所提取的数据是否是客观准确、不带偏见的?是否侵犯到用户隐私,或涉及版权保护作品?谁该对机器新闻写作的错误负责?还有研究者通过实证发现,读者常常无法区别机器写作和记者写作的文章,觉得两者写作的文章在感知可信度和专业度上相似。⑥针对这些问题,除了伦理和法律制度的完善,我们可以做的是加大对专业新闻记者和编辑的培训,使他们能够规范机器写作过程中可能存在的新闻失范问题,以提升机器新闻的公正性、透明性、可控度和可信度。

此外,机器写作需要确定谁是写作主体;在新闻发布以后,需要明确告知读者这条新闻是记者写的还是机器人写的。如果是机器人写的,那么该新闻的版权属于机器、编程者还是所属机构,都有待进一步讨论。一般认为,机器所创作的作品同样具有原创性,对机器作品进行版权保护是符合立法逻辑的。这就涉及一个基本问题,即机器人是否具有独立法律人格?目前普遍认为机器人不具备独立法律人格,因而也不享有相关权利。但论者指出,论及机器人及其创造物是否应当受法律保护,可参考历史上组织法人获得独立法律人格的过程,由于一些组织永续存在,并且需要能够在法律上持有、处理、清算财产,因而立法者赋予了这些组织法人地位。⑦事实上,欧盟议会已出现赋予人工智能“特殊法律身份”的提案,机器人获得独立法律人格身份并非遥不可及。但立法时需要解决的问题是无法对机器人的权利和义务进行穷尽式列举,因此可能需要对其做出相应“法律保留”,比如不能赋予机器人法律层面的政治权利,也不允许机器人“自我复制”,以免危及人类。

三、算法推荐及其问题

美国同样是算法推荐的诞生地。早在1992年,GroupLens通过对美国兴趣论坛网站Usenet讨论区里的消息进行排序,将用户指向他们可能会感兴趣但自己尚未发现的话题线索。2002年,搜索巨头谷歌公司开发的Google News启动,标志着算法推荐正式进入人类编辑领域。之后,社交媒体巨头Facebook迅速崛起,很快推出基于算法推荐的产品News feed,大受用户追捧。发展至今,67%的美国成年人通过Facebook、Twitter、Youtube等社交媒体获取新闻,而这些社交媒体基本上都是通过算法推荐方式将新闻信息推送给用户的。⑧在我国,算法推荐大有后来者居上的势头,且竞争日益白热化。2012年3月,今日头条创立,这是一款基于数据挖掘的推荐引擎产品,为用户推荐信息,提供连接人与信息的服务的产品。其口号是“你关心的,才是头条”,在创办之后便大获成功。先前横扫传统媒体的新闻聚合网站,比如新浪新闻、搜狐新闻、网易新闻、百度新闻等,也纷纷采用算法推送新闻技术,以应对今日头条所带来的巨大竞争压力。

算法推荐的兴起跟我们所处的网络传播时代密切相关。一方面信息知识大爆炸,另一方面个体却难以在信息海洋中获取自身所需信息,在信息过剩与信息匮乏中陷入困局。算法推荐应运而生,被认为是解决这一困局的有效手段。从技术角度来讲,算法推荐包含以下几个环节:其一是选择什么样的规则处理信息;其二是把规则数字化,找到规则设计的各要素之间的函数关系,确定算法;其三是导入大数据用于机器的深度学习;其四是使用算法处理大数据。⑨算法推荐信息的方式主要有两种:其一是所谓的热点信息被置顶;其二是个性化、定制化的信息被单独推送给用户。这两种方式的交叉使用,使传统媒体在新闻分发的控制权受到极大削弱,用户获得新闻信息的渠道更为多样且“可自控”。

然而,算法推荐新闻带来了一系列不可忽视的社会问题。就热点信息置顶而言,其选择标准是其热度,即用户对一条信息的点击量。据了解,今日头条、百度新闻等新闻聚合平台推荐系统的初始设定,大都是根据用户的点击量而定,那些点击量高的信息会自动纳入热点推荐范畴。在大多数情况下,手机终端用户由于处于相对私密状态,会对那些低俗内容较为敏感,结果导致大量的低俗内容成为点击的热点,且被作为热点算法推荐给更广大的用户,造成所谓的“内容下降的螺旋”现象。⑩虽然低俗不良的信息自人类传播活动之始便已有之,但算法的出现以及职业把关人的缺失,使得低俗不良信息开始泛滥,进而演化成一个公共问题,甚至触犯法律底线。在监管部门施压下,包括今日头条在内的网络平台已开始混合使用技术和人工方式对低俗不良信息进行过滤,但效果并不显著。

就个性化特推荐而言,主要包括协同过滤算法和基于内容的推荐算法两种方式。协同过滤算法指的是收集、分析不同用户的历史数据并计算出用户之间的相似性,进而生成与目标用户兴趣最相近的top-N项信息并予以推荐。基于内容的协同算法主要根据用户的过往行为信息来预测用户喜好并推荐与其喜好相近的信息。无论何种算法推荐,其目标均在于向用户进行信息的精准推送与有效供给,使得用户能以最少的耗费获得最优化的信息服务体验。以Facebook的新闻产品News Feed为例,Michael DeVito发现其算法推荐遵循九个标准,其中“朋友关系”与“用户兴趣”超越其他因素,成为主导News Feed算法推荐的两大标准。这意味着,新闻价值由算法来决定,算法模型又由用户的兴趣偏好来主导,由此颠覆了传统的新闻价值判断标准。长此以往,用户会处于同质化信息的包围之中,造成所谓的“信息茧房”和“回音室效应”,这不仅大幅减少了用户对多元化观点和信息的接触和了解,也很大程度上损害了信息传播业的公共属性,使得民主社会得以运转的社会共识愈发难以达成。

越来越多的人意识到,算法从来不是纯客观的,算法推荐是可以被操控的。因为算法的规则是由人设定的,改变规则便可改变推荐结果。2012年,几位研究者联合Facebook的工程师,对70万余名不知情的用户进行了一项为期一周有关“情绪感染”的测试,结果发现外部信息会对用户的情绪产生传染式影响,而用户所接受的信息是研究团队根据算法进行推荐的。用户在此研究中被当作“小白鼠”予以对待,其可能存在的研究伦理问题引发了用户的强烈不满,同时也深刻揭示了网络平台通过算法操控用户的强大能力。在国内,今日头条由于低俗内容过多而被社会诟病,且遭到政府部门的约谈乃至警告,在随后的整改中它调整了算法,结果低俗内容和虚假新闻的信息推荐量和阅读量减少了40%,也反向印证了算法推荐中信息被操控的可能。倘若信息可被强力操控(无论是机构还是个人),那么追求事实的真相便变得愈发困难。

事实上,算法也有可能施加超出用户意愿的影响力,比如捕捉用户的偏好和特征来塑造他们的目标,并在一定程度上推动其行为,从而削弱其自决能力。质言之,以算法为代表的AI系统有可能破坏我们对环境和社会的控制,最终影响我们的选择、预测、身份和生活,人类赖以生存的自决能力由此受到严重侵蚀,而这一切经常发生在不透明的技术运行深处,我们称之为“算法黑箱”。不少研究者因此呼吁算法透明,让用户明白算法的运行规则及其所产生的后果,但目前至少有两个因素制约着算法推荐的透明度,即缺乏商业激励和保护用户隐私之考虑。有鉴于此,欧盟2016年出台《数据保护通例》(GDPR),给予用户申请某项基于算法得出结论的解释权(right to explanation),但论者指出,该法案尚未从根本上解决算法的问责和透明度问题。

四、沉浸式传播及其问题

“新闻不再是用来读的,而是用来体验的。”随着人工智能的发展,侧重新闻体验的沉浸式传播应然而生,它指的是以大数据和智能网络为技术支撑的信息浸透模式,集中体现为虚拟现实(VR)、增强现实(AR)、混合现实(MR)、全息影像、全景视频、网络直播等技术带给受众的沉浸体验,使受众完全融入新闻发生的情境之中。在国外,《纽约时报》《卫报》、BBC、ABC、美联社、NHK电视台等媒体机构都在进行VR新闻方面的尝试;在国内,《人民日报》、新华社、财新网、网易也开始对沉浸式新闻进行积极探索。在事先预设的场景中,给用户留出一定的参与空间,让用户去填补。用户在深度参与过程中,加入自身情感元素,获得身心上的刺激感或愉悦感,沉浸式传播因而被认为是对原有传播关系的全新构建。

然而,且不论沉浸式技术的市场运用前景,沉浸式传播于学界和业界而言还存在相当多亟待解决的伦理问题。首先,虚拟现实新闻有可能对新闻的客观性和真实性构成严峻挑战。VR新闻不同于传统的新闻视频,由于制作者无法完全控制用户观看画面时的思路,而是需要通过清晰的逻辑引导用户了解新闻故事,否则蒙太奇般的视觉效果会极大削弱新闻的叙事性。但无论是VR技术,还是360度镜头呈现,新闻故事的主线都有可能发生偏离,如何在视觉上的引导和客观真实之间求得平衡,是沉浸式新闻需要认真面对的问题。若制作者对故事情节进行预设和呈现,那么受众所体验的新闻天然带有制作者的偏见。而且,由于VR新闻的在场感、沉浸感容易让用户形成诸如“看到的即是真实的”的错觉,也容易放大偏见的影响。如何尽可能还原新闻事件特定的时空场景,使受众的自主探索不影响新闻主体事实的呈现,是沉浸式新闻亟需解决的伦理问题。

此外,如果VR新闻中受众的数字化身过于逼真,引起受众高程度的代入感和参与感,在部分特殊题材的新闻场景中容易带来“恐怖谷”效应。有研究表明,YouTube中沉浸式新闻的体验者置身新闻场景时,时空的落差感、对将发生之事的不确定感、强烈的自我代入感,会使其处于高度紧张甚至恐慌的精神状态中。目前,VR游戏、VR直播等中的暴力、血腥等高度刺激性场景已引起监管者的注意,但VR新闻中的类似场景还未引起足够的重视。实际上,部分题材的沉浸式新闻不适合特定人群进行体验,如老人、儿童、心血管疾病患者等。已有研究发现,部分灾难性事件的沉浸式体验或许可能为少数受众带来创伤后应激障碍(PTSD)或者导致悲剧廉价化、消费悲情主义情绪的风险。譬如,南加大媒介互动实验室推出的“叙利亚项目”(Project Syria)中,参与这一VR新闻体验的试验者就表示,体验过于激烈,让人有经受心灵创伤的感觉。

沉浸式传播最令人不安的一面是其虚拟世界和物理世界的一体化趋势。1995年尼葛洛庞蒂在其名著《数字化生存》中就预言,“虚拟现实能使人造事物像真实事物一样逼真,甚至比真实事物还要逼真”。今年上映的好莱坞大片《头号玩家》,就精准诠释了虚拟和现实一体化的场景。在虚拟的网游世界,各个玩家以化身(avatar)面目出现,但其虚拟世界的所作所为确实影响到其物理世界的生存方式,而现实世界的肉身也常依据虚拟世界的逻辑行事。随着沉浸技术和设备的迭代更新,尼葛洛庞帝和《头号玩家》所描述的场景在沉浸式传播中正逐渐变成现实。以沉浸式新闻的体验为例,受众沉浸程度越深,就越发混淆虚拟和现实的界限。网络直播更是如此。仅Facebook Live用户已经创作了67.5万直播视频,观看人数超过85亿次。这种泛众生产方式,使得网络直播成为全新的新闻报道形式。无时不在、无处不在的网络直播,也将成为沉浸式传播的常态。在直播中网民、内容、平台之间高度互动,虚拟与现实互为交融,不仅改变了受众消费新闻的方式,也对人类既有的生存方式提出了巨大挑战。

五、假新闻及其遏制

新闻业的历史有多长,假新闻的历史就有多长。时至今日,假新闻泛滥貌似到达了一个新的高度,这跟社交媒体和人工智能的发展密切相关。以2016年美国总统大选为例,许多假新闻都是在Facebook上进行生产和扩散的。尤其是社交媒体中的机器人(模仿人类的自动账户),通过点赞,分享和搜索信息,将假新闻的传播力进行数量级扩大。据报道,Twitter活跃账户中有9%到15%是机器人,其中亲特朗普的机器人流量至少是亲希拉里的4倍。而据Facebook估计,多达6000万台机器人可能侵袭其平台,这些机器人主导了2016年美国竞选期间发布的大部分政治内容。制作假新闻一般出于两个动机,一是金钱方面的,假新闻为内容制作者提供了可转换为广告收入的点击;二是意识形态方面的,通过制作、传播假新闻来抹黑或推销其所支持的人、原则或信仰。但假新闻到底有多普遍?如何进行渗透?对个人和社会有何影响?是否加深社会既有的不信任感,导致社会共识更难以达成?对于这些问题,目前尚无定论,需要我们通过高质量的实证研究来加以回答。

接下来,我们需要重点探讨什么样的干预措施才可有效阻止假新闻的传播或削弱假新闻的影响。具体来说,可从两个维度着手:一是针对个体的干预;二是针对网络平台的干预。针对个体的干预,就是采用多种手段帮助个体免受假新闻的影响。一种较为常见的做法是建立辟谣机制。要思考的问题是:辟什么谣,谁来辟谣,如何辟谣?一般认为,对于涉及重大公共利益的议题,必须辟谣;对于不特别重要的传言,则可借助网络的自我净化机制来予以消除。辟谣主体必须有较高的公信力,否则效果会适得其反。如何辟谣也很重要,需要有事实根据,同时注意坚决排除信息来源和谣言当事人的利益交换。假新闻难以根绝的另一个原因是符合人们选择性接受信息的心理机制。选择性接受理论告诉我们,人们更愿意相信与其观点一致的信息(即便是虚假的)。在这种情况下,我们需要进一步研究如何抵消这种效果,以确定进行辟谣干预的有效条件。除了建立辟谣机制,另一种更具长远意义的举措是提供媒介素养方面的教育,以提升个体辨别信息真伪的能力。事实上,美国的学校和图书馆已在为学生提供媒介素养培训,欧盟也发动相关社会团体为市民提供类似培训,但这种努力是否能改善有关信息可信度的评估,达到预计的阻止效果,还需深入研究才可确定。

针对网络平台的干预既包括政府对平台的监管,也包括平台的自我监管。一般来说,政府对平台内容直接进行干预或审查常常会引发争议,一种替代性方法便是侵权诉讼。比如那些因假新闻流传而名誉受损的人可针对涉事平台提起诉讼,这会迫使平台自身加强审查(Lazer et al.2018)。平台的自我监管日益受到重视且充满希望。比如,Facebook、Twitter等网络平台可通过技术手段限制由算法推荐所造成的假新闻的传播,比如向访问者提供消息源质量的标识,这些标识可被纳入内容算法排名中。网络平台也可通过用户举报、人工审核等方式进行拦截,这也是目前微信常用的管制手段。如同政府执行的内容审查,由网络平台自行发动的内容审查同样存在争议。且不论是否受到商业利益影响,网络平台为了避免政治性麻烦,对内容的审查往往更加严格,一些正常的批评性报道或观点表达也有可能被当作假新闻屏蔽掉,用户举报和随之而来的“404”页面随时可见便是明证。问题在于,如何识别真实新闻和虚假新闻至今仍是一个复杂的问题,因此网络平台有必要通过通俗易懂的方式向受众展示其检测假新闻的标准。我们认为,虽然假新闻和意识形态分化问题可能会被信息技术加剧,但也可以通过技术来加以缓解,或者选择更明智的方法,即公共机构和私营机构合作推出更有效的政策,来最大程度降低假新闻和类似问题的负面影响。

六、个人数据及其保护

个人数据已成为算法社会的核心资源,被誉为驱动人工智能时代的“新石油”。从机器化写作到算法推荐到沉浸式传播,乃至假新闻的有效扩散,无不涉及对个人数据的大规模收集和使用。问题在于,现有的规制体系对个人数据的保护相当不力,大规模数据泄露事件时有发生。最近的例子是2018年8月顺丰快递和华住集团旗下的连锁酒店发生的客户数据泄露,前者涉及数据总数达3亿条,后者达5亿条,难免让人感到恐慌。毫无疑问,媒体智能化实践不能以侵犯个人数据为代价,如何在促进智能化媒体发展的同时,加强对个人数据的法律保护,已成为学界和业界关注的焦点。

首先,需要厘清何谓“个人数据”。在许多国家和地区的立法中,“个人数据”和“个人信息”被视为同一概念。如欧盟《数据保护通例》第4条将个人数据界定为“任何已识别或可识别的自然人相关的信息”;德国《联邦数据保护法》第3节规定,个人数据指“任何关于一个已识别的或者可识别的个人(数据主体)的私人或者具体状态的信息”;我国《网络安全法》第76条则将个人信息界定为“以电子或者其他方式记录的能够单独或者与其他信息结合识别自然人个人身份的各种信息”。可以看出,“个人数据”可以和“个人信息”交叉使用,其核心特征是个人数据的“可识别性”,不仅包括线上的,也包括线下的个人数据。

其次,个人数据权益范畴在人工智能时代受到挑战。个人数据保护长久以来被认为是一个关于人格权保护的问题,但如何从人格权保护中引申出个人数据保护?个人数据保护与其他具体人格权(比如隐私权)保护之间如何协调?个人数据作为一种社会资源具有财产属性,可以产生巨大的社会价值并用于交换。那么,个人数据财产化之现象如何得到合理解释、个人数据财产化所引发的法律问题如何解决?在大数据时代,个人数据经常会被公共机构或私营主体进行二次开发利用,使数据主体的部分权能受到损害。在此背景下,如何更为合理地界定数据主体的支配权能和诉讼权能,使得其人格权及财产权得到全面保障,同时增强私权力对公权力的限制?

其三,个人数据处理的依据和行为准则也面临挑战。很久以来,征得权利人同意是合法收集和处理个人信息最重要的依据,但时至今日,很多数据在收集的时候并无意用作其他用途,而最终却产生了很多创新性的用途。所以,公司无法告知个人尚未想到的用途,而个人亦无法同意这种尚是未知的用途。结果,权利人同意这个黄金法则,要么太狭隘,限制了大数据潜在价值的挖掘,要么就太空泛而无法真正保护个人隐私。此外,在个人数据处理过程中,数据处理者还需遵守一些基本的行为准则,主要包括保证数据质量与安全、个人数据处理有限进行、保证数据主体的参与。但进入大数据时代,由于数据大规模的收集和二次开发使用,这三项行为准则均在一定程度上受到挑战。

最后,需要考虑在个人数据保护和互联网产业创新之间取得平衡。数据挖掘和数据分析技术,为个人信息的二次开发和利用提供了机会和条件,信息的潜在价值得到释放,包括媒体智能化发展在内的互联网产业创新也存在无限的可能。问题在于,大数据加大了用户数据安全风险,由此也激化了互联网业务创新和个人数据保护之间的矛盾。网络服务提供者希望获取大量用户个人信息,而用户则避免公开个人信息;业务创新需要信息共享,而用户则希望降低信息流转风险。但如果对个人信息进行过度保护,则会抑制网络创新,降低互联网为用户带来的整体福利。那么,该如何对个人信息保护进行立法,以实现媒体智能化发展和个人信息保护的平衡?这些问题都有待我们深入研究。

七、结语

总而言之,人工智能在带来新的新闻革命的同时,也给既有的伦理和法律法规带来全新挑战。伦理是个哲学问题,其难点在于如何将既有的伦理准则转化成人工智能可以识别的语言。于媒体智能化实践而言,我们迫切需要构建一套新的可以被广泛接受的伦理框架,来指导人工智能系统进行推理和决策。新闻法律法规也同样面临重构问题。特别是基于深度学习的算法新闻,于使用者和监管者而言都是不透明的,且充满着不确定性。我们需要探索数据保护、算法透明化、平台监管、机器人立法等领域的新路径,确保新闻传播活动在人工智能时代依然在法律范畴内进行。再者,不少研究者强调,在研发人工智能系统时,要通过技术设计保障该系统的公平性、透明性和可责性,通过技术手段来克服算法黑箱所带来的弊端。遵循同样的技术逻辑,我们需要考虑将重要的新闻伦理和法律准则嵌套到人工智能系统中,我们称之为社会规范的技术执行。只有借助传播学、法学、伦理学和计算机科学等多学科知识和方法,将法律规制、伦理规范和技术手段如此综合应用起来,我们才有可能保障人工智能能为新闻业所善用,在符合伦理规范和法律准则的轨道上自动前行。

(本文系上海市教委重大项目“人工智能时代的新闻伦理与法规”的研究成果。)

注释:

① Marr,B(July 18,2017).AnotherExampleofHowArtificialIntelligenceWillTransformNewsandJournalism.Forbes.URL:https://www.forbes.com/sites/bernardmarr/2017/07/18/how-a-uk-press-agency-will-use-artificial-intelligence-to-write-thousands-of-news-stories-every-week/#2d14a6b074db.

② 彭兰:《智媒化未来媒体浪潮—新媒体发展趋势报告(2016)》,《国际新闻界》,2016年第11期。

③ Carlson M (2015).TheRoboticReporter:AutomatedJournalismandtheRedefinitionofLabor,CompositionalForms,andJournalisticAuthority.Digital Journalism 3(3),pp.416-431.

④ Latar NL (2015).TheRobotJournalistintheAgeofSocialPhysics:TheEndofHumanJournalism?In Einav G (ed.)TheNewWorldofTransitionedMedia.Heidelberg:Springer,pp.65-80.

⑤ Graefe A.(January 7,2016).GuidetoAutomatedJournalism.TheTowCenterforDigitalJournalism.URL:https://www.cjr.org/tow_center_reports/guide_to_automated_journalism.php.

⑥ Clerwall C.(2014).EntertheRobotJournalist.Journalism Practice 8(5),pp.519-531.http://dx.doi.org/10.1080/17512786.2014.883116.

⑦ 梁志文:《论人工智能创造物的法律保护》,《法律科学(西北政法大学学报)》,2017年第5期。

⑧ 皮尤调查中心:《2017美国社交媒体平台使用报告》,https://www.sohu.com/a/191538275_770332,2017年9月6日。

猜你喜欢
假新闻算法用户
4 smart ways to spot fake news 判断假新闻的4种聪明方法
众声喧哗,怎样识别假新闻?
Travellng thg World Full—time for Rree
进位加法的两种算法
假新闻泛滥,如何趋近真相?
关注用户
关注用户
一种改进的整周模糊度去相关算法
关注用户
一种基于L-M算法的RANSAC图像拼接算法