观念与规范:人工智能时代媒介伦理困境及其引导*

2019-01-28 14:40胡曙光陈昌凤
中国出版 2019年2期
关键词:人工智能算法信息

□文│胡曙光 陈昌凤

1956年达特茅斯“人工智能夏季研讨会”上首次明确提出了人工智能的概念,经过几十年的发展,人工智能在2016年迎来了收获期,这一年被称为“人工智能元年”,许多应用取得突破性进展,据麦肯锡预计,至2025年全球人工智能应有市场总值将达到1270亿美元。[1]人工智能的发展也得到了各国政府的重视,2016年5月美国白宫成立了“人工智能和机器学习委员会”,2017和2018年人工智能连续两年被写入中国政府工作报告。一方面,人工智能正在一步步地由幻想变为现实,给多个行业和领域带来颠覆性的影响。另一方面,人工智能是一个涉及计算机科学、生物学、数学、语言学、心理学、哲学等诸多领域的综合性的学科,进一步发展会产生很多伦理问题。人工智能时代媒介生态和新闻业发生了哪些变化?带来了哪些媒介伦理问题?如何从观念和规范上进行引领?这是本文要探讨的问题。

一、人工智能引发的媒介生态变化

人工智能已经在多个行业中展露锋芒,在新闻传播业,人工智能的应用已越来越普遍,如算法运用、机器人写作、自然语言的生成和处理、语音文本之间的相互转换、传感器新闻等等,给传媒生态带来了巨大的变化,人工智能正在改写“新闻”的定义。[2]

1.算法的发展带来新闻分发机制的转变

自杰弗里·辛顿(Geoffrey Hinton)2006年提出深度学习(Deep learning)以来,人工智能算法的瓶颈被突破,语音识别、图像识别、语义理解上的算法设计思路被颠覆。算法技术的发展使得在海量信息流中通过算法推荐定点投放信息的模式受到越来越多的追捧,新闻分发的权力由大众媒体转移到了算法平台,由人移交给了人工智能。算法推荐的运作逻辑是这样的:当用户第一次使用某平台时,该平台会对用户进行“画像”,将用户的年龄、职业、兴趣爱好等信息标签化,推送与之相符合的信息,此后用户的阅读行为都会被精准记录下来,包括打开某新闻的停留时间,鼠标的上拉下滑等细节,通过算法的分析不断提高推送信息的精准度。这会带来两个方面的问题:一是信息茧房效应,指的是我们在信息选择的过程中,偏向于选择与我们价值观相符,能愉悦我们的信息,久而久之就会将自己像蚕一样困在茧房之中,只沉迷于自己赞同的信息,桑斯坦认为,信息消费者过滤所读所看所听的力量,正变得越来越强大。[3]算法的成熟和人工智能日益增长的运算能力使得在海量信息中定点推送迎合受众口味的信息成为可能,这种信息选择偏向会加剧信息茧房效应。二是算法操控问题,利·巴里瑟(Eli Pariser)在其著作《过滤泡 :互联网没有告诉你的事》(Filter Bubble: What the Internet is Hiding from You)中提出了一个“过滤泡”(filterbubbles)的概念,直指算法操控问题,在他看来,用户接收到的信息往往会受到检索历史、阅读行为和习惯等影响,这都会受到算法的操控。[4]由于“过滤泡”过滤信息的依据是用户的个人喜好和阅读记录等,那些不符合用户喜好或与用户价值观相左的信息有可能自动被过滤掉,用户在某些特定情境下的信息获取也有可能被当做兴趣爱好记录下来,这会导致用户获取全面信息可能性的丧失或者与真正感兴趣的信息失之交臂的情况的出现。幸运的是,开始有媒体意识到了上述两个问题,如卫报的专栏“刺破你的泡泡”(Burst Your Bubble)和2016年华尔街日报推出的“红推送,蓝推送”(Red Feed, Blue Feed)就旨在给用户推送与其立场观点相左的信息,从而进行技术纠偏。

2.机器人写作给新闻生产提出了挑战

近年来,美国最早将机器人写作引入新闻生产领域并广泛应用于财经、体育、突发灾害新闻的报道,美联社使用自动观点(Automated Insights)公司开发的语言大师(Wordsmith)平台撰写的财经信息和洛杉矶时报使用地震机器人(Quakebot)系统写就的地震报道引起了人们的广泛关注。我国的机器人写作擎始于腾讯的梦幻写手(Dream writer)于2015年9月撰写的题为“8月CPI涨2%创12月新高”的一篇新闻稿件,此后,相继出现了新华社的“快笔小新”,第一财经的“DT稿王”,“今日头条”的“张小明”等写作机器人。虽然就目前来讲,机器人写作存在着缺乏深度、缺乏特色且仅局限于某些个别领域等缺点,但其24小时待命的工作状态和超强的时效性仍给新闻业界带来了不小的冲击。不仅如此,机器人写作背后的机器工具理性和人的价值理性之间的冲突也值得我们关注——机器人写作是不掺杂人类感情的,新闻稿件的生成完全依赖于数据和算法,这更多地表现为一种工具理性,即对信息的真实、准确、完整的追求。然而,人是有情感需求的,在很多时候会把尊严、爱、理想、信念等价值追求放在第一位,这是人的价值理性。这种价值理性通常有不同程度的模糊性,很难转化为精确的系统和算法设计,因此,也就很难被机器人写作所理解。

3.人工智能对数据的需求拓展了新闻业务的范围

人工智能发展的三大基础——超强的运算能力、海量的数据以及精准的算法中除了超强的运算能力与计算机的硬件发展水平关系更为密切外,其余两个都离不开数据。人们持续的互联网使用行为和购买行为等积累了海量的数据,这些数据成为人工智能自主学习的基础。同时,精准算法的获得也需要在大数据的基础上进行反复实验,比如前述在算法领域取得突破性进展的深度学习(Deep learning)就对数据量提出了更高的要求,数据为人工智能提供着资源和支持。云栖智库在报告中也提到,现阶段制约人工智能领域重大突破的关键,并不是算法不够先进,而是缺乏高质量的数据集。[5]为了跟上人工智能的发展步伐,媒体纷纷组建数据分析团队,开发数据分析工具成了媒体近年来的新兴业务之一。媒体开发的数据分析工具主要分为两类:一类是主要针对本媒体的用户和数据的分析工具,如金融时报开发的Lantern和纽约时报开发的Stela,这类数据分析工具的目的是为了让记者更多地了解用户,从而更有效地进行内容生产;一类是开放给所有内容生产者的分析工具,如脸书(Facebook)的Facebook insight和“今日头条”的“媒体实验室”,这类分析工具在给内容生产者提供创作方向借鉴的同时,试图建立人与信息之间的高效连接。和机器人写作类似,数据分析工具的开发和利用同样存在着片面强调数据的工具理性的隐患,此外,还有着“唯数据论”和“数据独裁”的风险。

二、人工智能进一步发展带来的媒介伦理问题

按照发展层次的不同,人工智能可划分为专用人工智能、通用人工智能、超级人工智能三个阶段。目前,应用于新闻传播领域的人工智能还只停留在专用人工智能层面,雷·库兹韦尔(Ray Kurzweil)预测,随着技术的发展,未来20年内机器可能通过人工智能的自我完善,达到“奇点”,从而根本性地重塑人类未来,[6]我们要对人工智能未来的发展中可能会出现的问题保持警惕。

1.人工智能发展的逐利性对信息自由传播等基本准则的破坏

近年来,国内外互联网巨头纷纷布局人工智能,谷歌接连收购 Schaft、DeepMind、 Nest(分别为机器人公司、人工智能初创公司和智能家具公司)等数家公司,IBM收购了长于深度学习技术的Alchemy API公司,Facebook收购了致力于机器翻译和语音识别的MobileTechnologies公司,百度与宝马签署合作协议共同研发自动驾驶技术,腾讯投资了机器识别公司Diffbot和开发可穿戴智能设备的真时科技公司。在人才引进上,各大公司也毫不含糊,谷歌引入了深度学习的开拓者Geoffrey Hinton,Facebook引入了提出“人工神经网络”理论的Yann LeCun;不仅如此,这些互联网巨头还纷纷打造各自的人工智能开源平台,这些平台允许用户在平台上使用其算法系统,获得开源代码,这种开源核心的目的在于扩大市场和吸引人才,开源会使人工智能的发展加速,但是起主导作用的仍然是大公司和行业巨头,从乌镇智库发布的全球企业人工智能专利影响力(2011-2015)来看,微软、IBM、谷歌等互联网巨头名列前茅,不少传统巨头企业也出现在榜单中。[7]不难看出,人工智能未来的发展与大型商业公司的布局息息相关,然而,商业公司是追逐利益的,普遍遵循着资本逻辑与市场逻辑,不同的公司研发人工智能的着力点都不尽相同,要警惕人工智能发展方受到商业公司天然的逐利倾向的影响。美国政府注意到了这一问题,其在《国家人工智能研究与发展战略计划》提到,人工智能的应用领域和长期研究缺乏短期盈利作为投资动力,因此可能无法得到足够多的重视。对于周期长、风险高的研究项目,短期内政府应是资金的主要来源。[8]此外,成熟的商业公司一般都有着自己独特的价值追求和企业文化,也会在不知不觉中影响人工智能的发展,举例来说,谷歌新闻(Google News)算法中判断新闻排名的核心取向是“新闻价值”和新闻源的质量,但Facebook 的新闻栏目动态信息(News Feed)算法的核心却是 “朋友和家人第一”(Friends and Family First),带有强烈的社交媒体的风格,企业文化对人工智能未来的发展可能带来的影响也同样值得关注。

保障新闻业和新闻工作者的安全(包括数字安全)是保障更广义的数字时代表达自由的必要条件。而且新闻工作者的含义,在世界范围内正在扩展——联合国教科文组织牵头的《联合国就新闻工作者安全和有罪不罚问题的行动计划》正式确认:那些新媒体和社交媒体平台上的内容制作者也应当像传统的专业新闻从业者一样得到保护。联合国教科文组织的报告《保障新闻工作者的数字安全》全面研究了数字时代新闻从业人员所面临的技术、制度、经济、政治、法律以及心理方面的诸多挑战和风险:比如“①数字时代的网络监控、数据存储能力和数字攻击技术变得越来越廉价和普遍;②数字安全工具通常不太容易使用,而商业化的数字安全工具又比较昂贵,开放源的数字安全工具通常缺乏可持续的商业模式;③类似阻断服务攻击(Denial of Service Attack)、地理位置跟踪技术(Location Tracking)等数字攻击方法会对记者、新闻线人以及媒体组织本身造成人身伤害和经济损失;④很多新闻从业人员和他们的新闻线人还不能熟练使用数据匿名和加密技术来保护自己;⑤对新闻从业人员发起数字攻击的来源多样,既可能是政府也可能是非政府行为者。”[9]

2.人工智能带来了新的信息沟

美国传播学者蒂奇纳(P. Tichenor)等在1970年提出了“知识沟”假说,认为社会经济地位高的人能比社会经济地位低的人更快地获取信息,随着技术的发展,二者的知识差距将呈扩大而非缩小趋势(Tichenor,Donohue&Olien,1970),此后该假说不断发展,相继出现“信息沟”“数字鸿沟”等理论。而人工智能是一个涉及面广的复杂学科,人工智能技术的发展需要大量资本、技术、数据的积累,对人工智能的理解涉及多学科的背景知识,未来人工智能沟可能会出现并逐渐扩大。事实上,人工智能沟的产生已经初现端倪。一方面,正如美国总统执行办公室在报告中指出的那样,人工智能是一种“巨星偏向型”(superstar-biased)的技术进步,它所带来的裨益可能只归于社会上很小比例的一群人,人工智能技术的创新提高了那些从事抽象思维、创造性任务以及解决问题人员生产力,导致这些岗位的需求增长;而人工智能驱动的自动化会使得一些技术含量低的工作被人工智能替代,发展造成的不平等在一定程度上有所增加。[10]另一方面,从全球范围来看,目前人工智能的发展集中于美国、中国、欧洲等少数国家和地区,呈现不平衡的状态。据乌镇智库2017年公布的乌镇指数,2010-2016年中美欧新增的人工智能企业数占全球总数的75%,2016年美国的人工智能融资规模占到了全球总额的64.49%。

3.人工智能引发关于人类智能和生命本质问题的拷问

从互联网到移动互联网再到物联网乃至未来的人联网,连接都是个至关重要的问题,人工智能是解决连接技术瓶颈的关键,未来经过人工智能的大发展,我们可以轻松实现虚拟空间和现实空间的无缝连接,甚至可能连接到人的心灵空间,人类与人工智能之间的壁垒正在慢慢消解。但是,当人类通过智能穿戴设备使自身的感官能力大大延伸,通过人工智能的连接达到人与机器的深度结合时,我们将会面临一个问题——我们的意识还完全是自己的吗?我们将面临一个“人之所以为人”的价值挑战。

经典马克思主义理论将生命定义为“生命是蛋白体的存在方式,这个存在方式的基本因素在于它和周围外部自然界的不断新陈代谢,而且这种新陈代谢一停止,生命就随之停止,结果便是蛋白质的分解”。[11]这是从生命的物质实体性出发给出的定义。如果要从生命的功能性和信息特质等出发探讨生命的本质,情况就会复杂的多,人工智能可以自主学习,对外界的刺激有反应,可以自我进化,具备多项生命系统的特征,那么,从某种意义上说,可不可以说人工智能是某种生命体呢?当人工智能代替人工作时,我们期望其能像人类一样遵守道德法律秩序,遵循正式或非正式的社会规范,如果未来将人工智能视为某种生命体的话,是否该赋予其相应的权力呢?我们又将面临关于生命本质问题的挑战,这个问题也直接影响传播伦理。

三、人本价值观与技术规范:对人工智能的引导

人工智能不仅使传媒生态发生巨大的变化,给其他行业也带来了显著影响,只不过因行业的不同呈现形式有所不同,人工智能未来的进一步发展可能带来的影响亦已初现端倪。由于人工智能是颇具颠覆性的技术,其发展方向一旦发生偏移,后果将不堪设想。需要从以下三个方面进行引领。

第一,对数据进行规范,提升数据的开放性。互联网的发展建立起了大数据,用户的互联网使用行为和购买行为等构成了大数据的重要组成部分,而大数据带来了人工智能的大发展,人工智能发展的基础在数据,想要引领人工智能的发展首要任务就是对数据进行规范,提高数据的质量和准确性,目前人工智能发展的数据来源主要是自筹数据、公共数据和产业协同数据,这些数据由于体量过于巨大且来源不一,存在着不少的数据冗余,对其进行有效的规范将会显著提升人工智能未来的发展和表现。数据的开放不单是一个技术问题还是一个价值问题,如果人工智能测试的资源仅仅掌握在少数企业手里,那么大众的福祉将会被削弱,人工智能的发展也将受到限制,因此要确保公众能够享用高质量的人工智能测试数据集,然而要求逐利的商业公司公开数据显然不现实,这就需要政府和公共服务部门进一步开放数据。

第二,制定标准评估人工智能技术,保证人工智能技术的安全性。人工智能在发展的过程中,的确会对某些领域构成威胁,引发一些伦理问题和法律问题,但是人工智能的安全问题才是根本性的,如果不加以重视,可能会威胁到人类文明。机器人索菲亚(Sophia)“毁灭人类”的言论和Facebook实验室的人工智能鲍勃(Bob)和爱丽丝(Alice)用人类所不能理解的代码对话的行为都曾引起了人类对人工智能发展的恐慌。为了使人工智能更加安全地发展,必须定期评估人工智能技术,而要有效地评估就必须制定标准。这个标准应该是由政府、业界、学者(即包括人工智能的技术专家,也要包括相关人文社科领域的学者)所共同制定的,这样才能保证标准的普适性。

第三,强调人本精神,将价值理性整合进人工智能的基础架构。技术的进步并不是孤立的,而是一个不断选择与发展的过程,技术进步的背后起决定作用的还是人,技术进步的背后也必须保留人类的基本价值观。人工智能更多地表现出一种工具理性,而人类行为却常常会依据价值理性,这种价值理性很难转化成精确的算法设计。不仅如此,不同的文化、宗教信仰间对价值判断的标准不尽相同,因此,当人工智能面临不同的价值体系时可能会陷入选择困境。在专用人工智能阶段甚至通用人工智能阶段,人工智能还没有自己的意识和追求,它对价值的判断都是人类所赋予的,只有人类自身强调人本精神,把价值理性整合进人工智能的基础架构,用对正义、善良、公平的价值追求来控制和教育人工智能,人工智能才能向人类所期望的方向发展。

注释:

[1] 数据源自2017年3月麦肯锡公司全球总裁鲍达民在中国发展高层论坛上所做报告

[2] 徐来,黄煜.“新闻是什么”——人工智能时代的新闻模式演变与新闻学教育之思[J].全球传媒学刊,2017(4)

[3] 凯斯·桑斯坦.网络共和国——网络社会中的民主问题[M].上海:上海人民出版社,2003

[4] Eli Pariser, The Filter Bubble: What the Internet Is Hiding from You[M].Penguin, 2011

[5] 云栖报告:人工智能——未来的取胜之道,2016年10月

[6] 雷·库兹韦尔.奇点临近[M].北京:机械工业出版社,2011

[7] 参见乌镇智库推出的《乌镇指数:全球人工智能发展报告(2016)》

[8] The National Artificial Intelligence Research And Development Strategic Plan[EB/OL].https://www.nitrd.gov/PUBS/national_ai_rd_strategic_plan.pdf

[9] 胡献红.世界信息社会峰会视野中的国际传媒发展[J].全球传媒学刊,2017(3)

[10] 参见美国白宫于2016年12月20日发布的《人工智能、自动化与经济报告》

[11] 恩格斯.反杜林论[M].北京:人民出版社,1970

猜你喜欢
人工智能算法信息
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
人工智能与就业
数读人工智能
订阅信息
下一幕,人工智能!
一种改进的整周模糊度去相关算法
一种基于L-M算法的RANSAC图像拼接算法
展会信息