人工智能在线内容审查对言论自由的影响

2021-12-30 21:51
科学咨询 2021年40期
关键词:言论偏差工具

齐 琦

(天津大学法学院 天津 300072)

一、争议问题

当今网络上充斥着各种暴力、色情、谣传、不道德的话语、甚至是反动言论、恐怖活动宣传等,“人工智能”(AI)通常被认为是识别和过滤这些不当内容的工具。伴随着“爆炸”增长的大数据,分析和处理这些数据的工具也逐渐增多。深度学习等人工智能技术正显示出巨大的潜力。[1]

在网络舆情监管背景下,人工智能内容审查技术已经成为一套不断变化的自动检测和分析内容的技术。各种形式的人工智能被应用于排名和推荐系统中,通过计算迅速做出预测和决策,从而改变商业模式,提升产品服务。人们在享受人工智能内容审查便利的同时,这些技术的使用也逐渐衍生出了一系列的重大问题,那就是人工智能在线内容审查应用时所面临的挑战,以及这些挑战最终对言论自由权利会产生一些不利影响。

二、域外法律规定与实践

(一)言论自由是一项基本人权,也是衡量一个现代民主社会进步性的重要标准

公民可以按照个人意愿表达意见和想法的法定政治权利,言论自由有时也被称作表达自由,其形式包括口头和书面,广义上还包括出版、新闻、著作、绘画等。公民可以通过文字、图片、视频、音频或多媒体等媒介,在现实社会和网络虚拟世界发表、接收信息,而不被政府和其他个人干涉。言论自由不是毫无边际的,在不同国家会受到不同程度的限制,例如发表违反法律法规规定的信息:如侮辱、诽谤等侵犯他人的言论,色情、暴力信息、煽动仇恨、煽动国家分裂,宣扬恐怖组织等会受到严厉的限制和打击,而在社会道德层面,对言论自由提出了更高的“隐形”要求。

(二)国际人权法框架

《世界人权宣言》第19条和《公民权利和政治权利国际公约》以及区域人权条约都保障言论自由权。虽然言论自由权是一项基本权利,但它并不是绝对的保障。根据国际标准,特别是《公民权利和政治权利国际公约》第19条第3款:对言论自由权的限制必须严格地加以调整,不得危及言论自由权本身。确定一项限制是否经过严格调整的方法通常被表述为一项由三部分组成的测试,限制必须:由法律规定、追求合法目标、符合必要性和相称性。

目前没有任何国际标准明确涉及人工智能内容审查和言论自由权。但是有一套国际标准与人工智能的使用有关:国家不应规定平台负有监测其传输、存储、自动化或以其他方式使用信息的一般义务,用户应有机会质疑内容的屏蔽和过滤行为。

(三)国家层面

现有的法律法规对人工智能在线内容审查没有直接的规定,但各个国家不同的网络内容监管和审查的标准为其提供了重要的指引,但这些法律可能不足以解决人工智能在线内容审查影响言论自由的各种方式,人工智能在线内容审查依然受传统法律框架的监管。

德国在2018年初公布一项规范社交媒体的法令,主要针对注册用户在200万以上的网络平台,这些社交媒体公司必须设立有关程序,检查自己网站上被提出投诉的内容,并在24小时之内删除明显违法的内容。违法的个人可能面临高达500万欧元的罚款,公司如果未能符合监管标准将可能面临高达5 000万欧元罚款[2]。欧盟也公布了《公众信息保护规则》(GDPR),制定了有关法规,所有社交媒体公司在储存和使用公众信息方面必须遵守。澳大利亚在2019年4月5号通过了《散播邪恶暴力内容法》,违规的社交媒体公司将面临制裁,公司技术主管将可能因此被判长达3年的监禁,和高达相当于该公司全球范围内营业额10%的罚款[3]。我国《网络信息内容生态治理规定》,2020年3月1日起正式施行[4],对社交网络平台的“敏感词”审查力度加大。

三、人工智能在线审查工具面临的挑战

(一)人工智能在线内容审查的方式

1.审查在线内容主要有以下几种路径

(1) 事前审查

当上传的内容被审核时在正式发布之前,就已经有人工智能内容审查工具的“摧毁”,典型的内容如过于明显的色情信息。如果已知发布内容的用户是曾经是规则破坏者,或者内容非常明显地违反基本审核规则,那么用户可能被暗中禁言,发布的内容也可能会被自动隐藏。

(2) 事后审查

内容正式发布后被审查的形式,多数时候需要人工智能审查和人类审查员共同工作违规内容会受到标记、降级、删除等。

2.审查不当信息

主要包括以下几个方面:网络骚扰或欺凌,包括例如网络攻击、霸凌、仇恨言论和色情暴力信息,这类内容常常以图片、视频的形式发布,所以处理难度不大,但经常会“误伤”,并且,不同平台的标准不一,有的平台允许色情信息传播;煽动国家分裂、宣传恐怖活动等信息,这类信息一经发现,会受到政府的严厉打击。

(二)人工智能在线审查工具面临的挑战

除了在线内容审查的普遍挑战之外,人工智能特有的一些挑战是人类审查员不会面临的,通常可以归因于人工智能系统的性能标准高于人类审查员(对人工智能系统的错误比人类错误要求得更严格)。人工智能审查技术为在线内容审查带来了一些更特别的挑战。主要存在以下几点:

1.缺乏专业的执行机制和法律机制

目前有关人工智能的讨论仍局限于技术层面、伦理层面和责任等概念。这些框架如果顺利执行,必须依赖法治的进步,目前在人工智能在线审查领域进行的大量工作缺乏专业的执行机制和法律机制。同时也缺少相应的问责机制。

2.缺少透明度和可解释性

许多公司开发人工智能系统的方式和过程缺乏透明度。研发产业保守商业秘密的规则,以及算法系统固有的复杂性共同导致了不透明性。在人工智能内容审查产品中,几种人工智能学习技术可能同时存在,从随机森林和马尔可夫模型,到支持向量机和神经网络。而神经网络(尤其是深度学习神经网络)是难以解释的。虽然神经网络被设计用来复制人脑学习,但这些网络是太过复杂,有时连人工智能开发人员都无法理解算法如何或为何输出那些“行为”。

由于深度学习模型的复杂性,很难做到真正透明、可解释的模型。但合并人工智能系统的可解释方法一直是人们关注的焦点。研究神经显著性技术可能增加提供图像和视频调节工具的可解释性图像、视频分析中的重要或显著的标志。这些可以在算法对重要图像的分类过程中,识别区域和特性。MIT对网络内容分析进行了进一步的研究,旨在深度学习模型及其决策行为进行解释。例如对于给定的图像分类,可以生成跟踪路径,突出显示网络中神经元最强烈激活的路径,从而澄清分类过程。这些技术对于在人工智能审查系统建立信任显得越来越重要。然而,可解释的人工智能技术目前还处于初级阶段,还不能广泛应用。

3.用户对人工智能工具的要求更严格

在简单的任务上,人工智能系统可以分析和处理的数据量远远大于人类。然而,尽管在更高的准确性和效率上比人类表现得更好,但用户对失败的人工智能系统的能力提出质疑。比如,在接连的几次车祸事件后,公众对自动驾驶汽车及其性能的看法发生了变化,媒体和政府也很快就开始质疑并讨论自动驾驶汽车能否取代人类驾驶,事实上,与自动驾驶汽车相比,人类驾驶汽车每年每公里所造成的严重撞击次数更多。这种对人工智能及其能力的高度期望带来了更大的复杂性,因为人类对人工智能故障的容忍度比对人类故障的容忍度更低。当人工智能审查工具出现了难以避免的错误时,公众的失望和愤怒心理会对人工智能审查工具的进一步发展不利。

(三)人工智能在线审查的技术挑战将对言论自由产生负面影响

许多人工智能所面临的技术挑战将对用户的言论自由产生种种负面影响,主要有以下几个方面

1.世界各地的文化和法律差异

Facebook、YouTube、微博等在线平台在全世界范围内拥有数千万用户。每个平台都制定了自己的标准或指导方针,引领着在线审查内容的方向。平台应用人工智能在线审查工具时,要为每个国家制定有效的政策,这就需要谨慎对待文化信仰、政治观点、历史背景和法律法规。

文化差异导致用户对适当内容的理解出现了明显的偏差,同样的言论在一个国家是恰当的,而在另一个国家变得不当,如果因此删除了此项内容,这种“一刀切”的做法会引发用户的“寒蝉效应”。在法律层面,每个国家或地区都拥有自己的内容审查机制,有些国家的审查体制并不精密,不标明红线,容易被任意解释,从而在社会中创造出自我审查和过度审查的文化。

2.难以准确定位语境

一个已经发布的内容是否违反了法律,通常取决于机器学习工具在分析中没有使用语境。机器学习工具的分析中可以包含一些上下文,例如说话人的身份、消息的发送者和接收者之间的关系,其他背景,如历史、政治和文化背景,这些对于一个人工智能工具来说,无疑增加了学习训练的难度。如果把人工智能在线审查应用于发现仇恨歧视性言论中,首先,要找到合适的数据来训练人工智能算法。其次,应该开发能够识别仇恨言论或攻击性内容的程序。此外,还需要阻止那些不断想出办法攻破系统的违法违规发布者或传播者[5]。

仅仅在技术层面上做到这些还远远不够。众所周知,语言是一门复杂的艺术,对一个词语或句子的适当性判断标准是非常主观的,一句话里所流露出的情感和深层含义,有时连人类都难以分辨,戏谑、反讽等言论和真正的不当言论的区分,是人工智能在线内容审查需要跨越的门槛,目前,人工智能审查技术对语境和语用习惯的分析还不够敏锐,这会让很多不当内容从它的眼皮下“溜走”。

3.误报和漏报

使用算法系统检测特定类型的语言和行为时,总是会出现所谓的误报(错误地将某些内容归类为不当)和漏报(漏报了一些本应归类为不当的内容)情况。从言论自由的角度来看,如果这些工具被用于标记、降级或删除内容,或者将相关内容创作者也作为对象以供进一步地审查,则误报可能给个人的言论自由权带来重大负担,导致无法将仇恨言论、骚扰和其他不当的内容与正确、合理、合法的内容相区别,这样就不利于用户自由表达观点。另一方面,对内容的遗漏会导致对仇恨言论、极端主义以及其他不当言论处理失败,会对被动接收的网络用户造成伤害。[5]

4.潜在歧视和算法偏差

在开发过程中,人工智能算法可以导致有意和无意的偏差。算法偏差可能是由标记监督学习数据集(特别是手动执行时)以及不具有代表性和偏差的数据集的过程引起的。此外,训练过程中的反向传播和参数选择都会导致或增强偏差。受许多复杂人工智能算法不透明性的影响,解释偏差来源很困难。在内容审查过程中,人类审查员可能会引入明显的偏差,导致调节过程不一致,每一位审查员对适当言论的判断的都有自己的看法,对他们所受的指导方针也有自己的解释个人对有害内容的敏感度会有所不同。

算法系统有可能在与代表性不足的群体(包括种族和少数族裔、政治倾向等)相关的数据上表现不佳。这是由于缺乏数据和依赖训练数据库:如果数据受到现实社会的偏见和不平等思想的影响,那么在这些数据上训练的模型可能会反映或放大这些不平等。这会给社会和个人的言论自由带来严重的风险。因此,必须采取有效的预防措施,确保识别和减轻无意识偏差的影响,在训练人工智能工具时使用无偏差、有代表性的数据库,减少潜在的偏差来源。

四、结束语

内容控制和审查的应用越来越广泛就越能暴露出人工智能仍处于初级和不完善状态的事实。AI在内容审查上面临着种种技术挑战,这些挑战会直接或间接地影响用户的言论表达意愿。因此,在技术和法律层面,应注重提高现有人工智能在线审查的透明度,增强人工智能审查功能的研发、引入外部监督纠正机制,确保用户能够诉诸于补救机制,从而维护用户的言论自由。

猜你喜欢
言论偏差工具
50种认知性偏差
重要言论
重要言论
波比的工具
波比的工具
如何走出文章立意偏差的误区
他们的言论
准备工具:步骤:
真相
“巧用”工具