左亦鲁
我们正生活在一个算法社会。与我们生活息息相关的各种经济和社会决策,很多都在通过算法作出。由此就有了一种说法:“当人们谈论‘算法时,如果把这个词换成‘上帝,意思也不会有什么不同。”抛去其中戏谑的成分,这种比喻至少抓住了算法的两大特点:无处不在和全知全能。
在一定程度上,算法的确使它的主要拥有者——商业巨头们——获得了一种近乎上帝的权力。那么,应该如何规制和监督算法?围绕这一问题的战斗打响的方式出乎很多人意料。按理说,争论本应围绕如何规制算法和以何种标准规制展开,但半路杀出个“程咬金”——言论自由,改变了战斗的走向和打法。为了抵制规制,商业巨头开始声称算法是一种言论,算法的计算和对结果的呈现是在行使自己的言论自由。以搜索引擎的算法为例,甲公司在搜索结果中想把你排在什么位置或甚至干脆踢出排名,就相当于甲想“说”什么话,这完全是甲的言论自由。任何对甲算法的干预(规制)都变成对甲言论自由的侵犯。
用学者弗兰克·帕斯奎尔的话说,言论自由已成为算法对抗规制的一张“万能牌”。每个试图规制算法的尝试,都必须先通过“算法是不是言论”或“规制算法是否侵犯言论自由”这道门槛。到目前为止,算法的言论自由主张在美国取得了全部法庭交锋的胜利。在法律之外,这张万能牌使算法在政治、舆论和话语权争夺中同样占据制高点。“言论自由”这一前置问题似乎正成为规制算法的一道难以逾越的门槛。因此,如何认识言论自由——这道门槛——就显得尤为重要。算法是言论吗?或者说,算法应受言论自由保护吗?
搜索王诉谷歌案
2003年的搜索王诉谷歌案是一个里程碑,它可被称为算法规制第一案,也是算法与言论自由间的张力第一次引起大规模关注。通过该案,问题被聚焦和提出,未来争论的框架和方向大致确定。搜索王案虽然只发生在美国俄克拉荷马州的一家地区法院,但它背后是两种力量和两大阵营的集结和较量。双方围绕算法规制展开的第一场较量,是以言论自由开始并以言论自由的胜利而告终的。
原告搜索王是一家从事搜索和虚拟主机业务的公司,于1997年在俄克拉荷马州注册。在2002年,搜索王新推出了一种名为“PRAN”的分支业务,其商业模式是帮助客户把广告和链接打到那些在谷歌网页排名中排名靠前的网站上去。
搜索王之所以把谷歌告上法庭,原因有二:第一,谷歌降低了搜索王网站的网页排名。第二,谷歌彻底删除了搜索王子业务PRAN的网页排名。搜索王认为,谷歌是在得知PRAN高度依赖网页排名系统营利后有意为之,而网页排名上的降序和删除给自己的生意带来了“无法估量的损失”。
谷歌毫不避讳自己确实“有意为之”,但提出3点作为抗辩:一、搜索王和PRAN破坏了网页排名的公正性;二、谷歌没有任何义务把搜索王纳入网页排名,或将其排在后者想要的位置;三、最重要的是,网页排名代表了谷歌的言论,应受言论自由保护。
最终的判决结果是,谷歌关于算法是其言论自由的主张得到了支持。与联邦最高法院动辄长篇大论相比,俄克拉荷马地区法院的判决十分简短。特别是在“算法是否属于言论”的问题上,判决简单到近乎论断而非论证。
法院首先认为谷歌的网页排名是一种意见,“这种意见关乎一个特定网站对某一检索指令响应的意义”。这里隐含着一种类比,即把搜索过程类比为人与人之间的问答。在赋予算法言论自由保护的推理中,上述“检索=问答”的类比或想象是最为关键的一步。这样一来,算法的“算”摇身一变为“说”。
法院还把上述认定推而广之,“由于每种搜索引擎确定检索结果意义的方法都不同,其他搜索引擎也都在表达各自不同的意见”。就像每个人都有权表达自己的观点一样,每个搜索引擎都有权根据算法“说”出自己的意见。具体到本案,不管谷歌根据算法怎么调整(甚至删掉)搜索王和PRAN的网页排名,都等同于谷歌想如何发表自己的意见,包括搜索王在内的任何人当然不能干涉。
值得注意的是,搜索王案给算法贴上的不仅仅是“言论”的标签,而是“意见”。这意味着,与“言论”相比,被贴上“意见”标签让算法可以享受更多豁免。搜索王一方一直主张,哪怕算法属于言论,也是虚假和不真实的言论,而不真实的言论同样不应受到保护。但通过把“意见”的身份赋予算法,法院相当于给了算法拥有者一块“免死金牌”。“第一修正案下没有错误的意见。”算法作为一种主观的意见,无所谓对错真假。更进一步,搜索王案法院认为算法是一种具有“公共关切”属性的意见。根據先例,“只要没有被确证含有错误事实信息,涉及公共关切的意见就受到宪法充分保护”。换言之,举证责任被转移到了搜索王一边。只要谷歌的算法没有被“确证含有错误事实信息”,它就是受保护的言论。双方第一回合交锋就这样以算法一方的“完胜”而告终。
2006年,与搜索王诉谷歌案相似的兰登诉谷歌案还通过对美国《1996年传播风化法》(CDA)第230条豁免问题的处理,赋予了算法多一重的保护。长期以来,CDA的230条都被视为美国互联网平台和企业的“护身符”。在规制传统媒体时,法院遵循的是“权利义务对等”原则,即媒体或平台要想享受“发言者”或“出版者”的权利去管理或编辑内容,就必须同时承担义务——对经过自己管理和编辑的内容负责。报纸就是这一原则最典型的体现。
但CDA的230条却在一定程度上豁免了谷歌等平台的义务和责任。230条(c)(2)(A)款规定:“无论是否受到宪法保护,交互式计算机服务的提供者和用户采取行动,限制对淫秽、低俗、猥亵、粗鄙、过度暴力、使人不安或其他令人无法接受的材料的接触时,不应承担责任。”通过对这一条款的解读,兰登案法院认为谷歌等平台进行内容管理(“编辑”)时,无须因编辑行为而承担责任。这使算法拥有了一种超越报纸的地位,即算法有“发言者”的权利却不用承担“发言者”的义务。这种法律上的优待是前所未有的。
算法受言论自由保护吗?
借用欧文·费斯“街角发言者”经典模型,言论自由的主体要件要求站在肥皂箱上的必须是人,而不能是学舌的鹦鹉或一台录音机;客体要件则要求,站在箱子上的人说的必须是“话”,而不能是含混不清或意义不明的声响。对算法是否受言论自由保护的分析,也可以围绕主体和客体两个要件展开。
从言论自由的主体要件看,算法是发言者吗?反对者认为,言论自由应是“人”的权利。而支持者认为,人通过算法进行表达。在围绕“主体要件”的争论上,算法并不占优。因而算法支持者试图跳出算法主体资格和人格化的争论,他们转变策略,强调算法只是人的工具。换言之,算法当然不是人,但算法的背后是人,人需要通过算法和电脑来“说话”。经过这种转化,问题从“算法是否是人”变成了“人通过算法进行的表达是否算言论”。對这一关系中所包含问题的描述是:人创造了算法,而算法生成的结果是不是属于言论?
于是,算法反对者极力淡化“人”的存在,同时突出算法和机器的主动和自主性,而不是所谓隐藏在背后的人——因为背后根本就没有人。换言之,问题只能是“算法是不是人”或“算法是不是言论自由适格的主体”,而绝不是“人能否通过算法说话”。如吴修铭所说:“程序员拥有编程的第一修正案权利,并不等于他所编的程序因此也被赋予这一宪法权利。”在反对者看来,这里就是在讨论“程序有没有言论自由”,而绝非“程序员有没有言论自由”,后一种表述是偷换概念。
但总体而言,在有关言论自由主体资格的讨论中,优势不在算法一边。无论是理论还是常识,都倾向于认为“算法(或机器、电脑)不是人”从而不能享受言论自由保护。算法支持者更是看到了自己在主体资格问题上的劣势,他们聪明地回避掉了主体问题,并把争论逐渐引向了对客体问题——什么是言论——的讨论。
算法是言论吗?
接下来考察客体要件,即算法或算法生成的结果是否属于“言论”。根据“街角发言者”模型,理论上只有同时符合主体和客体两个要件才能受到言论自由的保护,两者缺一不可,是并列关系。但近年来却出现了这样一种趋势:言论自由的保护重点逐渐从保护发言者转向保护言论。在波士顿第一国民银行诉贝洛蒂案中,最高法院宣称:“无论是来自公司、组织、工会还是个人,言论因可以使公众知情而具有的价值并不依附于言论的来源。”在公民联盟诉联邦选举委员会案中,大法官斯卡利亚进一步阐明了上述立场:“第一修正案写的是‘言论,而不是‘发言者。”
换言之,伴随着从“发言者”向“言论”的转化,主体和客体要件的并列关系变成了替代关系。客体要件逐渐成为言论自由关注的中心。如果说围绕主体要件的讨论总体上是不利于算法的,客体要件的情况则正好相反。言论自由理论和实践的发展,是站在算法这边的。
具体到算法是否属于言论,争议集中在两点:一是认为算法的结果本质上更接近对信息的计算、汇聚和排列,而不是传统意义上的说和表达;二是算法、程序和电脑中“非人”因素是否使其丧失言论属性。
在搜索王案中,算法的言论自由主张之所以得到法院支持,核心就在于法院认可了“算法选择≈报纸编辑=报纸说话≈算法说话”这一推理链条。在搜索引擎看来,算法对第三方内容的抓取、排序和呈现就相当于报纸编辑对稿件的选择和判断。谷歌工程师在一些场合中就曾主张,用户使用谷歌和他们看报纸所追求的目的是一样的,就是冲着两者的“编辑判断”而来。人们看《纽约时报》和《华盛顿邮报》是冲着编辑的眼光、立场和品味;人们在使用谷歌进行搜索时,同样是因为谷歌算法的品质。人们视《纽约时报》刊登的内容为《纽约时报》的言论,因为这里面体现了编辑对报道什么内容、如何报道,哪些放在头版,如何设计配图、版式和字体等一系列问题判断,这里面所包含的心血、劳动和主观因素已经足以使这些内容变成《纽约时报》自己的言论。同样,搜索引擎对算法的设计、编写、优化和运营同样进行了大量的、主观的投入,这同样应该让算法成为“言论”。
算法面临的第二个障碍是,程序和电脑所包含的自动、机器和“非人”成分是否会阻却算法言论属性的获得。作为回应,算法支持者这次拿来“比附”的是电子游戏。在2011年的布朗诉娱乐商人协会案中,最高法院宣布:“在将宪法适用于不断变化的技术时,无论遇到何种挑战,‘言论和新闻自由的基本原则都不应随着新的、不同沟通媒介的出现而改变。”这意味着,当新的技术或媒介出现时,不论它是电子游戏还是搜索引擎或算法,保护应是常态,而不受保护才是例外。最高法院认为游戏与文学、戏剧和音乐一样,是传播和交流观点的新的媒介。算法支持者紧紧抓着这点,主张搜索引擎在传播和交流观点上要比电子游戏明显得多。既然电子游戏已经因此获得保护,算法同样应被视为言论。
算法在客体问题上所占据的优势,很大程度上并不是纯粹理论和逻辑的胜利,而是源自现实。换言之,并非言论自由理论倾向于把算法纳入保护,而是因为实践中已经有大量非传统、非典型的表达或行为被视作“言论”,言论自由的历史就是一部扩张的历史,言论的内容、形式和边界已被极大地拓展,这种“滑坡效应”使得算法很难被阻挡。
强人工智能的言论
作为算法言论自由问题的延伸,强人工智能的言论是否应受保护同样值得探讨。强人工智能即通用型人工智能(简称AGI),它是相对于“专用型人工智能”等形式的弱人工智能而言,即可以胜任人类所有工作的人工智能。《终结者》和《机器姬》等科幻作品中智能和体力都不逊于甚至优于人类的“机器人”可以算作强人工智能的一种。引发埃隆·马斯克、霍金和Open AI等组织担忧的、可能取代人类的,也是强人工智能。
强人工智能言论自由争议仍旧围绕着“人”与“非人”展开。与算法相比,强人工智能在“人”与“非人”间可能更具张力。对绝大多数人来说,认为谷歌和百度的算法等同于说话是反直觉和反经验的。但当强人工智能到来那一天,一个无论外形、语言和声音都与人类一模一样的“机器人”与你交谈,尽管其背后仍旧是算法、数据、机器和电脑,直觉和经验可能都会告诉你这是一个“人”在“说话”。那么,强人工智能的言论是否应受到言论自由保护?
今天苹果的Siri、亚马逊的Alexa、百度的度秘、微软小冰和谷歌的Allo都已无限接近强人工智能。这些表达无疑要比算法、政治捐款以及很多象征性行为更像“言论”。那么,依照前文逻辑,强人工智能的言论只要能够被证明对人类是有意义和价值的,就应该受到言论自由保护,这将会带给人类文明怎样的影响呢?
(摘自社会科学文献出版社《超越“街角发言者”:表达权的边缘与中心》)