【内容提要】近年来,作为在平台上允许自主发布内容的人工智能体,社交机器人从传播中介一跃成为传播主体,在重塑媒介生态的同时也存在行为失范等一系列问题。欧盟《人工智能法案》从明确定义到规定权利和义务,再到实施严格的制裁手段,站在利益攸关方协商的立法角度弥补了现阶段社交机器人的平台漏洞和监管缺失,为媒介系统下的社交机器人的行为规范提供了现行标准和纠偏机制,也为媒体平台的具体应对提供了相应的法律依据。
【关键词】《人工智能法案》 社交机器人 行为规范 媒介生态 智能监管
一、 媒介生态中的新型“行动者”:社交机器人与自动化决策权
进入21世纪以来,互联网的“平台化”随着政治和经济领域对数字网络生态系统的全方位渗透而成为全球发展趋势,从根本上影响了文化产业的运营。[1]平台化由此成为新闻生产必不可少的环节,以数据整合实现信息传播价值的最大化。在新闻生产越发依赖海量的信息数据时,社交机器人应运而生,一些自动化账号活跃在新闻平台,其典型的活动模式为机械重复地收集和传播信息。随着算法挖掘技术的深化和机器学习能力的增强,这些自动化账号几乎能够在不需要人工干预的情况下执行决策。[2]大量自动化账号跳脱出新闻平台,对多个互联网平台的建设起到了重要作用。2014年,机器人完成了维基百科所有语言版本15%的编辑工作;[3]2017年,活跃的推特用户中有9%-15%都是机器人;2021年42.3%的互联网流量总和由机器人生成;[4]近期,ChatGPT等相关文本生成模型步入全球开发应用阶段。由此,良性的社交机器人被广泛运用于互联网信息传播中,在内容聚合、新闻推送、自动回复等领域重塑了业务生态,为新闻媒体的快速报道以及公共领域的自由讨论提供了原则上的益处。一项基于9个互联网平台文本分析的研究表明,多数国家和地区采取了零散的、不成体系的平台内部自治体系来规范人与“非人”主体共在的媒介生态。在所有承认社交机器人存在的平台里,社交机器人被赋予了进行自动化决策的权利。[5]
然而,平台的不断扩张导致社交机器人的泛在化现象严重,其招致的负面评价也大量涌现,诸如非法滥用和舆论操作。平台上的社交机器人能自动转发包含特定散列标签的帖子,通过信息流影响话题和看法,进行无限制的通信和联网活动,[6]也因此成为滋生非法内容和虚假信息的温床,被用来部署和引导用户访问不良信息。有大量的自动化账号在新冠疫情期间利用话题标签来传播“病毒来自中国”“病毒由5G传播”的谣言,给政治阴谋论可乘之机。另外,自动化账号强大的“类人类”属性,极易对人类用户的身份进行伪装,扭曲某些话题的“受欢迎程度”,带来讨论的虚假繁荣,并制造普遍存在的“公众”。除了“语义偏见继承”和“虚假信息传播”,恶性机器人还会带来“情感欺骗”和“隐私侵犯”问题。[7]研究显示,脸书上创建的机器人,能够随意渗透用户信息,且具有收集包括电子邮件地址、电话号码和个人资料在内的多项有价值的私人数据的功能。[8]更值得忧虑的是,在线社交网络对社交机器人的大规模渗透非常脆弱,随着渗透的成功,用户数据会被一览无余。[9]
作为“非人行动者”的社交机器人已经对现有的媒介生态产生了重要的影响,但由于它还没有受到统一的法律文件和规则标准的制约,因此并不是具有法律意义的准主体。然而,随着2023年6月14日欧盟委员会正式通过《人工智能法案》(以下简称《法案》),与人工智能相关的战略部署等悬而未决的问题落到了实处,它意在确保投入市场的人工智能系统是安全的。由于社交机器人可以看作是人工智能系统里的重要环节和构成要素,因此该条例对社交机器人的管理具有适用性,修正了其行为管理的真空地带。《法案》作为世界上第一部AI立法,虽然并不是直接针对社交机器人大规模数据获取与处理带来的问题的解答,但却在一定程度上回应了人机共在的媒介生态所面临的风险和挑战,对于理解和规范媒体平台中的社交机器人提供了可能的全球标准。因此,本研究通过梳理《法案》的立法背景、演变历程和主要内容,尝试厘清社交机器人的法律地位,以此来分析信息传播和媒介生态中负面影响的解决措施。另外,本研究还关照了该《法案》体现出的开拓性思想和理念制度方面的创新,对加快我国平台智能监管治理体系发展的影响。
二、 《法案》的立法背景及演变历程
(一)多主体的信息传播和媒介生态治理动因
随着人工智能技术的应用,越来越多的行动者加入信息传播,智能式非人主体跳跃式的发展在给人类社会带来广阔前景的同时,也对个人安全和保障造成风险,增加了搅乱媒介生态的可能性。因此,在刺激-反应的治理逻辑和调节模式下,理应存在相关措施和手段对危害媒介平台的行为及时止损。然而,各国政府却普遍存在欠缺权力、程序框架和资源以确保人工智能的发展和使用符合法律规定的能力。
除了负面效应倒逼治理实践的落地,更为直接的治理动因在于处于信息传播中的社交机器人作为算法程序需要被纳入技术监管。从技术革命的角度来讲,我们正处于新的技术革命时期,在这之前,技术只是作为人的工具形式出现,是传播的媒介形式。[10]如今,技术逐渐成为不容忽视的参与主体,与人进行深度的交互,人机未来的和谐相处呼唤一套逻辑自洽的治理体系。从技术伦理学的视角分析,自动化账号所代表的算法无法遮蔽技术带来的社会偏见和公共价值问题,相关科技公司的透明度报告并没完全体现风险防范的伦理规约体系,[11]人工智能的多元嵌入已然引发了诸多伦理争议,[12]若是放任其无序发展,必然会影响社会平稳运行,带来一系列道德问题。从推动技术平台良性竞争的背景来看,社交机器人是人工智能运用于平台实践的重要标志,也是全球技术发展的热点问题。鉴于当下人工智能技术的发展、利用以及流转程度的加深,特别是在日益复杂的全球科技格局和国际关系背景下,有必要对社交机器人运用下的媒介生态相关动态予以进一步关注。
(二)《法案》的历史演变
《法案》的正式通过无疑为社交机器人等人工智能的使用划定了法律边界。事实上,欧盟对人工智能对媒介生态破坏的担忧近年来就已见端倪,欧盟为此阶段式地制定了法规条款,其主要发展历程经历如下两个阶段。
一是出台推荐性与框架性的治理原则阶段。考虑到人工智能在新闻行业、信息传播、人机互动等领域的发展尚且处于早期阶段,过早通过法律法规介入实施硬性规制可能导致对创新的阻碍,因此相关治理主体并未急于出台强制性措施,而是注重对潜在问题和未来走向的说明。2018年的《通用数据保护条例》指出数据主体所享有的知情同意权、遗忘权、可携带权等,规定了数据控制者和处理者的责任和义务,并设立了数据保护官,增大了处罚力度。人工智能在设计和运行层面获取大量数据的行为,都受到该条例的有效约束。[13]2019年出台的《可信赖人工智能准则实施情况报告》中明确提出加速立法、由“软法”到规制、引领全球人工智能立法规制的愿景。2020年欧盟出台的《人工智能白皮书——通往卓越和信任的欧洲路径》指明要建立卓越生态系统与建立信任系统两大目标。
二是为人工智能引入明确监管和法律框架阶段。这一阶段标志着法律从宽泛界定到细化指引。最有代表的就是从2021年4月由欧盟委员会开始提出、2022年12月欧盟理事会同意共同立场,再到2023年6月正式推出实施的《法案》。它的范围涵盖所有人工智能类型的范畴,并且规范了人工智能系统的开发者,明确了其专业身份和实体身份。它将人工智能的发展现状与未来可能发展的预期相结合,对相关法律制度进行纲领与措施并存的制定。
三、 《法案》对社交机器人在媒介生态中的行为规范和纠偏
(一)明晰信息传播中的行为主体:社交机器人的定义与归属
显然,智能传播时代的行动者不再拘泥于实体人,而是各种类型的人工智能系统。但长期以来,媒介平台中关于非人主体的定义存在模糊性和暧昧性,甚至直接导向社交机器人的负面性,相关讨论似乎经常性的变化术语,常用聊天机器人、垃圾邮件、僵尸网络、半机械人等概念来不精确地指代从自动社交媒体账户跳转到推荐系统和网页抓取器。[14]这种模糊表达并不足以明确社交机器人的价值取向,也让人正确认识社交机器人的双面性。因此对诸如社交机器人等算法程序的进一步界定有助于弄清其意义内涵并识别主体,有助于解决主体权责不清的问题。
《法案》规定,人工智能的定义应尽可能中立,从而涵盖尚未知晓或开发的技术。其总体目标是覆盖包括传统的符号人工智能、机器学习以及混合系统在内的所有人工智能类型。根据《法案》第3条,“人工智能系统是指使用附件1中列出的一种或多种技术和方法开发的软件,它被设计为以不同程度的自主性运行,并且可以为了明确或隐含的目标,产生诸如预测、建议或决策等影响物理或虚拟环境的输出”。《法案》附件1的“人工智能技术和方法清单”为人工智能定义提供了法律确定性的参考,但这一范围可能需要随着时间的推移进行调整。以上条款表明社交机器人是基于一定自主性设计而成的、具有非人属性的智能程序,但作为人工智能类别的一种,其内涵和外延尚未统一,依据情景变化而有所不同。
《法案》将人工智能系统的“提供者”和“部署者”视为第一大监管主体,包括开发人工智能系统并将其以自身名义/商标投入市场或投入使用的个人、法人、公共当局、机构或其他主体;将“用户”视为第二大主体,是指在其授权下使用人工智能系统的任何自然人或法人、公共当局、机构或其他团体。人工智能有限的“人格”,意味着它不能完全承担与行为性质相适应的损害赔偿责任。因此人工智能的归属依旧是具有广泛行动能力的人类主体,责任方多为操纵自动化账号的用户和开发者。而法律也因具有广泛的管辖(包括域外适用)范围,涵盖了属人、属地和实质判断多个管辖标准。
(二)明确主体的功能效用和价值责任:社交机器人的权利与义务
虽然有一部分人倾向于自动化账号还没有自主意识和意向性,但网络社会却越来越依赖其功能,对于自动化账号这类社交机器人的责任人权利和义务概念的厘清有利于显示其独特的法律地位,判断行为的合法边界,更好地建设良性媒介平台。
《法案》遵循风险的分级管理方法,将人工智能的应用分为四个风险级别:不可接受的风险、高风险、有限风险和低风险或无风险,并且依据风险级别来规定相关义务。与人类互动的社交机器人即被划为有限风险和低风险系统,虽然相关条例并没有明确指出社交机器人是否与人类主体享受相似的一般性权利,如言论自由等,但在一定程度上承认了它的功能性权利,它具有与人类用户交流以及自主处理信息进行决策的自由。《法案》表示只需保证这类社交机器人系统在透明度规则基础上运营即可,无需取得特殊的牌照、认证或履行繁杂的报告、监督、记录留存等步骤。
义务指向的是平台体系中守规范者应尽的具体责任,具有强制规范性。《法案》中规定的义务最为主要的是透明度义务。一是算法系统的可自我披露,要求身份可识别,并进行公开验证且带有明显的标识;二是交流的透明度,要通知用户他们正在与人工智能系统互动(除非显而易见);三是保证自身的无害且有用,即采取适当的技术措施(如人类监督、定期检测网络安全措施等),确保人工智能系统被合规安全地使用;四是对深度造假行为进行标记(为了行使基本权利或自由或出于公共利益的原因除外)。
(三)降低传播的负面累积效应:对社交机器人的制裁手段
已有研究表明恶性机器人的行为动向必然会搅乱媒介平台的生态,另有研究表明致力于造福环境的良性机器人也会产生互动层面的冲突。在维基百科上,恶性机器人通过僵尸网络保持“作恶”的协调一致,但致力于平台编辑的良性机器人由于语言版本的不同也可能会出现信息分歧,[15]带来平台的语义混乱。可见,社交机器人的正反属性都容易引起意见操纵和制造分歧相关的负面性评价,更别说恶性社交机器人带来的一系列算法黑箱和算法霸权的问题。当负面影响发生后,如何从制度和法律上及时止损,并防范下阶段的损害是困扰网络社会良久的问题。因此,梳理社交机器人的相关制裁手段有利于从源头上隔绝信息非法传播,减缓负面累积效应。
为了直接消除自动化账号的不良影响,根据违规的严重程度,《法案》强调建立健全成员国合作纠错机制,按照严格的监管措施来规避已有或可能存在的风险。“各成员国的市场监督机构将实际负责对高风险人工智能系统合规情况的监督,并有权要求系统提供者针对不合规的人工智能系统采取纠正措施,甚至禁止、限制、撤销或召回不符合《法案》要求的人工智能系统,成员国的监督机构也有一定的自由裁量权,包括对虽然符合《法案》要求但对人的健康或安全或基本权利或其他公共利益保护构成风险的人工智能系统采取必要相应的监管措施。”[16]
《法案》还通过罚款来施以处罚,违反有害的人工智能禁止性规定和数据治理义务的,可处以最高3000万欧元或全球年营业额的6%的罚款(以较高者为准);向成员国主管机构提供不正确、不完整或具有误导性的信息,将被处以最高1000万欧元或营业额2%的罚款。欧盟机构、机关违反有关禁止性人工智能和数据治理义务规定的,可以处以最高50万欧元的行政罚款;违反其他规定的,可以处最高25万欧元的罚款。
四、 《法案》规制下媒介平台的挑战与应对
虽然跨境、跨国、跨地域的《人工智能法案》体现了欧盟内部对社交机器人泛滥的媒介生态的关注,展现出了规范人工智能、保护传播安全的积极态度,但欧盟内部各国对人工智能的相关理解和操作尚未达成共识,《法案》的生效还需要很长一段时间。另外,人工智能在媒介平台的快速发展和迭代更新,为《法案》预期目标的实现带来了不小的挑战。《法案》在审议过程中的争论以及《法案》推进到后期对通用型人工智能和基础模型的紧急“打补丁式”的修补均印证了这一点。针对复杂的政策环境和媒介平台的实践需求,国内外的互联网平台仍需采取与《法案》相适应的技术合规来调整行为。为此,根据《法案》的设想和引导,本文对媒介平台如何管理诸如社交机器人一样的人工智能系统提出如下建议。
(一)公开安全评估的标准
建立平台内部社交机器人公开安全评估的标准与《法案》内部要求不同类别的人工智能履行透明性义务的条款相对。一方面,设置统一的标准并将安全评估的过程公开化能够确定人工智能是否遵守强制性风险管理系统、严格的数据治理规定、技术文件和日志保存的规定以及上市后监测和事故报告的规定,能有效规避平台风险,保障用户安全。另一方面,公开的标准能够设置评估的底线,限制平台解释权过大的随意性,同时防止过度审查,以此来保护人工智能的“自主权”。
《法案》明确指出诸如聊天机器人之类的人工智能技术属于非高风险类别,因为现阶段它对个人的健康、安全及基本权利造成损害的可能性较小,所以只需要满足最低限度的透明性要求,对具有舆论属性或者社会动员能力的算法推荐服务提供者开展安全评估时,告知用户他正在与人工智能进行互动来减少潜在风险即可。当遇到高风险的社交机器人,如垃圾邮件、水军等,平台应当注意个人数据的安全使用和处理,谨防数据泄露、盗取,对危害用户个人信息安全等事件进行核查,不应违背媒介内部的信息传播规律,也不宜产生披露文本之外的行为。
(二)平台共享下的核查和辟谣机制
作为目前盛行的信息传播方式,社交机器人对大量数据信息的分析和处理可能产生意想不到的结果,导致虚假信息泛滥、自动生成错误、公众舆论极化,这些是无法从对人工智能系统的规制中杜绝的现象。在《法案》实施后,后续事实核查和舆论引导的合法性将成为媒介平台的一大挑战。保障信息传播内容的真实性是媒介平台风清气正的重要体现,因此,平台亟需依照法律共建必要的事实核查和辟谣机制。
目前,国内外已有相关的事实核查和辟谣机制,特别是新冠疫情期间新华社的“求证”平台和美方的“Politi Fact”平台,几乎囊括了所有因恶意使用社交机器人而制造的谣言,并对散布、捏造谣言的用户进行公开。除了对虚假信息的治理,平台还应加强对自动筛选和决策带来的违规内容的过滤和处置。通过引入第三方核查、规范事实核查流程、打造专业的事实核查平台等多种方式,[17]平台要建立起用户与事实核查机构的联系,从内部对相关行为进行“把关”,承担好核查的具体工作。
(三)建立健全申诉服务
由于人工智能方兴未艾,所以有关其规制的经验还尚需积累,为更好地进行我国平台智能程序的整体统筹和规划,应当对一些错误判断的主体行为进行更正,因此需要建立申诉部门,用以补充强硬且严格的制裁,保证社交机器人自动处理信息的功能性权利不受到侵犯。
国内外已有平台开始重视“强监管”下的疏导,强调及时对账号违规等误判进行弥补。X平台(原推特)作为社交媒体巨头,在其《平台操纵和垃圾信息政策》的文本里说明,“如果你认为自己的账号被错误地锁定或冻结,则可以提交申诉”,并提供了相应的申诉链接。国内平台的申诉流程相较于国外平台要显得更为繁琐,一些知识聚合类的平台表明如果对规范文本有异议,需要通过发邮件的方式进行申诉,这就可能造成申诉的不及时和时间长。在技术发展的极速性与不确定性中,平台应当设定应对制裁错误的预案,有关保护部门也需要关注技术更新与危机处理方式的经验积累,建立健全平台申诉服务,制定有效的防范措施。
五、 反思与讨论
在媒介生态日益复杂的智能时代,人工智能的介入和平台化的运营模式势必对数字时代的信息生成和传播产生深远的影响。人工智能正被具象化为“代理人”,它具有显著的“电子人格”。而人工智能的“所有者”,可能是用户,也可能是操作者,其与人工智能是法律代理关系中的责任人和行为者的关系。《法案》的颁布和实施彰显了以社交机器人为代表的人工智能正在被社会所关注,逐渐彰显了“人工智能”作为“代理人”的法律地位。
《法案》试图在促进人工智能的发展、传播价值观和个人基本权利保障之间寻找平衡,它授予了人工智能较为清晰的定义和分类,也确保了人工智能发展和使用的价值及基本权利。人工智能能够通过这些可反应的、即时的信息实践活动,满足社会需求,利用信息收集和整理回应社会关切。同时,在保障媒介平台丰富性的情况下,《法案》给予责任方较大的义务,并对义务主体设定了高额的罚款,既整治了平台乱象,又为相关智能系统的治理制定了框架。
然而,对于我国媒介生态而言,平台社交机器人还处于被人认识和理解的阶段,应当如何应对由此带来的技术、伦理和法规的挑战还需要在实践中不断探索。《法案》看似达成了统一标准,但它忽视了基于国别、地区甚至类别的平台的差异。社交机器人很有可能成为在复杂环境中,收集、使用并掌控个人信息的权利集大成者,而现有的条款无法对它进行规制。面对未来可能不断更新迭代的媒介生态所带来的影响,长期出没于平台的社交机器人的全球治理成为亟待商榷的核心话题。对我国的平台保护和算法治理来说,安全规范与行为自由的互动是相互冲击,趋于平衡的动态发展过程,需要在以后的规范中不断细化和完善。
参考文献:
[1]David B Nieborg&Thomas Poell,The platformization of cultural production:Theorizing the contingent cultural commodity[J].New Media&Society,2018,20(11)
[2]Tsvetkova M, García-Gavilanes R, Floridi L, Yasseri T (2017) Even good bots fight: The case of Wikipedia. PLoS ONE 12(2): e0171774.
[3]Thomas Steiner. 2014. Bots vs. Wikipedians, Anons vs. Logged-Ins (Redux): A Global Study of Edit Activity on Wikipedia and Wikidata. In Proceedings of The International Symposium on Open Collaboration (OpenSym '14). Association for Computing Machinery, New York, NY, USA, 1-7.
[4]Varol O, Ferrara E, Davis C, et al. Online human-bot interactions: Detection, estimation, and characterization[C]. Proceedings of the International AAAI Conference on Web and Social Media, 2017: 54.
[5]Makhortykh, M., Urman, A., Münch, F. V., Heldt, A., Dreyer, S., & Kettemann, M. C. (2022). Not all who are bots are evil: A cross-platform analysis of automated agent governance. New Media & Society, 24(4), 964-981.
[6]Pedrazzi, S., & Oehmer, F. (2020). Communication Rights for Social Bots?: Options for the Governance of Automated Computer-Generated Online Identities. Journal of Information Policy, 10, 549-581.
[7]高山冰,汪婧. 智能传播时代社交机器人的兴起、挑战与反思[J]. 现代传播(中国传媒大学学报),2020,42(11):8-11+18.
[8]Boshmaf Y, Muslukhov I, Beznosov K, et al. Design andanalysis of a social botnet[J].Computer Networks, 2013,57(02): 573.
[9]Boshmaf, Y., Muslukhov, I., Beznosov, K., & Ripeanu, M. (2011). The socialbot network: When bots socialize for fame and money. Proceedings of the 27th Annual Computer Security Applications Conference, 93-102.
[10]蔡润芳.人机社交传播与自动传播技术的社会建构——基于欧美学界对Socialbots的研究讨论[J].当代传播,2017(06):53-58.
[11]Urman, A., & Makhortykh, M. (2023). How transparent are transparency reports? Comparative analysis of transparency reporting across online platforms. Telecommunications Policy, 102477.
[12]张梦,俞逆思,师文,等.“开放伦理”何以可能?微博场域中的公众智能技术伦理争议研究[J].新闻界,2021(01):51-63+74.
[13]搜狐网.欧洲为使用人工智能立规矩[EB/OL].(2021-11-23).https://www.sohu.com/a/502813715_200224.
[14]Gorwa, R., & Guilbeault, D. (2020). Unpacking the Social Media Bot: A Typology to Guide Research and Policy. Policy & Internet, 12(2), 225-248.
[15]Tsvetkova M, García-Gavilanes R, Floridi L, Yasseri T (2017) Even good bots fight: The case of Wikipedia. PLoS ONE 12(2): e0171774.
[16]GOV UK. UK unveils world leading approach to innovation in first artificial intelligence white paper to turbocharge growth [EB/OL].(2023-03-29). https://www.gov.uk/government/news/uk-unveils-world-leading-approach-to-innovation-in-first-artificial-intelligence-white-paper-to-turbocharge-growth.
[17]申金霞.后真相时代社交媒体平台的事实核查分析[J].新闻与写作,2019,417(03):55-62.
作者简介:杨雨欣,重庆大学新闻学院硕士研究生
编辑:王洪越