认知、辨识、规训:构建人机共存的社交舆论场

2021-10-11 02:27韦茜陈凤茹
新闻论坛 2021年4期

韦茜 陈凤茹

【内容提要】 智媒时代社交机器人开始活跃于网络空间,成为社交舆论的新场景。面对人机共存的舆论生态环境,用户必须有理性的认知,才能避免社交机器人操控,形成相对良性的社交舆论场。本文从心理认知层面分析了社交机器人存在的合理性,从技术逻辑层面阐释了识别机器人的方法,最后从交互治理层面提出了重建社交媒体良性舆论场的建议。

【关键词】社交机器人  理性认知  算法辨识  多方规训

智媒时代技术驱动对话角色更新迭代,社交机器人与人类用户共存于网络空间已经成为社交舆论的新场景。社交机器人主要指的是社交网络中扮演人的身份,拥有不同人物属性的虚拟AI形象。社交机器人多通过算法被运用于计算宣传。通俗来说,计算宣传是通过算法和机器人的技术手段达到操纵舆论的目的。作为活跃于社交舆论场的“新人种”,社交机器人拥有自动化、操纵性和利益驱动的特性,它的加入使得社交舆论场陷于倒悬之危,在极端情况下甚至会出现两级分化的结果:社会共识撕裂或是出现“被制造”的共识。

机器人军队的出现,使得背后操纵者可以通过无形,但具有杀伤力的意识形态“武器”,去改变世界政治格局。例如,在2016年美国总统大选前夕,一批拉丁裔的Twitter账号重复发布支持特朗普政府的推文,低可信度的信源得到大量重复转发。在大选期间,Twitter平台上6%的政治机器人散布了31%的不实谣言,其中34%来自于低可信度信源。长此以往,多元化的公共舆论被非理性的声音裹挟,①长期浸润在拟态环境下的公众,很容易选择相信可以满足自身爱欲的“事实”,真相反而被漠视。由此可见,社交机器人已经改变了传统的对话形态。机器人操纵舆论已经引发社会各界关注,如何构建良性社交舆论格局成为了亟待解决的问题。

一、理性认知:算法迭代重构人机社交舆论格局

事实上,“入侵”“操纵”等偏向性词汇一直伴随着智能机器的成长,在智能机器幻想出现在人们脑海的时候,人们就已经对智能机器制定了预防性准则。1940年,被誉为“机器人之父”的科幻小说家阿西莫夫提出了机器人三原则:不得伤害人类,或者坐视人类受到伤害;除非违反第一条原则,机器人必须服从人类指令;除非违反前两条指令,否则机器人必须保护自己。②机器人三原则充分说明人类利益永远高于机器人利益,这也从侧面阐明了科学家对于智能机器未来发展的忧思。在智媒时代,社交机器人已经进入社会公共议题领域,正确认知人机关系是构建社交媒体良性舆论格局的前提条件。

(一)存在即合理:正视人机共存的赛博舆论空间

一味抗拒智能机器是与科技发展趋势相悖而行的。2014年,英国科学家宣布“尤金·古特曼”(Eugene Goostman)成功通过了图灵测试(The Turing Test),它标志着第一个“类人类”的智能设备诞生。此后,社交机器人所生产的内容占据了各大媒体平台。2017年,Pew Research Center以120万条带URL链接的推文为数据样本,分析其中66%高度疑似为机器人账号发布。③2018年,艾漫数据以随机抽取的2000个娱乐话题为关键意见领袖(Key Opinion Leader)的微博数据为样本,通过自然语言处理技术、人工智能算法等对社交机器人账号进行识别,KOL的社交机器人占比超过五成以上。④

相对于科幻小说中机器主宰人类的担忧,正视社交机器人的存在是重构社交舆论场的现实需要。

(二)谨防扭曲:人机关系由他异意向性转为复合意向性

AI智能应用在社交媒体平台与人类的关系,会以他异意向性(alterity)出现,形成人→技术(—世界)的关系链。他异关系指社交机器人独立于人类认知之外成为准它者,在他异关系中,AI可以按照自身发展规律运行。荷兰后现象学家费尔贝克(Peter-Paul.Verbeek)提出,人机关系出现复合意向性的猜想,即人类存在意向性,人类所使用的技术也存在意向性,并且是所使用的技术占主导地位,形成人→(技术→世界)的关系链。⑤复合意向性的人机关系意味着智能机器人主宰人类的担忧可能会成为现实。

值得警惕的是,高度人格化的社交机器人隐蔽于社交媒体之下,通过与真人用户的转发互动取得用户信任,用户很难在短时间内分辨真人与社交机器人的差别,伪装成意见领袖的社交机器人利用舆论场上信息流的不对称,制造“社会流瀑”效应,谣言就有了存在的空间,舆论危机渐次显现。错综复杂的社交舆论环境致使人机关系出现他异意向性扭曲为复合意向性的可能。在正视社交机器人存在的同时,谨防人机复合关系扭曲,成为了不容小觑的社会性议题。

二、科学辨识:基于算法检测的机器人识别

即便人类用户已经意识到机器人存在于社交舆论场,且知大多是以操纵舆论为目的而发布推文,社交机器人仍然会作为一种隐秘而强势的角色影响话语流。在社交媒体中人类用户和社交机器人交织甚密,人类用户难以对机器人账号进行分辨。社交机器人凭借高效的传播速度,在对低可信度信源的信息扩散中更具优势。2016年,美国洛杉矶南加州大学Ferrara教授对机器人检测提出了三种识别方案,⑥依靠算法实现对社交机器人的后台检测,给重构社交舆论场提供了技术可能。

(一)基于图论(Graph-based)的机器人识别

基于图论的机器人识别方案,是将社交机器人与正常用户的社交网络拓扑结构进行比较,根据不同连接结构从而识别机器账号。社交机器人通常通过发布特定话题标签来吸引用户流量,而其他机器人通过转评互动进行信息扩散。由于社交机器人之间大多彼此并不认识,互动较少,所以机器人账号的社交网络结构通常呈现中心化扩散模式。而人类用户大多在真实世界相识,在用户发布内容后好友相互评论,其社交网络结构分布更加均匀,明显区别于机器人的社交网络结构。但缺陷是,基于图论的识别方案的假设前提是,人类用户只和人类用户对话交流,并形成社交网络关系。如果人类用户和社交机器人之间的互动交织密切,便难以进行区隔。因此图论算法对识别社交空间中的機器人收效甚微。

(二)基于众包(Crowdsouring-based)的机器人识别

众包策略本质上使用的是人本计算,指公司或机构将内部业务以自由自愿的方式外包给非特定人员的生产模式。机构将检测任务分发至多个标注人员,以投票决策的方式判断社交机器人的存在。⑦将众包策略应用社交机器人账号识别检测中,保证了机器人账号检测的准确率。与此同时,基于众包的机器人识别算法也暴露了自身缺陷。一是出现作弊标注者,由于网络空间的隐蔽匿名性和众包组织机构的开放性,标注人员的资质无法得到有效审查,检测结果的准确性存疑。⑧二是用户隐私泄漏,将用户数据暴露给外部检测人员可能会带来隐私泄漏的隐患。三是检测费用高昂。众多的标注人员是检测结果准确性的来源,减少人力成本会直接导致精确度下降。

(三)基于特征(Feature-based)的机器人识别

目前流行的识别方案是基于特征算法的检测,它是依赖社交机器人与人类用户在使用社交媒体上行为模式等各方面的特征差异,来区分机器人用户的存在。基于特征算法的BotOrNot采用随机森林模型对数据进行分类,根据用户、时间、情感、网络、交友和内容六个特征对账号属性进行分析,以此判断该账号是否为机器人账号。同样基于特征算法分析的还有Botometer,它通过收集大量用户数据作为样本,根据用户元数据、好友数据、时间特征和情感分析四个特征维度对机器人账号进行识别。基于特征算法的机器人辨识,目前在社交媒体平台已经成为主流检测方案。美中不足的是,社交机器人对人类语言习惯模仿性愈来愈强,甚至可以通过与人类的情感交流隐蔽自身的机器属性,并以此来躲避特征算法的检测。因此,基于特征的机器人识别方案,也可以被看作是机器开发者与检测者之间的“军备竞赛”。

基于算法逻辑的机器识别系统,通常作用于社交机器人影响话语流之后,通过异常账号行为抓取可疑账号。但这并不能完美解决社交机器人操纵社交舆论生态的问题,构建良性社交舆论体系需要全球多行为体的共同协作规训。

三、多方规训:全球政治地缘性多行为体的共同协作

技术迭代赋予公民拥有自由发声的权利,同时也带来了“伪民主”。一些别有用心者通过操控“机器人军队”煽动不实言论,来达到分裂社会扰乱国家稳定的目的。实现社交舆论场的良性运作,需要全球多行为体共同协作。社交机器人的出现,意味着各行为主体扮演的角色将发生转化。

(一)国际组织:从规则制定者转向利益协调者

作为社交媒体中的新生武器,计算宣传通常以左右政治选举、干预国家内政、攻击他国外交等方式影响全球发展。目前,为应对恶意机器人所带来的危机舆论环境,以联合国为代表的国际组织已经付诸行动。2019年6月18日,联合国发起了“消除仇恨言论战略和行动计划”。联合国秘书长古特雷斯表示,在国际舆论社会里,由于政治利益、种族抗争、阶级斗争等各种因素交织影响,强势的政治行动者总是占据公共话语体系的绝对优势地位,而弱势一方则丧失自由意志。国际组织需要协调各国利益,首先需要在区域国家形成普遍的治理共识,实现从边缘到中心的突破,最终争取国际范围在舆论空间对计算宣传的治理规则认同。⑨

(二)政府部门:从行政立法者转向舆论引导者

政府作为国家治理的强势者,不仅可以通过制定法律倒逼平台与恶意操纵者规范行为,而且可以借助社交媒体力量对用户进行舆论引导,提升用户的识别监测意识。恶意机器人引发的舆论危机引起了各国的重视,各国政府纷纷在国家层面提出对计算宣传的治理方案。2016年美国提出了《反外国宣传造谣法案》,该法案旨在帮助美国反制外国势力的政治谣言,以防操纵舆论,并将此项工作纳入了国家战略。2018年白俄罗斯在国民议会上投票通过了《媒体修正案》,该法案指出在网络空间散布谣言者将会面临起诉,同时社交媒体平台也会由于监察不力遭到封锁。

(三)社交平台:从事后治理者转向事前预防者

社交媒体平台是人机共存的舆论空间治理中,最有力的行动治理者。算法检测后台识别机器账号,是平台重点工作目标及内容。为了防止机器人的入侵,目前国外很多网站都采取了Google reCaptcha来识别机器账号,reCaptcha虽然可以有效识别机器人用户,但都是在账号出现异常情况之后才能进行判断识别。在某种程度上,reCaptcha一直处于事后防备的治理模式。随着平台的完善发展,对机器账号的识别也应该从事后治理转为事前预防,平台可以在注册账号伊始要求用户完善个人身份信息并进行实名认证。这一举措不仅能够提升机器账号的识别精准度,也规范了用户在社交媒体舆论空间内相对自由地发表言论。

(四)用户:从被动操纵者转向隐形把关者

社交媒体空间的恶意机器人,主要通过散布虚假信息、煽动极端情绪来操纵用户,“制造共识”达成宣传目的。在社交媒体空间活跃的人类用户,是社交机器人操纵者的宣传对象。因此培养用户的算法素养,成为重塑良性舆论环境的根本之策。算法素养(Algorithmic Literacy)是指用户可以在生活中意识到算法存在,以及算法在何时何地被呈现,并对算法所带来的偏差性认知有所防范。用户首先需要正确认知社交机器人在社交媒体中的存在,了解社交机器人背后的运作逻辑以及行为特征。在社会公共舆情事件的信息处理中,算法素养可以帮助用户精准判断机器账号,用户还可以通过社交平台举报虚假新闻和机器账号,从而成为智媒社交中的隐形把关人。

四、结语

以社交媒体为平台依托,依靠大数据信息流和社交机器人为技术手段的计算宣传,已经成为操控国际舆论场的新型武器。虽然还没有证据显示国内舆论场存在社交机器人操纵舆论的事件,但计算宣传无疑影响了中国对外的政治话语传播。对国内的计算宣传,也应当早日防患于未然。国外应对计算宣传中的成功实例值得借鉴,在智能化进程中正确认知和规范社交机器人的恶意行为,最小限度降低舆论操纵风险,重塑相对真实的社交媒体舆论环境。

注释:

①⑨罗昕.计算宣传:人工智能时代的公共舆论新形态[J].人民论坛·学术前沿,2020(15):25-37.

②杜鸣皓.“社交机器人”入侵[J].中国品牌,2017(02):36-41.

③师文,陈昌凤.分布与互动模式:社交机器人操纵Twitter上的中国议题研究[J].国际新闻界,2020(05):61-80.

④卢扬,穆慕.艾漫公布部分KOL数据 水军占比超五成.北京商报网.https://news.tom.com/201809/1894098808.html.

⑤牟怡.从诠释到他异:AI媒体技术带来的社交与认知变革[J].上海师范大学学报(哲学社会科学版),2020,49(01):92-101.

⑥Emilio Ferrara,Onur Varol,Clayton Davis,Filippo Menczer,Alessandro Flammini. The rise of social bots[J]. Communications of the ACM,2016,59(7):96-104.

⑦刘蓉,陈波,于泠,刘亚尚,陈思远.恶意社交机器人检测技术研究[J].通信学报,2017,38(S2):197-210.

⑧陈霞,闵华清,宋恒杰.众包平台作弊用户自动识别[J].计算机工程,2016,42(08):139-145+152.

作者简介:韦茜,安徽师范大学新闻与传播学院新闻传播学硕士研究生;陈凤茹,安徽师范大学新闻与传播学院新闻传播学硕士研究生

編辑:王洪越