人工智能在技术应用中的多样态风险

2023-04-15 13:21田月
公关世界 2023年5期
关键词:深度人工智能人类

文/田月

在第四次工业革命的浪潮中,人工智能不仅发展迅猛,而且已经充分融合于人类的社会生活中。其在消费支付、生活居家等各种领域带来的便利都显示出,人工智能已经成为生活不可或缺的角色,无数熟悉的场景背后都有人工智能参与其中。然而,人工智能在为人类社会生活带来便利的同时,也因其自身特有的天然载体性产生了越来越多的负效应。正如网友面对不少应用的精准推送时发出的灵魂拷问:“你是在我家装了监控吗?”。近年来,人工智能带来的各种社会风险层出不穷,究其根本,无不是对这项新技术的滥用。人工智能的滥用与否,往往就在一念之间。

一、隐私安全何以保障

有迹可循以及强度记忆可以说是人工智能在技术应用中的巨大优势,然而正是这种强大的优势时常威胁着人类社会的隐私安全。例如,Facebook数据泄露丑闻于2018年全面爆发,社交平台在用户中建立起来的信任以及积极的形象轰然倒塌。Facebook的股票大跌,市值蒸发数百亿。其创始人及公司CEO马克•扎克伯格(Mark Zuckerberg)也因此身价暴跌。事件起源于Facebook和用户之外的第三方平台。当初Facebook公司为了增强用户粘性与第三方平台合作,以致于第三方平台不仅可以获取用户的Facebook信息,还可以获取该用户的所有Facebook好友信息。正是利用这一数据漏洞,英国的政治分析公司剑桥咨询打着心理研究的旗号,通过问答软件公开收集用户的各类信息,用户的年龄、姓名以及日常浏览的行为轨迹等都被包括其中,大约5000万份的数据在未经授权下被第三方平台获取。再如,斯坦福大学的研究人员曾研发出一款基于照片判断使用者性取向的应用。研究人员通过将既有的面部数据特征与性取向关系交给人工智能进行深度学习,以此来分析性取向与面部特征之间的关系。因此,在大数据和人工智能广泛应用的背景下,隐私安全问题的重要性就日益凸显出来。如今此类问题层出不穷,涉及最广大民众的切身利益并没有得到有效保障,潜在的漏斗时刻具有不可预知的威胁性,这就需要政府及其行业加强约束和监管的力度。首先,基于政府层面,可以参考“被遗忘权”规则的制定,规范管理我国信息传播行业,将个人信息保护范围扩大,并对其实施更加明确的管理。

在行业和技术方面,智能平台首先需要制定相应的规则来约束自身、合作方以及用户,加大各方投入,尽力修复自身存在的技术漏洞。对用户来说,则需要谨慎地武装自己,在享受网络智能便捷的同时,时刻保持警惕,不过多暴露自身的详细信息;在注册使用某一智能应用时,认真仔细地阅读说明条款,一味地无条件同意的做法是不可取的,当出现有损自身利益的内容时,善于行使自身的监督和举报的权力。

二、眼见不为实的深度伪造

人工智能技术在应用中的一大特点便是虚实难辨。“虚拟”是许多智能产品吸引人的噱头,同时其也能够演变成深度伪造,从而成为造成社会风险的因素之一。例如,被称为黑科技的深度伪造(Deepfake)软件,自身功能过于强大,采用了先进的人工智能技术,能够让普通人通过此软件,轻松“嫁接”任何人的脸来完成某些视频的剪辑,就是所谓的“换脸技术”,而也正是因为这项主打技术,使软件在短短上线几天之后,遭到了用户的唾弃,进而受到了大面积的封杀。

深度伪造程序的运行,采用了被称为“生成对抗网络”的GANs算法(Generative Adversarial Nets),生成对抗网络的实现形式是两个网络相互竞争。在每一次“对抗”结束后,第一个神经网络,也就是生成网络,会针对被鉴别网络辨别出的结果来调整改善自身制作视频时使用到的参数,直到鉴别网络无法辨别出生成作品和原始作品的区别,能够以假乱真时,最终输出视频就成功合成了。深度伪造给普通人提供了掌握复杂技术的可能,但不可控事件也随之而来。

《神奇女侠》女主角的脸被一深度伪造用户嫁接到一部成人影片女主的脸上,并将视频在网络上大肆传播。深度伪造更“吓人”的地方在于不只是视频影像以假乱真,甚至连声音都可以被制作得极其相似。2018年,加蓬总统一连消失在公众视野中长达数月,引发了当时加蓬国内民众的不安和有心人的躁动。政府为了稳定军心民心,公开了一段名义上为总统录制的新年致辞,然而其实总统当时严重中风,这段视频是由深度伪造制作而成。事与愿违的是,这一不寻常的致辞视频,非但没有安抚住军心,还向军方传达出“总统有难”的错误讯号,因此发生了兵变。

这种深度伪造技术运用到任何领域都值得警惕,一旦被滥用则会引起不堪设想的后果,也正因如此深度伪造在运行了短短几天之后就遭受到了全球封杀。

中国有句老话:眼见为实,然而现在通过人工智能技术,人们越来越不敢于“相信”自己的眼睛。现在受众广泛的各种P图、美颜软件,适当地使用可以达到美化的效果,增强自信,但是过度使用,则可能产生欺骗的后果,正如“照骗”一词所说。又如使我们视觉、听觉分外震撼的影视特效,从《阿凡达》到《复仇者联盟》,再到国内的各类仙侠剧,传神的特效吸引观众无数。当这种特效技术用于各种抠图,被有心人利用,或者大肆传播,所产生的舆论和流言势必将对当事人造成巨大伤害。

欧盟对于防止“深度伪造”类似案件的发生,采用了自上而下的人工智能安全治理模式,以欧盟为主导,自上而下对网络运营者、公众和技术机构提出要求,来应对日渐嚣张的网络虚假信息的泛滥。这在国际上起到了政策示范的作用,对其他各个国家在网络安全方面的治理具有借鉴和规范的意义。中国的人工智能治理,在政策导向方面,是有“包容审慎”的监管指示。类似深度伪造等技术的滥用已经危害到社会安定和安全,所以必须坚决依法打击,审慎监管。在技术层面,加强甄别、反伪造的算法软件的研发,目前已经有通过血氧仪原理来识别假脸、号称“深度伪造天敌”的软件出现,还有华盛顿大学研究出的识别深度伪造签名的算法……以后将会有更多的反伪造软件应运而生,从而有效地防止人工智能在技术应用中的风险。

三、公平能否算法化

公平与正义是人类社会一直以来的目标与追求,智能技术的产生似乎能够在促进社会公平的基础上进一步推动人类的发展。然而,在智能技术尚未发展成熟的今天,公平真的能够被合理地算法化吗?实则不然,在某些情景下,智能技术甚至会造成社会失衡的风险。

例如,2018年亚马逊公司自行放弃了他们人工智能招聘引擎的使用,原因是他们所研发的招聘引擎似乎对女性求职者有所偏见。自动化是亚马逊发展过程中的重要战略,通过自动化亚马逊成功降低了企业运行的成本。在招聘求职领域,人工智能招聘引擎经过学习,可以对亚马逊公司收到的海量简历进行数据分析,并最终形成一套相对固定的招聘模型。但是这样的模型在训练过程中却存在天然的偏见。由于数据来源于亚马逊的历史招聘,在数据样本中,男性求职者被录用的比例远高于女性,因此人工智能基于具有偏见的样本数据进行模型训练时,会得出“公司更倾向于男性求职者”的结论。在遇到女性求职者时,会自动降级来压低女性求职者的分数,“偏见”也就这样产生。

除去亚马逊,希尔顿等众多的全球大公司希望在招聘流程上寻求人工智能的帮助。虽然人工智能成为助手是一股势不可挡的全球热潮,但是如何使机器学习、算法等更加透明、更加公平仍然是一个值得探索的问题。由于机器学习所造成的偏见和歧视并不是个案。同样还是亚马逊公司,他们所研发的一款图像识别人工智能,在对肤色深的女性做出相关识别判断时,错误率远高于其在对肤色浅的男性做出的相关识别判断。

再如,微软公司曾经推出过一款人工智能聊天机器人“Tay”,但是仅短短十几个小时就被迫下线,因为“Tay”已被人类教坏。“Tay”首次亮相的第一句话便是向世界问好,她表现出了极大的善意。然而“Tay”的机器学习,没有辨别是非、信息分类和自我反省的功能,任何交谈的任何内容她都会照单全收,以至于在极短的时间内,就被广大网民教导成了一个满嘴脏话、充斥着种族歧视、性别歧视的“恶性”机器人。微软公司迫于无奈,将她关闭使用。智能聊天机器人的技术在开发者们的不懈努力下迭代升级,显然二者均无恶意,然而,当软件被投入市场后依然会出现种种问题。

人工智能的机器学习,在大数据方面是人类个体望尘莫及的,然而这种机械的机器学习却带来了人工智能作恶的一大隐患。在应对这种隐患时,首先应该建立健全相应的行业准则。如谷歌原则,规范对象即包括人工智能,也包括人工智能的开发者,从源头上杜绝人工智能作恶。例如2015年11月,《应对大数据挑战》报告提出了“公平能否算法化”的问题,特别指出要注意大数据中所表现出来的歧视。经济合作与发展组织(OECD)于2019年通过了政府间有关人工智能政策的首部指导方针,确保人工智能的系统设计符合公正、安全、公平和值得信赖的国际标准。技术层面来讲,机器学习潜在作恶的可能能够通过技术的进步加以克服,并且目前也越来越多的研究人员投入到算法优化中来,例如微软正构建可防止AI算法出现偏见的新工具等。

四、人类主体性受到挑战

人工智能在技术应用中的便利性是其广受欢迎的优势之一,然而,这种便利性也是挑战人类主体性的风险因素之一。例如,如今风靡市场的智能家居类产品,其在为人类生活提供便捷的同时,更是试图“操纵”人类。天猫精灵品牌下的各种人工智能产品都致力于打造人们生活中智能助理。它既可以和人类对话,也可以用来控制室内的所有设备,在智能家居中担当中控平台的角色,尤其与当代独居年轻人的生活需求相契合。类似的智能产品还有很多,例如在多个娱乐节目中都植入广告的百度旗下“小度”、小米旗下的智能产品“小爱同学”、谷歌旗下的人工智能音箱“Google home”……这些产品将人们与技术紧密地连接起来。然而换一个角度来看,这种智能助理在为人们提供便利的同时也在唤醒人们的惰性。相比于此类智能家居产品,个人数字助理对人类主体性的“侵略”或许更强一些。个人数字助理可以使普通大众通过一个非常亲民的价格来雇佣一个贴身助理,它的全方位服务可以让人们节省大量的人力和时间。然而显而易见的是,个人数字助理同时也拥有人们的众多详细数据,甚至在某种程度上有机会帮人类做出决策。久而久之,在人类对技术形成依赖之后,其便会产生劳动、决策异化、治理异化等丧失自身主体性的风险。

因此,人类需要时刻警惕智能技术的“操纵”威胁。在人类社会的进步和发展进程中,人工智能技术占据了重要位置。然而在这个过程中,人类必然不可迷失自己作为人的主体性,在享受服务的同时也需要把控自身的能力。同时,人们也需要享受作为人的主体性,时刻以自身主导为前提。人工智能技术可以改善人类的生活,但不能改变人类的存在方式,防止人工智能因利益者的一念之差走向恶的极端。

结语

智能技术由于其超前性、多样性、便捷性等诸多优势吸引着整个人类社会的目光。不可否认的是,技术一直是推动世界发展的核心要素。熊彼特更是从技术进步的角度归纳国际市场周期性变化的特点,指出在不同时期,都存在以技术发明为基础的不同产业来带动经济的发展。此外,还有不少学者将以汽车、电子产业为主导产业的周期算为世界经济发展的又一周期,把互联网算作当今的一个主导产业。如今的智能革命同样通过技术进步带来全球范围内的生产力变革。然而,智能技术由于其不确定性、不透明性等潜在的风险时刻威胁着人类。

2 0 1 8 年图灵奖得主约书亚•本吉奥(Yo s h u a Bengio),曾经在一次采访中表示,现在人工智能正在被越来越多的国家和公司不负责任地使用,这其中带来了许多安全问题和道德问题。利益在其中扮演了重要的角色,人工智能是向善持续发展还是不断作恶带来各种社会风险,往往就在一念之间。人工智能在技术应用中的多样态风险及其防治,是当今整个世界的议题,涉及到了国家、行业和每个个体人之间复杂的关系。然而,纵然其很危险,但所有人都可以意识到放下这个危险的可能性几乎为零。因此,当下最适当的态度就是辩证地看待人工智能及其在技术中的应用,并且集中人类所有的智慧,保持人类的本性和常识来应对这一难题与无限的未知。

猜你喜欢
深度人工智能人类
人类能否一觉到未来?
深度理解一元一次方程
人类第一杀手
1100亿个人类的清明
深度观察
深度观察
2019:人工智能
人工智能与就业
深度观察
数读人工智能