Cade Metz Mike Issac
Facebook的首席技术官迈克·斯科洛普夫(Mike Schroepfer)流下了眼泪。
在Facebook总部的一间会议室,周围是用蓝色和红色马克笔写满了字的白板,斯科洛普夫谈起了从社交网络删除不良内容的技术难题,又谈到了最近一次让人感到这项工作困难重重的悲惨事件:新西兰基督城枪击案。
今年3月,一名犯罪分子持槍在基督城的两座清真寺射杀51位平民,还在Facebook上全程直播。技术人员花了约一小时才将视频从网站上删除。那时,这段血腥视频已经在全网四处传播。
斯科洛普夫沉默了。一分钟以后,他试着恢复平静,然后说:“我们现在正在解决这个问题,它显然不是明天就能解决的。但我不想6个月以后还在跟你讨论这个问题,我们可以做得更 好。”
过去3年来,Facebook已经因用户在该平台散布虚假、误导和不实信息而接受了调查。作为回应,公司首席执行官马克·扎克伯格(Mark Zuckerberg)调用了一款据说能够删除不良信息的技术:人工智能。
去年出席国会听证时,扎克伯格的证词是,Facebook正在研发一套基于机器的系统来“鉴别不良活动的等级”。他还宣称,“未来5到10年,我们将用AI工具”来监测和删除仇恨言论。此后他还多次在媒体和华尔街的会议上,以及Facebook的活动上宣布了这一举措。
斯科洛普夫正是Facebook利用自动工具来分析和删除帖子的牵头人。在近期接受的3次采访中,他都表示,这项工作困难重重。
这是因为,每次斯科洛普夫和150多名工程师设计出针对某些不良内容的AI解决方案后,AI系统又会碰到新的模糊信息—刚想出的方案会把它们漏掉。最困难的地方是,只有犯罪分子才知道什么是“有害活动”,普通人很难具备这种判断力,更别提机器了。
斯科洛普夫承认,AI工具本身无法解决Facebook的顽疾。“我觉得最后会以残局收场吧,不可能说到最后什么问题都能解决,大家就高高兴兴回家了。”
然而,压力已经来了。Facebook在面临众人对基督城视频的指控后变更了政策,限制用户使用直播功能。一个周三,在巴黎和法国总统马克龙以及新西兰总理杰辛达·阿德恩(Jacinda Ardern)会晤后,扎克伯格签署承诺,会明确禁止传播恐怖主义和暴力极端主义内容。
44岁的斯科洛普夫硬着头皮接下了这项重任。多年来,他的工作一直都是帮助Facebook搭建起全球领先的AI实验室,招募顶尖人才来解决人脸识别等技术难题。他和扎克伯格想研发出能够与Google竞争的AI系统,因为Google拥有最前沿的AI研究员。为此,他从纽约大学、伦敦大学和巴黎第六大学招募了众多博士。
不过一路下来,他的角色慢慢变成了内容刽子手。现在,他和团队大部分时间都在研究怎么用AI来发现和删除死亡恐吓、自杀视频、不实信息和谎言。
约翰·黎力(John Lilly)曾是Mozilla公司的首席执行官,目前则是Greylock Partners公司的风险投资人。他曾在1990年代中期和斯科洛普夫一起学习计算机科学,他说:“我们都没有预见到这些事,谁都不知道这个问题该怎么解决。”
斯科洛普夫在他的苹果笔记本电脑上找到了两张照片,一张是西兰花,另一张则是一株大麻。会议室里的所有人也一起看了这两张照片,有些人没法判断到底哪张是西兰花,哪张是大麻。
斯科洛普夫是想通过照片来说明,虽然有人无法鉴别这两者,Facebook的AI系统已经可以通过上千万张图像找到规律,发现大麻。一旦AI标记出大麻照片,许多使用了这些照片在Facebook上贴出大麻广告的帖子都会被删除。
问题在于,“西兰花还是大麻”的实验不仅证明了进步,也反映出了Facebook的局限。斯科洛普夫的团队搭建了能够识别和删除大麻照片、裸露照片和恐怖主义内容的AI系统。但是这个系统永远不能一网打尽,因为总会有漏网之鱼。这也就意味着,有上千万张裸露照片、大麻照片和大量恐怖主义内容已经被用户看到了。
对于AI来说,识别不良图像的任务很简单,难处在于如何发现虚假新闻或仇恨言论。虚假新闻可以轻易伪装成真新闻,而仇恨言论对于机器来说还很难甄别,因为机器无法识别细节性的语言。每个语言的细节性都有所不同,对话的展开也需要语境,而语境千变万化,这对机器来说还没法企及。
AI基金会(AI Foundation)是一家研究用AI打击不实信息的非盈利性机构,其首席研究员德利普·拉奥(Delip Rao)表示,要拿下这项挑战,就好像是要赢一场“军备竞赛”。AI都是基于过去的体系搭建的,但过去完全没有这样的体系。行为总在变化,不法分子也总是会有新方法。这是场猫和老鼠的游戏。
“有时候你能先发制人,有时候反倒是人家有可乘之机。”拉奥表示。
斯科洛普夫表示,Facebook能够自动识别和删除有问题的直播内容,但还是没有发现3月的枪击直播视频,因为过去从来没有这样的视频被传到网站上,他们没有什么先例可以参考。
版权声明
本文内容由《纽约时报》提供版权