□毕舸
据新京报报道,程序员研发“原谅宝”一事持续引热议。今年5月,程序员“@将记忆深埋”表示,自己通过大数据完成一个项目,可用于鉴定“渣女”。有网友将其起名为“原谅宝”。被网友指责后,其宣布删除数据库并道歉。6月26日,有网友透露,“原谅宝”已建立公众号和微博。但记者实测发现,相关测试页面有广告,且难以看出核心数据和技术,公号主体是个百货店。28日,“@ 将记忆深埋”回应,这是冒充的,害他被骂,对方却因此获利。
“原谅宝”事件持续发酵,在于“@ 将记忆深埋”之前号称运用了大数据,已经“在全球范围内成功识别了十多万名疑似从事色情行业的女性”,同时可对美颜、Deepfakes 换脸等有效对抗,识别率达99%;而对于声音语气模仿采用声纹检测对抗,识别率达100%。一系列高大上科技名词的加持,让“原谅宝”更容易激起他人的好奇心,如果真如“@ 将记忆深埋”所言,这就不是对“老实男人”的保护,而是对无辜女性的伤害。
“原谅宝”是技术噱头下的道德作恶。首先,它不能保证所谓的识别率100%正确。其次,即使正确,将其上网公布于众也是有违道德,侵犯他人隐私的。可以想象,如果有人用所谓“原谅宝”,以某个女性的图片或者视频为依据,就标明其“有从事色情生意的嫌疑”,对这名女性无疑已涉嫌诽谤和人格侮辱,一旦有更多人效仿,更容易形成一种集体性的道德恶行。由此产生的奇观就是,一堆男性(也不排除女性)用户随意对女性用户发在微博、微信朋友圈、抖音以及其他公开线上途径的图片或者视频,进行人格“界定”,“原谅宝”成为一群人对另一群无辜者的人生定性杀器,而当被界定者予以反驳,这些界定者也会以“原谅宝”数据有多么可靠,技术有多么先进,来作为剥夺对方抗辩的理由。
“原谅宝”以技术为名满足人们的窥私欲,从技术层面而言,其可行性非常小。但其所反映出的逻辑,则是满足部分男性对女性在两性交往中的霸权需求。它集之前人肉搜索和打色情擦边球软件的双重之恶,人肉搜索是对个人隐私进行无遮拦的曝光,而且往往发生于某类事件中,人们对于疑似做出违反公序良俗行为的人,采取此类技术,从而将个人推向广场审判。如此网络暴力下,很难避免有无辜者成为人肉搜索的受害者,哪怕是行为确有差错者,也被这种滥用的私权侵犯到其合法权益,从而酿成悲剧。在电影《搜索》中,关于这种技术所造成的社会伦理伤害有充分体现。
而“原谅宝”将女性照片与从事色情行业挂钩,可以想象,这会让被界定女性背负多少不堪的用语?退一步而言,即使女性之前有类似经历,也不应被剥夺应有的人格尊严、在网上被人围观。这与近来另一“热门”软件——一键脱衣AI 有着相同的恶,无论是AI“剥”去女性的衣衫,还是“原谅宝”裸露女性的人生经历,技术被吹得越天花乱坠,其后果就越不堪设想。
因此,对于此类打着技术擦边球而干着侵犯个人隐私和权利的现象,我以为不仅有关部门要立即进行调查,如真有类似软件须予以封杀,同时对制造和传播者依法严惩,不能让此股歪风愈演愈烈,不能让网络变成隐私不打“马赛克”的滥觞之地。