约什·恩茨明格 马克·埃斯波西托 谢慈铭
“元宇宙”還没有到来,当它到来时,它不会是任何一家公司控制的单一域。脸书想在更名为Meta时创造这样的印象,但它的品牌重塑,遇到了微软和Roblox的重大投资。所有人都在设法决定,如何用虚拟现实和数字身份组织更多的日常生活—从工作和医疗保健到购物、游戏和其他娱乐形式。
元宇宙并不是一个新概念。这个词是由科幻小说家尼尔·斯蒂芬森在他1992年的著作《雪崩》中创造的。该书描绘了一个超资本主义反乌托邦,人类集体选择在虚拟环境中生活。到目前为止,在现实世界中,这种体验同样是反乌托邦的。大多数沉浸式数字环境的实验,都立即被欺凌、骚扰、数字性侵犯以及与平台“快速行动,打破常规”有关的其他滥用行为破坏。
这一切都不足为奇。新技术的伦理总是落后于创新本身。这就是为什么独立各方应该尽早提供治理模型—在自利的公司为了自己的利润率而这么做之前。
人工智能伦理学的演变在这里具有指导意义。2012年AI图像识别取得重大突破后,伦理学家和活动家发表(并重新发表)关于在有偏见的数据集上训练AI的危险性的研究。人们开发了一种新语言,将我们想要维护的价值观,融入新AI应用程序的设计。
第一波回应旨在让公众关注与AI相关的伦理问题。但很快它就因行业内重新推动自我监管而黯然失色。AI开发人员引入了用于进行内部和第三方评估的技术工具包,希望以此减轻公众的担忧。并没有,因为大多数追求AI开发的公司的商业模式,与公众希望其坚持的道德标准存在公开冲突。举个最常见的例子,推特和脸书不会有效部署AI来应对平台上的各种滥用行为,因为这样做会破坏“参与度”,从而破坏利润。
最近,企业顾问和各种项目已经将AI道德专业化。在科技巨头从事AI工作的人,将被迫考虑一些问题,例如一项功能是否应该默认选择加入或退出;将任务委托给AI是否合适;用于训练AI应用程序的数据是否可信。为此,许多科技公司建立了所谓的独立道德委员会。然而,在内部研究人员因为对某些AI模型的伦理和社会影响表示担忧而引人注目地离职后,这种治理形式的可靠性受到了质疑。
为元宇宙建立健全的道德基础,要求我们在行业自律成为常态之前,更进一步。我们还必须注意元宇宙已经与AI不同了。AI基本上以企业内部运营为中心,但元宇宙绝对是以消费者为中心,这意味着它会带来大多数人尚未考虑的各种行为风险。
正如电信监管(特别是1996年美国《通信规范法案》第230条)为社交媒体提供治理模式一样,社交媒体监管将成为虚拟世界的默认治理模式。这应该让我们所有人担心。尽管我们可以很容易地预见到沉浸式数字环境中将会发生的许多滥用行为,但我们对社交媒体的经验表明,我们可能会低估它们将达到的绝对规模以及它们将产生的连锁反应。
与其重蹈过去15年的覆辙,不如高估风险。完全数字化的环境,为更详尽的数据收集创造了潜力,包括个人生物特征数据。由于没有人真正确切地知道人们将如何应对这些环境,因此,有强烈的理由在允许更广泛部署之前使用监管沙箱。
预测元宇宙的道德挑战仍然是可能的,但时钟在滴答作响。如果没有有效的独立监督,这个新的数字领域几乎肯定会流氓化,重现AI和社交媒体的所有滥用和不公正现象,以及其他我们尚未预见到的滥用和不公。元宇宙正义联盟可能是我们最大的希望。