尹传红
是否应该发展最终可能超过并取代我们的非人类思维?是否应该冒险失去对文明的控制?
开春以来,与人工智能(AI)相关的几大新闻事件几乎同时发生,引发了多个层面的忧思和伦理议题。
这当中,最令人咋舌的,要数足以乱真的美国前总统特朗普被捕照片在互联网上疯传,真实信息和虚假信息之间的界限变得越发模糊;更因大量转发后往往缺失“由AI生成”这一关键背景信息,不能不令人产生疑虑:虚构AI图像这类事情极易被别有用心之人利用,成为发动虚假信息战的武器,而不仅仅是对新闻真实的破坏性或会不会给摄影师带来职业危机这些问题了。
与之多有关联的是文本生成视频的诞生:纽约一位软件架构师在电脑上输入了一段简短的文字,描述他想看到的視频内容:“森林中一条宁静的河流”。不到两分钟后,一个实验性互联网程序就生成了一段短视频:流动的河水在阳光下闪闪发光,它穿过森林和蕨草丛,拐了一个弯,轻轻地撞击着岩石。
这一逼真的场景,实则也预示了诸科技巨头竞相开发AI新系统之未来,并且同样令人喜忧参半:新的视频生成系统可以加速电影制片人和其他数字艺术家的工作,也会成为一种快速制造难以察觉的网络虚假信息的新方式,让人更难辨别互联网上的真实信息,甚而使得“深度伪造技术目前所带来的问题可能会变得更为严重”。
恰恰就在这一波热闹中,“出事”了。3月底,当世界各地数以百万计的人登录ChatGPT(聊天生成预训练转换器),用它来创作歌曲、修改电脑代码或是在家庭作业中作弊时,网站因庞大的用户访问量导致崩溃。有些登录者遇到了一件怪事:系统中的一个漏洞把一些用户的个人详细信息随机发送给了其他用户,酿成了一起严重的数据泄露事件。意大利负责监管数据的机构指责开发ChatGPT的开放人工智能研究中心(OpenAI)未能遵守用户数据保护法规,遂于3月31日宣布将禁止在其境内使用ChatGPT,成为第一个对利用人工智能的聊天机器人采取行动的西方国家。
尽管有人批评意大利对ChatGPT的“条件反射式”禁令有些草率,不愿承担风险,也忧心此举给创新带来阻碍,并提醒政府应理智地评估怎样才能利用ChatGPT这样的技术来做有益的事情,但ChatGPT确实在更大范围内引发了关切。已有人初步归拢了它可能带来的九大风险:不准确的信息、隐私问题、生成“钓鱼”邮件、带偏见的内容、取代工作、剽窃、创建恶意软件、过度依赖、内容局限性。
似乎,又一个潘多拉魔盒被打开了!用一位人工智能研究先驱的话说:“社会还没有准备好”接受这种性能强大的工具及其可能的滥用。前不久,特斯拉首席执行官埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及其他1000多人签署了一封公开信,要求在AI技术变得日益强大之际,为其设置安全护栏,并暂停训练更先进的AI模型。“只有在我们确信它们的影响是积极的、风险是可控的情况下才应该开发”。他们还发出了这样的疑问:是否应该发展最终可能超过并取代我们的非人类思维?是否应该冒险失去对文明的控制?
一场深刻的社会、经济与政治变化,已在潜伏之中。