何承波
一时间,全世界都试图给ChatGPT 踩刹车。
3月31日,意大利个人数据保护局(DPA)宣布暂停ChatGPT 在境内运行。这引起了欧盟国家的警觉,德国、法国和爱尔兰等国,也找到了意大利,寻求更多关于禁令的信息。虽无明确封杀计划,至少给如火如荼的ChatGPT,浇了一盆冷水。
隐私问题不过隔靴搔痒。ChatGPT 还面临更大的麻烦。3月底,未来生命研究所的官网上,刊出了一封公开信,明确呼吁暂停训练比GPT-4 更强的人工智能技术。
截至4月10日,已有18980名科学家、研究者和相关从业者签了名,个个都是一顶一的大佬:图灵奖得主Yoshua Bengio、苹果联合创始人Steve Wozniak、Stability AI 的首席执行官Emad Mostaque 等。这种场合自然少不了马斯克,他在签字名单上排第三。
公开信称,具备类人智能的 AI 系统,很可能对社会和人类构成深远风险。现在的AI进步,已经连创造者自己都无法理解、预测或可靠地加以控制。所以,在大失控之前,人类应该考虑怎么进行AI 的治理与审查。
在对人类的模仿中,人工智能走向了属于它自己的未来。
短短几个月,人工智能无处不在,ChatGPT 已经不能用“爆火”来形容了,说是“狂热”也不为过。有人看到了真正的数字文明;有人憧憬全新的人类纪元。有人说我们来到AI 垃圾信息的时代;有人认为,AI终结了论文的写作,动摇了白领的工作。还有所有人津津乐道的:AI 进入了自我涌现时代,新的智能生命就要诞生了。
OpenAI CEO 奥特曼还坦然承认,他们团队也搞不懂ChatGPT是如何进化的,甚至还抛出一些危险言论:“AI 确实可能杀死人类。”
恐惧,兴奮,不确定。但我们忽略了一个简单的事实,ChatGPT 现阶段并没有想象中那么好用,它善于编造虚假信息,逻辑和事实总是出错。
我们也忽略了一个更基本的事实:类似ChatGPT 的产品,本质工作是预测语言。它们喋喋不休,或者长篇大论,都是在大型数据集中提取统计模式。什么意思?本质上,它基于一种统计学,预测人类使用某个字与下一个字的关联。“统计学”的工作,见诸互联网各个角度,浩瀚的、数以万亿计的文字材料,都是它预测的养分,包括前述意大利封杀ChatGPT 的新闻报道、未来生命研究所的公开信,还有马斯克在社交媒体贩卖的人工智能恐慌。
关于人工智能,统计学就这样形成了一种显著性:我们越倾向于谈论什么,人工智能就越容易展现这种倾向。毕竟,这些内容,正是它进化的养料。
换句话说,它不会兀自进化,是在对人类的模仿中,人工智能走向了属于它自己的未来。
如果一种智能生命终将诞生,那它不是来自别的,而是隐藏于我们的想象,还有我们的谵妄。