OpenAI最后的战役

2024-01-11 04:43朱秋雨
南风窗 2023年25期
关键词:伊利亚奥特曼董事会

朱秋雨

一个创始人被公司赶走,不是一件罕见的事。OpenAI董事会与创始人、CEO山姆·奥特曼在11月发生的这一场宫斗,本来也不该是值得奇怪的事。

后者,一个自诩奥本海默般的硅谷菁英,在一个大周五的中午,被亲手组建的公司通知他被解雇了。连同被解除职务的,是会议都没来得及出席的董事会主席格雷格·布洛克曼。

11月17日,会议进行的同时,OpenAI对外发布通告:因为奥特曼“不坦诚”,导致董事会失去信心,所以解雇奥特曼。

言辞没留下一丝体面。

5天后,奥特曼与OpenAI像一对重归于好的密友,发声明表示,两方达成一致,奥特曼回来当CEO。

一切又像传统商战里的闹剧—受利益驱使的双方反复博弈、相互说服、一方胜出的故事。这个剧本在硅谷上演过很多次,我们到底为什么要关心呢?

美国媒体Politico的科技记者Derek Robertson写道,全世界对这家AI公司的高度关注,是硅谷文化渗透的缩影。在硅谷的世界里,对领导者个人命运和个人风格的关注,远高于对大公司人事变动和系统架构的关心。不管人们承不承认,像马斯克和奥特曼这样的几个人,正在塑造着当下。

这样的矛盾同样关乎着人类命运。如何确保人工智能的发展符合人类的福祉,而不是像奥本海默一样—掌握先进技术以后,是由在京都度过蜜月的美国总统杜鲁门最终决定,要在广岛而不是给京都投掷威力巨大的原子弹?

在ChatGPT即将发布一周年之际,关于如何实现上述方向,而不是走向相反的路的争执,将OpenAI“内斗”引燃。毕竟,2015年,OpenAI由奥特曼创立时,他为目标设置了出厂“保险”—非营利机构。他们还给投资人忠告:“以捐赠的精神看待对OpenAI的投资。”但在11月,OpenAI被曝研发出了可能对人类产生威胁的AI。

这也许是来自OpenAI内部最后的战役。11月22日,随着擅长对外社交和融资的奥特曼回归,不再天真的OpenAI已然成为自己过去回避的巨头。

前方要走的,注定是需要平衡多方的路。颤颤巍巍地,OpenAI不再如以前一般酷了。

重要的是,人类会怎样?

觉 醒

2016年,在硅谷最具盛名的俄罗斯籍风投家尤里·米尔纳位于洛斯阿尔托斯的城堡里,一个小型放映会正悄然进行。

放映会的“主角”是HBO的新电视剧集《西部世界》。攒局者除了城堡的主人,还有当年只有31岁的AI机构创始人奥特曼。两人在邀请函里写道:“邀请您参加《西部世界》首播集观影会,这是一部探索意识和人工智能前景的新连续剧。”

连续剧的第一集,设定在有着凹凸起伏山脉的美国西部。在不同服饰与悬疑音乐的切换中,人们才知道,这个西部世界由伟大的AI科学家创造,里面的多数“活人”都是AI扮演,相当于一个真实的AI游戏小镇。高高在上方监控的人类,唯一的烦恼在于:极少数AI数字人会不按剧本走。

毁灭犯错的AI容易,在西部世界,科学家内部无法达成一致的是:要不要搞清楚犯错的AI是如何运行的;没有答案之前,要不要停止项目?一个豆瓣网友总结,这是一个内核关乎觉醒的故事,“更开脑洞来说,我们人类是更高级的人工智能,因苦痛而觉醒”。

奥特曼被罢免,是因为董事会“担心他对OpenAI实现安全和有益AI的承诺”无法兑现。

影视剧桥段在生成式人工智能定义的2023年,变得不突兀了。在GPT-4发布后的3月末,近千名AI界大人物签署联名信,呼吁所有AI实验室暂停训练比GPT-4更强大的AI系统至少6个月。签了名的,有大名鼎鼎的图灵奖得主Yoshua Bengio、蘋果联合创始人Steve Wozniak、《人类简史》作者,以及在2018年退出OpenAI的联合创始人埃隆·马斯克。

很难说得清这些前瞻者对人工智能的担心是否过分。毕竟,ChatGPT为代表的大语言模型,用的还是过去深度网络最擅长的那套:在广大无穷的数据之中寻找共性,推测概率。尽管看上去像个有知识的本科生,但它们从未真正掌握语言本身。

只是,半年内,GPT-4在各项榜单上的一骑绝尘,让越来越多的担忧从四面八方涌入。最擅长对外的奥特曼由此出席了各类场合。他像扎克伯格一样出席美国参议院的听证会,接着进行了环欧出行,与英国首相、法国总统等欧洲政要见面,共同探讨AI的未来与监管。

最近的一次,是他出现在亚太经济合作组织(APEC)峰会上,11月16日。

他还发表了讲话。

所有人都以为,OpenAI会像人们所仰望的那样,继续无懈可击。

但一切在11月17日开始摇摆。由六人组成的OpenAI董事会突然宣布,对奥特曼的解雇令立即生效。那一天,奥特曼在视频会议上得知消息。而与他共同创立OpenAI的另一人,被解除部分职位的总裁布洛克曼,甚至没提前收到会议链接。

毫无疑问,这次的“坍塌”发生得很突然。

《金融时报》报道称,奥特曼被罢免,是因为董事会“担心他对OpenAI实现安全和有益AI的承诺”无法兑现。据知情人士透露,奥特曼近日试图筹集1000亿美元,以建立一家AI芯片公司,与英伟达竞争。这样的路径与OpenAI“存在潜在利益冲突”。

另一个说法是,这位四处露面宣讲监管AI的造浪者,近日加快推进了旗下机构的商业化进程。11月初,他不仅推出了GPTs,还首次对外承认,OpenAI正在研发GPT-5,且将得到更多来自最大金主—微软的支持。

“我们将从对方的成功中赚钱,每个人都会很满意。”他允诺说。

这样的迭代步伐,引发了OpenAI六人董事会的担忧。一位OpenAI投资者解释,奥特曼等人试图部署强AI的速度超出了预期。

“他们因(当下)行动太快发生争执。就是这样。”

被认为最可能领导“政变”的,OpenAI首席科学家伊利亚·苏茨基弗(Ilya Sutskever),正是格外强调AI安全的一员。

这位俄罗斯裔技术天才,在接受《卫报》最新采访时,举了更多关于AI的负面案例。

“第一代通用人工智能(AGI),将一定是巨大无比的数据中心。带着深度网络处理器并行计算,将耗费掉数以百万计家庭的能源。”

那么,“人类真的会从中获益吗?谁会是获益者?谁不在其中?”

贯穿的矛盾

伊利亚是OpenAI的灵魂人物,至少是技术上的一号人物。如果在学术页面搜索,他是一个比奥特曼有名得多的人,师从“深度网络之父”杰弗里·辛顿。2012年,伊利亚与导师共同发明了用于图片识别的AlexNet。这个底层的革新,推动了全球此后十年人脸识别应用的高飞。

但这位主导OpenAI率先实现智能涌现的技术派,经常有着哲学化的表达。他将科技进步比作人类进化,说训练大模型就像人自然选择的过程,我们并不掌握每一个部位如何运行,但把握了基本原则—保留好的,去掉不利于人类的。

所以,“第一代AGI的愿景和信仰是很重要的,我们有必要非常正确地将它们编程出来,以免被只为自己利益而不顾他人的人所用。”伊利亚说。

在AGI上的志同道合促使OpenAI多位创始人在2015年走在了一起。他们首先达成共识:为了确保AI可以造福人类,这得是非营利实验室主导的项目。

他们将其命名为 “OpenAI”。这个名字是当时的创始人之一马斯克提的。如字面意思所说,OpenAI将推崇开放,将成果公之于众。

这是马斯克与谷歌联合创始人拉里·佩奇(Larry Page)讨论后的构想。与后者谈完后,马斯克对谷歌等大公司对AI安全的漠视感到失望,转而决定花100亿美元投资奥特曼的项目。几位创始人由此确认了这个实验室的基本原则—对抗巨头谷歌在AI领域强大的主导地位,并 “确保AI不会伤害人类”。

于是,OpenAI在成立的章程中强调,“要为每个人而不是股东创造价值”“主要信托责任是对全人类的责任”。它同时规定,员工的薪酬会与其遵守章程的程度挂钩。在2018年4月,它在新发布的章程中写道:如果另一个组织率先实现AGI这一目标,OpenAI将停止竞争步伐,与其合作。

“第一代AGI的愿景和信仰是很重要的,我们有必要非常正确地将它们编程出来,以免被只为自己利益而不顾他人的人所用。”伊利亚说。

只是,誓要实现AGI,对当时的初创团队而言,就像在汪洋泥沼中寻找拔出脚的正确道路,哪个方向都有可能。在2016年接受《纽约客》采访时,OpenAI也说不清楚自己在做什么。总裁布洛克曼给了一个模糊方向:“我们现在的目标……是做最好的事情。”

至于奥特曼,在成立OpenAI几年后,他在加州牧场的家告诉前来采访的记者,自己对钱不感兴趣。OpenAI将通过 AGI来获取世界上的大部分财富,再将这些财富重新分配给人们。

这个数字,“可能是1000 亿美元、1 万亿美元、100 万亿美元……”

关键方向的转变由伊利亚主导。

2017年,一篇由八名谷歌研究人员共同撰写的论文发布。官方标题是“注意力就是你需要的”(Attention is All You Need),首次提出了Transformer结构和自注意力等革命性概念。

曾在谷歌任职的伊利亚,成为全世界少数理解这一突破有多强大的人。总裁布洛克曼回忆:“真正的顿悟时刻是当伊利亚看到Transformer出来时。”OpenAI团队迅速投入其中,接著发现,“两周内取得的进步比过去两年还要多”。

这个新方向让所有人都为之振奋。重大的转变随之发生,他们意识到,让模型变得智能的关键,是要扩大规模,即在庞大的数据集上训练模型。

OpenAI决定为此押注所用。

“你需要更像一个工程组织来运营它,不可能让每个研究人员都尝试做自己的事情,”OpenAI董事会成员,也是Quora首席执行官Adam DAngelo总结,“团队必须一起做这项更乏味、更不优雅的工作。这是 OpenAI能做到的事情,也是其他人无法做到的。”

横亘OpenAI至今的矛盾在这时出现。提高模型规模本身,需要大量的算力和资源投入,同时意味着必须投入大量的资金。这个需求,与非营利的设想本身,存在方向上的偏离。

最大“金主”马斯克在此时,因路线不合选择了退出。也因此,2019年正式担任CEO的奥特曼,跑去微软要了10亿美元投资。

救世主来临?

2023年11月的第三周,一场不被事先通知的“政变”,将OpenAI内部的相撞立场公布于众。这证实了马斯克等人的指责并非空穴来风,人们此刻意识到,内部的无法统一,真的足以摧垮一个冉冉升起的帝国。

关于OpenAI到底该往哪走,如何去往AGI的疑问,同时笼罩在这家新创公司的四周。有很多人开始认为,从OpenAI身上看到了熟悉的巨头模样—先采用亏损战略占领大部分市场,再运用赢家通吃的逻辑,获取利润。

11月10日,在OpenAI召开的首届开发者大会上,奥特曼宣布推出面向个人的GPTs。这是一个看上去更接近于靠近消费者而不是技术的举动。奥特曼指出,每个人都能“定制化GPT”,并将它们放在GPT Store出售。

這让许多AI创业者大呼,“奥特曼毁掉了我的初创公司”。

只是,这个站在台前,让众人对AI安全尽情发难的CEO,总能用真诚的回答化解危机。OpenAI董事会前顾问凯利·西姆斯评价,奥特曼经常就是辩论的双方。言下之意,他既能理解这方,又能理解那方。

奥特曼“成功塑造了一种邪教式的、近乎救世主式的员工文化,这一点从他们愿意全体团结一致辞职就能看出来”。

接触过奥特曼的人有一致的评价:他极其擅长说服他人。2023年5月,坐在美国参议会听证会上,奥特曼面对美国官员,呼吁加强AI的监管。这是远比面对扎克伯格时更温和的质询现场,在场议员甚至反过来问他,你认为应该怎么监管AI?

与奥特曼共事了超10年的恩师格雷厄姆评价,他有一种天生的说服别人的能力。在《写给学生们的创业指南》中,格雷厄姆说,2006年他第一次见到20岁的奥特曼时,“当时见他不到三分钟,我就在想,啊,19岁的比尔·盖茨估计也就这样了吧!”

就像辩论时的态度,近半年反复如政治新星出席各类场合的奥特曼,倾向于走中间路线。

面对政治家的提问,他喜欢这么说:监管必须恰到好处。他期望看到的模式是 “介于传统欧洲方式和传统美国方式之间”,并同时警告,过度的规制可能会对小公司和开源活动造成伤害。

很难有人反驳奥特曼。

理由也非常简单,OpenAI的确在没人尝试过的道路上取得了意想不到的成果,这个成果比设想的快得多。硅谷科技记者都记得那种震撼感,2022年11月,ChatGPT发布之际,OpenAI只是想将其作为实验室的一项成果发布。没人能预测到,这将成为一个活跃用户快速破亿的超级应用。

奥特曼也表示过不解。 “如果你问10岁的我,常常做的AI白日梦会是什么,我相当自信的预测是,首先我们将拥有机器人,它们将完成所有的体力劳动。接着也许是做复杂事情的系统,比如证明数学定理。最终,我们才拥有能够创作艺术、写作等深具人类特点的AI。这是一个可怕的预测,如今,正朝着相反的方向发展。”

横亘在OpenAI创始之初的问题又出现了。如果过快发展的大模型不可避免地让先来者OpenAI成为巨头,如何确保这是一个有利于人类福祉的项目?

奥特曼在2019年给出过答案。他创立了独特的治理机构,强调了OpenAI的非营利性。在这个设置下,受微软等资本资助的营利主体OpenAI LP需要服从非营利主体OpenAI Inc的六人董事会。董事会成员不持股份,有投票权,将决定OpenAI的发展方向。

他因此经常对外自豪地指出,这样的结构,自己不占任何好处,OpenAI有权解雇他。

事实就是,11月17日,在伊利亚等人代表的董事会将奥特曼投票出局后,770人的公司有超过730名员工签署了联名信,要求奥特曼回归。

最终,奥特曼赢得了这场战役。

美国创新经济基金会高级经济学家塞缪尔·哈蒙德形容,奥特曼“成功塑造了一种邪教式的、近乎救世主式的员工文化,这一点从他们愿意全体团结一致辞职就能看出来”。

还有一个更现实的解释是,面临在AI安全和AI发展中二选一的路径选择时,中间路线赢了。更多人愿意维持原状,守住当下的领先优势。这是一个更接近贪婪人性的选择。

生存还是毁灭?

戏剧性地,在奥特曼回归OpenAI、董事会重组后,路透社报道称,在奥特曼被罢免的几天前,OpenAI几位研究人员致信董事会,警告说他们发现了一种强大的人工智能技术,可能威胁到人类。

这是一个内部代号为Q-Star的项目,也被外界认为是GPT-5的版本。这封信写道,Q-Star很可能实现了OpenAI过去长期寻找的通用人工通用智能(AGI)。按照OpenAI对AGI的定义,这意味着,AI在许多方面表现出了超越人类的能力。

上述报道指出,正是这个新突破,成为奥特曼等人被罢免的原因之一。

关于GPT-5涌现的智能在硅谷圈早有传闻。一切又变得像哲学问题一样,关乎人类命运和生存的本质。

谨慎的人始终像异端。早期的OpenAI是,现在的伊利亚也是。

而这几个月,奥特曼对外输出的核心,也是一个长期流传于美国科技圈的理论:技术加速主义。

这个主义被许多技术公司的CEO和商人反复引用。意思是,回顾技术发展的几百年历史,新技术在刚到来时都让人类恐慌,但随着时间的发展,任由新技术颠覆社会后,实际上加速了社会的进步。颠覆的技术会迫使人类迅速适应和发展,更快达到更高意识水平。

有类似观念的奥特曼在自己的博客里写道:很多人经常问他,究竟如何做到平衡外界的看法和自己想做的事情?

他的答案是,很多人面对外界,选择只听重要的人的话。但还有一种与众不同的方法,那就是拉开时间的维度。

“这类人通常会在很长的时间跨度内关心他人的意见,只要放在历史的维度上看是正确的,那么现在外界评价你是错误的也无妨。”

他写道:“关键在于,只要你是对的,那么无论在短期还是长期,你都是对的。”

11月,奥特曼用行动显示,在追随AGI的过程中,人们可以先等待改变发生,用更长期的结果评判当下。

他喜欢引用奥本海默的思想,认为原子弹是科学进步的必然结果。“技术的出现是因为它是可能的。”

谨慎的人始终像异端。早期的OpenAI是,现在的伊利亚也是。

比起奥特曼频繁为OpenAI摇旗呐喊,这位专注于技术的科学家很少对外输出。他在今年7月成立了“超级对齐”项目,目标是在OpenAI拿出20%的算力,在4年内解决超级智能对齐的核心技术挑战,以保证人类对超级智能的可控。

现阶段,他还在频繁表达对AI安全的担心。

在11月的采访中,伊利亚暗示,AGI的发展,让人们很难把握后果,今后很可能让人类和AI的关系,变得像动物和人类的关系。

“这就像人们很爱动物。但是当我们要在两座城市建高速公路的时候,从来不会问动物的意见。这可能会是以后我们和AI的关系。”

在发布表示对参与罢黜奥特曼“后悔”的推特之前,伊利亚还在10月发了一条推文。

他写道:“如果你把智力看得比人类的其他品质都更重要,那你会过得很糟糕。”

猜你喜欢
伊利亚奥特曼董事会
聪明飞船(四)寻访伊利亚
中国机械工程杂志社第四届董事会
中国机械工程杂志社第四届董事会
中国机械工程杂志社第四届董事会
中国机械工程杂志社第四届董事会
想做联名爆款?超级飞侠、熊出没、奥特曼等“高光”IP等你来聊
奥特曼大揭秘
画中奥秘
真假奥特曼
伊利亚德宗教现象学视域下的西藏宗教