“ChatGPT之母”谈人工智能的未来

2023-11-26 01:26KylieRobison乐文澜
财富(中文版) 2023年6期
关键词:穆拉人工智能模型

Kylie Robison 乐文澜

当我们来到位于美国加利福尼亚州旧金山的OpenAI公司总部的一间会议室,准备对该公司的首席技术官米拉·穆拉蒂(MiraMurati)进行采访时,原本在这里的另外一位OpenAI的高管、性格内向的人工智能革命领域内的代表人物从另一间房间里急匆匆地进来收拾好了他的东西—一台笔记本电脑,然后悄悄地给我们腾出了地方。他就是这家公司的创始人及首席执行官萨姆·奥尔特曼(SamAltman)。

在公众面前,奥尔特曼才是最经常露面代表公司形象的人。实际上,就在我们采访当天,他刚刚从美国华盛顿特区飞回来,而他此行就是去与美国国会谈人工智能技术的监管问题的。相比之下,穆拉蒂的名字不大被人们所知,但她对OpenAI的飞速发展同样至关重要。今年34岁的穆拉蒂主要负责该公司的两款产品:其一是最近大热的聊天机器人ChatGPT,其二是一款名叫DALL-E的人工智能系统,它能够利用文本来创作艺术作品。八年前刚刚成立时的OpenAI还是一个名不见经传的、非营利性的研究实验室,而正是这两款工具将它推向了一个令所有人都意想不到的高度。

在ChatGPT于2022年11月推出后,短短两个月内就拥有了超过1亿人的月活跃用户,成为史上增速最快的消费性应用程序。随着这些产品持续更新迭代,有时它们也会出现一些尴尬的、甚至是令人不安的小问题,每次都会把公众搞得紧张兮兮,这时就需要由穆拉蒂出来向似乎对每一个突破和失误都非常熟悉的大家解释了。

确实,凭借着ChatGPT这款跨时代的应用程序,OpenAI可以说是凭借一己之力引领了人工智能技术的最新发展方向—也就是所谓的“生成式人工智能”。这些关注也转化成了真金白银。虽然在最近几个月,ChatGPT的用户增速有所放缓,但企业客户的数量却在飞速增长。据报道,今年OpenAI有望获得超过10亿美元的收入。(这将是一个巨大的飞跃,今年早些时候OpenAI的一份融资文件显示,该公司在2022年的收入还不到3,000万美元。)另外,OpenAI还与软件巨头微软(Microsoft)开展了合作(这也是穆拉蒂负责的工作之一),这也为它的产品带来了很多新的销售,更不用说它还拿到了一笔100亿美元的投资。

穆拉蒂穿着一件T恤衫和牛仔裤接受了我们的采访,她的着装就像OpenAI公司的办公室的装修风格一样简约大方,但当你和她交谈时,你很快就会发现她内心的强大。她在回答问题时的语速缓慢且深思熟虑,但语气又显得轻松热情—这或许是这份工作塑造了她的思维习惯。毕竟她说,她不光要花费时间来思考ChatGPT的最新功能,还要深入思考人工智能是否会带来人类文明的终结。

穆拉蒂于2018年加入OpenAI,此前她曾经在特斯拉(Tesla)工作过一段时间。但她的成长经历在精英云集的硅谷(SiliconValley)里显然属于异类。她的童年是在祖国阿尔巴尼亚度过的,她的成长历程恰好与位于巴尔干半岛(BalkanPeninsula)上的这个国家的民主化改革进程相重合。阿尔巴尼亚的体制转型是十分突然的,也是十分混乱的,不过穆拉蒂还是把自己身上的一项特质归功于阿尔巴尼亚的旧政权—在那个一切强调平均主义的社会里,人们对知识的渴望却是十分强烈的。虽然当时阿尔巴尼亚的网速还很慢,但她已经在试图寻找很多问题的答案(包括人脑是如何运作的),并想方设法运用科技解决生活中的问题。在她16岁时,穆拉蒂获得了一笔奖学金,离开祖国前往加拿大温哥华的一所国际学校就读。后来,她在达特茅斯学院(DartmouthCollege)获得了工程学学位,随后前往旧金山,担任特斯拉的ModelX车型的高级产品经理。

穆拉蒂一直对培养更高级的智能感兴趣。最初吸引她加入OpenAI的原因之一,就是该公司相信它能够实现通用型人工智能技术—这是一个富有科幻色彩的概念,即计算机可以像人类一样理解、学习和思考事物。穆拉蒂也相信通用型人工智能是能够实现的,她在更广泛的人工智能领域里也是一位乐观主义者(这不足为奇)。但与此同时,她对人工智能当前和未来可能造成的一些现实风险也有着清醒的认识。

在奥尔特曼离开会议室后,我们对穆拉蒂进行了采访,进一步了解了她加入OpenAI的过程,以及随着OpenAI的產品逐步普及,该公司必须解决哪些问题和挑战。此外,我们还谈到了最新版本的DALL-E,以及ChatGPT的最新功能—它将首次包含语音指令功能,这可能会进一步提高新一代生成式人工智能产品的易用性,从而继续扩大它(及制造商)的普及度。

为简明起见,以下采访内容经过编辑。

DALL-E3,它与ChatGPT进行了集成,便于用户创建指令语。)

目前它还在研发预览状态,所以我们还没有看到人们将如何更广泛地使用它。而且从一开始,我们非常关注的就是那些有可能出现问题的地方。

不过在使用场景上,我认为它可以有一些创造性的应用。例如你能够生成一些真正非常个性化的东西—比如你的孩子非常喜欢青蛙,你想为他编一个关于青蛙的故事,那么它就可以为这个故事实时贡献一些内容。所以,它有很多的创意和共创的空间。其次,我认为在职场环境下,它能够让理念的设计变得更加容易,让任何东西的早期构建和更新迭代都变得更快。

你还有哪些其他的产品新闻?可以给我们介绍一下其中的主要亮点吗?

总的来说,过去两年我们一直在谈论通用型人工智能,这也是我们的目标,我们希望能够找到一种方法,让通用型人工智能造福人类,而且我们也正在沿着这个思路进行构建。要达到这一点,你必须要让这些模型对世界具有强大的概念,而且必须要通过文本、图像、声音和其他各种不同的模型体现出来。

而我们需要做的,就是把所有的这些模型放在一起,也就是放在ChatGPT里。另外,我们将把DALL-E3与ChatGPT进行集成,我预感这将是一件大事情,而且它将具有很好的交互体验。另外,我们还加入了语音指令功能,现在你将可以实时与ChatGPT进行交谈。现在我还不打算做演示,但是你能够跟它说话……

(穆拉蒂拿起她的手机,打开ChatGPT,通过语音指令,让ChatGPT“告诉她一件有趣的事情”。ChatGPT回答道:“你知道蜂蜜永远不会变质吗?”)

所以你还是做了一个演示。

展示要比描述容易得多。所以我们的重点是,让大家可以用一种非常自然的方式与这种技术进行交互。

让我们回到主题:大家不仅对产品感兴趣,也对产品背后的人感兴趣。你认为对你影响最大的经历是什么?它如何塑造了今天的你?

当然是在阿尔巴尼亚的成长经历。另外,我最早是研究航空航天的,而且我在特斯拉工作的经历对我而言也十分重要,我在那里经历了一辆整车从设计到投放的全过程。还有就是加入OpenAI。在我刚来的时候,公司只有四五十人,基本上只是一个研究实验室,而现在我们已经是一家成熟的产品公司,拥有上亿的用户和大量的技术人员。(OpenAI现在有大约500名员工。)

你是怎样认识萨姆·奥尔特曼的?还有你第一次来OpenAI的情形是什么样的?

我之前就在特斯拉从事人工智能应用方面的工作,但是我对通用型人工智能更加感兴趣。当时我并不能够确定通用型人工智能是否真的会到来,但我知道,即便我们距离成功已经很近了,我们在实现它的过程中创造出来的东西也将是非常厉害的,那甚至可能是人类有史以来发明的最重要的技术。而我想成为这个过程中的一员。因此,加入OpenAI就成了一个自然而然的选择,因为当时只有OpenAI和[谷歌(Google)旗下的]DeepMind在做这项事业。OpenAI的使命让我很有共鸣,那就是打造一种造福人类的技术。在我加入的时候,OpenAI还是一家非营利机构。从那以后,我们也不得不走上了转型的道路—因为这些超级计算机是很贵的。(2019年,OpenAI转型为一家营利性公司,不过它仍然由一个非营利性的董事会管理。)

我记得当时我见到了格雷格·布罗克曼(GregBrockman)、伊利亚·苏茨克维尔(IlyaSutskever)和沃伊切赫·扎伦巴(WojciechZaremba),然后就是萨姆。我确定他们就是我想合作的人。

让我们回到ChatGPT首次发布的时候。你有没有想过它会达到今天的规模,并且会给你的团队带来这么多的关注?

没有。虽然我们也认为这是一件大事情,并且为此做了很多的准备,但是发布会后仅仅过了几个小时,所有的准备就都变得跟不上变化了。我们必须迅速适应变化,同时改变我们的运营模式,但我认为这才是我们所做的一切的关键,因为技术进步的速度是非常快的。

对ChatGPT来说,更是如此。因为我们之前已经在内部使用它了,所以我们对它的功能已经见怪不怪了,我们当时甚至已经在使用GPT-4了,所以我们没有预料到外界会对它产生这么大的恐慌。

另外一件事情是,ChatGPT的发布也引发了一场“军备竞赛”。首当其冲的是谷歌,同时也有很多其他竞争对手。这对你们有何影响?

我认为这种竞争有可能会带来安全上的隐患。当然,这是不利的一面。

这是非常不利的一面。

是的。我们每个人都应该扛住压力,不为了竞争而在安全问题上退让。我认为OpenAI有不那样做的动机。但同时我认为,有竞争也是一件好事情,因为它可以推动进步。竞争能够让人们更有可能得到他们喜欢的东西。我不认为竞争本身是坏事情。但如果人人都以竞争为唯一的动力,而忽视了其中的风险和利害,那就将是一个巨大的问题。

随着竞争不断加剧,而你的投资者也期待着回报,你是否有信心OpenAI可以扛住所有这些压力?

我对我们的动机和产品设计充满了信心,对我们的合作伙伴和大家的做事方法也同样很有信心,因为大家的目标是非常一致的。至于说对哪些方面不太有信心,那就是提前预测某些风险的能力。毕竟你需要规范化地操作这些事情,它们也不可能只是政策和想法。

你如何确保在产品的每次迭代时都考虑到这一点?当你们发生了一些最糟糕的情形时,大家会怎么说?

首先要从内部团队开始。在我们做出原型产品之前,我们需要仔细思考我们所使用的数据,确保我们对各个方面都感到满意。这是一个非常重复性的循环,我们也在这个过程中学习,并且在这个基础上迭代。

一旦我们有了一个原型产品,我们要做的第一件事情就是内部测试,然后我们要在我们担心的特定领域安排一个“红队”(即寻找漏洞的专家)。例如,如果我们看到这个模型非常擅长制作逼真的人脸,那么我们就会安排“红队”对它进行测试,看看这个模型能够用来做哪些坏事,滥用它和由此产生的有害偏见是什么样子的?然后基于这些发现去做一些针对性的防范措施。每次进行干预时,我们都会对输出结果进行审查,因为我们要确保某种平衡—我们也不能让这个产品完全无用,或者用起来效果非常差强人意。总之,如何在好用和安全之间达到平衡,这是一个非常困难的问题。

以现在的DALL-E3为例,如果用户的指令词中有关于塑造人脸的内容,而且被我们定义为具有敏感特征,那么模型就会拒绝请求。但实际上,你也不想拒绝用户做一些无伤大雅的事情。因此,我们必须把握好这中间的细微区别,但你总是要有一条红线的,所以目前我们选择了一个较为保守和不太宽容的做法,因为它毕竟还是一项新技术。等到我们进一步了解了这个模型在做什么,并且从“红队”那里获得了更多的见解时,我们就可以更加细致地制定政策或者使用场景,并且对技术的应用持更加宽容的态度。这也是所有新技术的发展趋势。

我知道你们此刻也遭遇到了一些版权方面的挑战。(近几个月,一些作家和内容创作者起诉OpenAI,称该公司在未经同意或者给予赔偿的情况下使用他们的作品训练其模型。)而人工智能模型是需要大量训练的,你是否认为版权问题从长期看来会对你们造成威胁?

目前,我们已经与出版机构和内容创作者进行了大量的合作。我认为归根到底,人们是希望这项技术继续发展,希望它有用,希望用它來改善我们的生活。而且我们也在试图了解哪些东西有用。目前我们还处于这项技术的最前沿,我们必须做出一些非常困难的决定,我们也必须与人展开合作,以理解这项技术能够做什么,它可以采用哪种收入分成模式,它的经济效益是什么样子的。既然这是一项新的技术,那么为什么我们还要用与之前相同的政策和心态呢?所以我们正在努力解决这个问题,但目前我们还没有一个解决方案。这可能会很复杂,但我们正在与出版商和内容创作者合作,以了解下一步应该怎么做。不过这是一个极其复杂的问题,而且未来还有很大的发展空间。我们今天所做的,可能只是数据共享和数据归属的经济模式研究的初级阶段。如果说一个模型的新的行为模式产生出了很多的价值,那么我们现在就连如何衡量它都是一个问题。

在监管方面,你说过你支持对人工智能的监管,但你认为人工智能监管最重要的一些问题是什么?当人工智能的魔力被释放到世界上,你最担心的事情又是什么?我认为人们现在能够做的最重要的事情就是真正地理解它。但是展望未来,我们希望这些技术可以被进一步整合,比如嵌入到我们的基础设施中去—例如整合到我们的电力基础设施里。到时你不仅需要解决技术方面的问题,还需要监管框架。为了让这个目标最终实现,我们必须从某个地方开始讨论监管问题。

另一个问题也非常重要,那就是人工智能会不会具备我们所谓的“危险能力”。人工智能可能会有两种滥用情形:一种是“正常的”滥用,另一种就是所谓人工智能的“叛变”。如果人工智能真的叛变了人类,我们应该怎么想呢?因为这已经脱离了人们日常使用的范畴,这种技术对国际政治的影响可能比我们创造出来的任何东西都大。它的影响将不啻于核武器。所以我们必须通过监管来解决这个问题。

我们看到,关于人工智能的未来,社会上出现了两个阵营:一个非常理想化,另一个则认为人工智能给人类带来了生存威胁。你对人工智能未来的期望是什么?

我认为它们都有可能。不过我是非常乐观的,我相信我们能够确保一切顺利。但技术本身就具有两种可能性,人工智能与我们创造的其他工具没有什么区别,它也可能被滥用,还有可能触发一些真正可怕的、甚至是灾难性的事件。人工智能的独特之处还在于它确实有可能给人类的生存造成威胁,也就是导致人类文明的终结。虽然我认为这种可能性很小,但确实存在这种可能性。因此这是一个非常值得思考的话题。

我们有一整个团队和大量算力是专门负责这个问题的,我们称之为“超级校准”(SuperAlignment)项目,任务就是确保这些系统始终按照我们的价值观来做事情。而这是一件很困难的事情。

猜你喜欢
穆拉人工智能模型
重要模型『一线三等角』
重尾非线性自回归模型自加权M-估计的渐近分布
2019:人工智能
人工智能与就业
数读人工智能
宴会
3D打印中的模型分割与打包
下一幕,人工智能!
FLUKA几何模型到CAD几何模型转换方法初步研究
宴会