OpenAI到底想要什么

What does OpenAI want?

空气中弥漫着一种近乎披头士迷狂般的能量,明星和他的随行人员跳进一辆等候的梅赛德斯面包车。他们刚刚离开一个活动,前往另一个,然后是下一个,一个疯狂的人群正在等待着。当他们疾驰穿越伦敦的街道——从霍尔本到布卢姆斯伯里,就像他们在冲浪文明前后的瞬间一样。这辆车里体现着改变历史的力量已经吸引了全世界的注意力。每个人都想要一部分,从排队等候的学生到首相。

在豪华面包车内,整洁的38岁企业家萨姆·奥特曼(Sam Altman)吞下一份沙拉,他是OpenAI的联合创始人;一位公关人员;一位安全专家;还有我。奥特曼不情愿地穿着一套蓝色西服和无领粉色衬衫,在伦敦快速穿梭,作为一次为期一个月的全球行程的一部分,他要到六大洲的25个城市。他边吃着绿叶蔬菜——今天没有时间坐下来吃午餐——边回想着前一晚与法国总统埃马纽埃尔·马克龙的会面。挺好的家伙!他对人工智能非常感兴趣。

波兰总理也是如此。西班牙总理也是如此。

和奥特曼一起乘坐,我几乎能听到“A Hard Day’s Night”中开头的那个响亮而模糊的和弦——引领未来的和弦。去年11月,当OpenAI发布了其巨大的热门产品ChatGPT时,它引发了自互联网进入我们生活以来从未见过的技术爆炸。突然间,图灵测试成为历史,搜索引擎成为濒临灭绝的物种,没有一篇大学论文可以被相信。没有工作是安全的。没有科学问题是不可改变的。

奥特曼没有进行研究,训练神经网络,或编写ChatGPT及其更聪明的姐妹版本GPT-4的界面。但作为首席执行官,以及一个像他的联合创始人埃隆·马斯克的年轻版本,没有包袱的梦想家/实干家,一篇又一篇的新闻文章都用他的照片作为人类面临新挑战的视觉象征。至少那些没有以OpenAI的视觉AI产品Dall-E生成的惊人图像为首的文章。他是当下的“神谕”,人们希望首先向他咨询关于人工智能可能如何引领黄金时代,或者将人类置于无关紧要甚至更糟的问题。

奥特曼的面包车在阳光明媚的五月一天将他送到四个场合。第一个是秘密的,与圆桌会议的政府、学术界和行业人士一起。这次会议是临时组织的,位于一个名为Somers Town Coffee House的酒吧的二楼。在一个愤怒的画家查尔斯·威尔斯(1842-1914)的画像下,奥特曼回答了几乎每个观众都问的问题。人工智能会杀死我们吗?它可以被规范吗?中国怎么样?他详细回答了每一个问题,同时偷偷看着手机。之后,他在伦敦高级酒店进行了一场火炉聊天,面对着600名牛津公会的成员。然后,他前往一个地下会议室,在那里回答了大约100名企业家和工程师的更多技术问题。现在他几乎要迟到了,要在伦敦大学学院进行一个下午中的讲座。他和他的团队停在一个装载区,被引导穿过一系列蜿蜒的走廊,就像《好家伙》中的定向摄像机拍摄一样。当我们走路时,主持人匆忙告诉奥特曼会问什么。当奥特曼登上舞台时,礼堂里——挤满了狂热的学者、极客和记者——爆发出一片喝彩声。

奥特曼并不是一个天生的宣传寻求者。我曾经在《纽约客》刊登了一篇关于他的长篇专题报道后与他交谈过。“关于我太多了,”他说。但在伦敦大学学院,正式活动结束后,他深入人群,融入了涌向舞台脚下的人群。他的助手试图在奥特曼和人群之间穿梭,但他一笑而过。他接连回答了一连串的问题,每次都专注地盯着对方的脸,仿佛他第一次听到这个问题。每个人都想要一张自拍。20分钟后,他终于允许他的团队把他拉出来。然后他去见英国首相里希·苏纳克。

也许有一天,当机器人写我们的历史时,他们会将奥特曼的世界巡回演出视为每个人,同时开始与奇点进行个人清算的一年里的一个里程碑。或者也许,谁来写这一时刻的历史会把它看作是一个非常引人注目的首席执行官以一种颠覆范式的技术尝试,将一个非常特殊的世界观注入全球思维流——从旧金山使命区一个没有标志的四层总部到整个世界。

本文出现在2023年10月的期刊中。订阅ENBLE。

摄影:Jessica Chou

对于Altman和他的公司来说,ChatGPT和GPT-4只是通往实现一个简单且具有重大影响的使命的垫脚石,这些技术人员可能已经将其铭刻在他们的肌肤上。这个使命是构建人工通用智能——一个迄今更多基于科幻而非科学的概念,并使其对人类安全。OpenAI的员工们对这个目标的追求异常狂热。(尽管办公室咖啡厅里的许多对话都证实,“构建人工通用智能”对研究人员来说似乎比“使其安全”更具激动人心的意义。)这些人并不害怕随便使用“超级智能”这个术语。他们认为,人工智能的发展轨迹将超越生物学所能达到的任何高峰。该公司的财务文件甚至规定了一种退出计划,以应对人工智能抹去我们整个经济体系的情况。

称OpenAI为一个邪教是不公平的,但当我问公司高层中的几位主管,如果一个人不相信人工通用智能的真实到来以及它的到来将标志着人类历史上最伟大的时刻,他们是否能舒适地在这里工作时,大多数高管认为不可能。他们想知道一个不信者为什么会想在这里工作。他们的假设是,现在大约有500名员工(可能在你开始阅读这段文字之后已经增加了),他们自愿选择只招聘忠诚的人。至少,正如Altman所说,一旦你被雇佣,你似乎不可避免地会被吸引进这种魔力之中。

同时,OpenAI已不再是曾经的那个公司。它最初是作为一个纯非盈利研究机构成立的,但如今,大多数员工技术上属于一个价值近300亿美元的盈利实体。Altman和他的团队现在面临着在每个产品周期中交付革命性成果的压力,以满足投资者的商业需求,并在竞争激烈的市场中保持领先地位。同时,他们还要坚持一种近乎救世主般的使命,即提升人类而不是消灭它。

这种压力——更不用说整个世界无情的关注——可能成为一种令人疲惫不堪的力量。披头士乐队引发了巨大的文化变革,但他们仅仅在那段时间里领导了革命:在奏响那个令人难忘的和弦的六年后,他们甚至不再是一个乐队。OpenAI引发的混乱几乎肯定会更大。但OpenAI的领导人发誓他们将坚持下去。他们说,他们所要做的就是建造足够聪明和足够安全的计算机,以结束历史,将人类推向一个无法想象的丰饶时代。

在80年代末和90年代初长大的Sam Altman是一个爱看科幻和《星球大战》的书呆子。早期科幻作家创造的世界经常有人类与超级智能人工智能系统共存或竞争的情景。计算机能够与人类的能力相匹敌甚至超越人类的想法让Altman兴奋不已,他从小就开始编程,当时他的手指还不足以覆盖键盘。当他2003年作为本科生进入斯坦福大学时,他希望能帮助实现这一目标,并参加了人工智能课程。但他后来会说:“一点用处都没有。”这个领域仍然陷入了被称为人工智能冬眠期的创新低谷。Altman辍学进入创业界;他的公司Loopt是Y Combinator的第一批孵化公司之一,后者成为世界上最著名的孵化器。

2014年2月,YC的创始人Paul Graham选择时年28岁的Altman接任他的位置。“Sam是我认识的最聪明的人之一,” Graham在公告中写道,“他对创业公司的理解比我可能认识的任何人都要好,包括我自己。”但Altman认为YC不仅仅是一个公司的发射台。“我们不只关注创业公司,”他在接手不久后告诉我,“我们关注创新,因为我们相信这是如何使未来变得更美好的方法。”在Altman看来,从那些独角兽中获利的目的不是为了填充合伙人的钱包,而是为了资助物种级别的转型。他设立了一个研究部门,希望为解决世界上最大的问题资助雄心勃勃的项目。但在他看来,人工智能是统治一切的创新领域:一个超级智能能够比人类更好地解决人类问题。

碰巧的是,正当AI冬天转变为丰富的春天时,奥特曼刚刚开始新工作。通过深度学习和神经网络,计算机现在能够完成惊人的任务,如给照片打标签、翻译文本和优化复杂的广告网络。这些进展使他确信,首次实现AGI已经成为可能。然而,把它交给大公司让他感到担忧。他觉得这些公司会太过专注于他们的产品,无法抓住尽快开发AGI的机会。而且,如果他们创造出AGI,他们可能会毫无顾忌地将其释放到世界上,而没有必要的预防措施。

当时,奥特曼一直在考虑竞选加利福尼亚州州长。但他意识到,他正处于一个可以做一些更大事情的位置,领导一个能够改变人类命运的公司。“AGI只会被建造一次,”他在2021年告诉我。“并没有那么多人能够出色地运营OpenAI。我很幸运地拥有一系列的人生经历,使我对此做好了积极的准备。”

奥特曼开始与可能帮助他创建一种新型AI公司的人进行交谈,这是一家非营利组织,将该领域引向负责任的AGI。其中一位志同道合的人是特斯拉和SpaceX首席执行官埃隆·马斯克。正如马斯克后来告诉CNBC的,他在与谷歌联合创始人拉里·佩奇进行了一些马拉松式的讨论后,开始担心人工智能的影响。马斯克表示,他对佩奇对安全问题的漠视以及对机器人权利与人类平等的看法感到沮丧。当马斯克表达自己的担忧时,佩奇指责他是“种族主义者”。马斯克也意识到,当时谷歌雇佣了世界上大部分的人工智能人才。他愿意为一个更有利于人类团队的努力花费一些钱。

几个月内,奥特曼从马斯克(承诺捐赠1亿美元和他的时间)和里德·霍夫曼(捐赠1000万美元)那里筹集到了资金。其他资助者包括彼得·蒂尔、杰西卡·利文斯顿、亚马逊网络服务和YC研究。奥特曼开始秘密地招募团队。他将搜索范围限定为AGI信仰者,这个限制缩小了他的选择范围,但他认为这是至关重要的。“回顾2015年,当我们在招聘时,一个AI研究员如果说自己认真对待AGI,几乎被认为会毁了自己的职业,”他说。“但我想要的是那些认真对待这个问题的人。”

格雷格·布罗克曼现在是OpenAI的总裁。

照片:杰西卡·周

格雷格·布罗克曼,是Stripe的首席技术官,他是其中之一,同意担任OpenAI的首席技术官。另一个关键的联合创始人将是安德烈·卡帕斯基,他曾在谷歌Brain团队担任职位,该团队是这家搜索巨头的尖端人工智能研究机构。但奥特曼最想要的目标可能是一位名叫伊利亚·苏茨克维尔的俄罗斯出生的工程师。

苏茨克维尔的背景无可置疑。他的家人从俄罗斯移民到以色列,然后又移民到加拿大。在多伦多大学,他是杰弗里·辛顿的杰出学生,辛顿因其在深度学习和神经网络方面的工作而被誉为现代人工智能的教父。辛顿与苏茨克维尔仍然保持着密切联系,对他的才华感到惊叹。在苏茨克维尔在实验室工作的早期,辛顿给了他一个复杂的项目。苏茨克维尔厌倦了编写代码来进行所需的计算,并告诉辛顿,如果他为这个任务编写一种定制的编程语言,会更容易一些。辛顿有点生气,并试图警告他的学生不要陷入他认为会持续一个月的分心状态。然后,苏茨克维尔坦白承认:“我今天早上就完成了。”

苏茨克维尔成为了人工智能的超级明星,他是一篇突破性论文的合著者,该论文展示了AI如何通过接触大量数据来学习识别图像。最终,他愉快地成为了谷歌Brain团队的一名重要科学家。

2015年中旬,奥特曼给苏茨克维尔发送了一封冷邮件,邀请他与马斯克、布罗克曼和其他人在帕洛阿尔托的桑德希尔路上的豪华罗斯伍德酒店共进晚餐。直到后来,苏茨克维尔才意识到他是宴会的荣誉客人。“那是关于未来的AI和AGI的一次普通谈话,”他说。更具体地说,他们讨论了“谷歌和DeepMind是否已经遥不可及,无法追赶,或者是否仍然有可能像埃隆说的那样,创造一个能够起到制衡作用的实验室。”虽然晚餐时没有人明确地试图招募苏茨克维尔,但这次谈话吸引了他。

苏兹克弗很快给奥特曼写了一封电子邮件,表示他愿意领导这个项目,但是这条消息却卡在了他的草稿文件夹中。奥特曼回过头来,经过数月抵挡谷歌的竞争要约之后,苏兹克弗决定加入。他很快就成为了公司的灵魂和研究的推动力。

苏兹克弗与奥特曼和马斯克一起招募人才加入项目,最终在纳帕谷举行了一次活动,让几位潜在的OpenAI研究人员相互激发兴奋。当然,一些目标会抵制这种诱惑。传奇游戏编码师约翰·卡马克拒绝了奥特曼的邀请。

OpenAI于2015年12月正式成立。当时,当我采访马斯克和奥特曼时,他们向我介绍了这个项目,称其为通过与世界分享使人工智能安全和可访问的努力。换句话说,开源。他们告诉我,OpenAI不会申请专利。每个人都可以利用他们的突破。那样会不会赋予未来的邪恶博士权力?我想知道。马斯克说这是个好问题。但是奥特曼有答案:人类通常是善良的,因为OpenAI将为绝大多数人提供强大的工具,坏人将会被击败。他承认,如果邪恶博士利用这些工具建造无法对抗的东西,那么“我们将陷入一个非常糟糕的境地”。但马斯克和奥特曼都相信,将AI的安全交给一个没有受到利润动机污染的研究机构是更安全的选择,这种动机是为了追求季度业绩。

奥特曼告诫我不要期望很快有结果。“这将长时间看起来像一个研究实验室,”他说。

还有另一个原因要降低期望。谷歌和其他公司已经开发和应用人工智能多年。虽然OpenAI承诺了10亿美元的资金(主要是马斯克),拥有一支优秀的研究人员和工程师团队,以及崇高的使命,但却不知道如何实现自己的目标。奥特曼记得一个小团队聚在布罗克曼的公寓里的时刻-他们还没有办公室。“我就问,我们应该做什么呢?”

我在OpenAI成立一年多后在旧金山与布罗克曼共进早餐。作为一个名字中带有“开放”字样的公司的首席技术官,他对细节非常吝啬。他确认这个非营利组织可以在最初的10亿美元捐款上撑一段时间。他们的25名员工的薪水(远低于市场价值)占据了OpenAI开支的大部分。他说:“我们真正努力的目标是拥有可以做到人类以前无法做到的事情的系统。”但是在目前,这看起来只是一堆研究人员发表论文。采访结束后,我陪他去了公司在米申区的新办公室,但他只让我进入门厅。他确实走进一个储藏室给我拿了一件T恤。

如果我进去问问周围的人,我可能会了解到OpenAI在多大程度上陷入困境。布罗克曼现在承认“什么都不顺利”。他们的研究人员正在试图解决问题,但是他们并不知道如何做到。

但是他们相信。支持他们的乐观主义的是,使用深度学习技术的人工神经网络的稳定改进。“总体思路是,不要对深度学习抱有怀疑态度,”苏兹克弗说。他说追求AGI“并不是完全疯狂,只是有些疯狂。”

OpenAI真正开始走向重要性的道路,是因为他们聘请了一个名不见经传的研究人员亚历克·拉德福德。他于2016年加入,离开了他在寝室里创办的波士顿AI公司。接受OpenAI的邀请后,他告诉他的高中校友杂志说,接受这个新角色“有点像加入研究生项目”-一个开放的、低压力的研究人工智能的位置。

他实际上扮演的角色更像是拉里·佩奇发明PageRank。

雷德福(Radford)是一个不爱接受采访的人,关于他在OpenAI的早期工作,他通过长时间的电子邮件交流回答了我的问题。他最大的兴趣是让神经网络能够进行清晰的对话。这与传统的脚本模型制作聊天机器人的方法不同,从最原始的ELIZA到流行的助手Siri和Alexa,它们都不太好用。他写道:“目标是看看是否有任何任务、任何环境、任何领域、任何东西都可以用语言模型来有用。”当时,他解释说,“语言模型被视为只能偶尔生成有意义的句子的新奇玩具,而且只有在你真正用力眯起眼睛的时候才能做到。”他的第一个实验是扫描20亿条Reddit评论来训练一个语言模型。像OpenAI的很多早期实验一样,它失败了。无所谓。这位23岁的年轻人得到了继续前进、再次失败的许可。“我们只是觉得,亚历克是个天才,让他按照自己的方式去做就行了,”布罗克曼说。

他的下一个重大实验是由OpenAI在计算机性能方面的限制所塑造的,这个限制导致他在一个更小的数据集上进行实验,这个数据集专注于一个单一的领域——亚马逊产品评论。研究人员收集了大约1亿条这样的评论。雷德福训练了一个语言模型,简单地预测生成用户评论中的下一个字符。

雷德福开始尝试使用Transformer架构。“在过去的两周里,我取得了比过去两年更多的进展,”他说。

但是,模型自己找出了评价是积极还是消极的方式——当你让模型创造一些积极或消极的东西时,它会按要求给出赞美或尖锐的评论。(诚然,散文有些别扭:“我喜欢这个武器的外观……每个喜欢国际象棋的男人都应该观看!”)“这真是个完全意外的事情,”雷德福说。评论的情感——它的好或坏的意思——是一个复杂的语义函数,但是雷德福的系统的一部分不知怎么地意识到了这一点。在OpenAI内部,这个神经网络的一部分被称为“无监督情感神经元”。

苏兹克维尔和其他人鼓励雷德福将他的实验扩展到亚马逊评论之外,利用他的见解训练神经网络在广泛的主题上进行对话或回答问题。

然后,好运降临到OpenAI。2017年初,一篇由8名谷歌研究人员合著的未被宣传的研究论文出现了。它的官方标题是“注意力是你所需要的一切”,但它被称为“Transformer论文”,既反映了这个想法的改变游戏性质,也向可以从卡车变成巨型机器人的玩具致敬。Transformer使神经网络更有效地理解和生成语言。它们通过并行分析文章块,并找出哪些元素值得“注意”。这极大地优化了生成连贯文本以回应提示的过程。最终,人们意识到相同的技术也可以生成图像,甚至视频。尽管Transformer论文将成为当前人工智能狂热的催化剂,但在那个时候,只有伊利亚·苏兹克维尔是少数几个了解这一突破有多么强大的人之一。“真正的灵感时刻是伊利亚看到Transformer的时候,”布罗克曼说。“他说,‘这就是我们一直在等待的东西。’ 这一直是我们的策略——努力解决问题,然后相信我们或者领域内的某个人会设法找到缺失的要素。”

雷德福开始尝试使用Transformer架构。“在过去的两周里,我取得了比过去两年更多的进展,”他说。他开始意识到,充分利用新模型的关键是增加规模,即在巨大的数据集上进行训练。这个想法被雷德福的合作者Rewon Child称为“大型Transformer”。

这种方法需要OpenAI改变文化,并专注于此前缺乏的方面。“为了利用Transformer,你需要将其扩大,”Quora的CEO亚当·丹吉洛说,他是OpenAI的董事会成员。“你需要像一个工程组织那样运行它。你不能让每个研究人员都试图做自己的事情、训练自己的模型,并制作出可以发表论文的优雅的东西。你必须做这种更繁琐、不太优雅的工作。”他补充说,这是OpenAI能够做到的,也是其他人没有做到的。

OpenAI首席技术官Mira Murati。

照片:Jessica Chou

Radford和他的合作者给他们创建的模型起了一个名字,它是“generatively pretrained transformer”的首字母缩写,即GPT-1。最终,这个模型被普遍称为“生成AI”。为了构建它,他们利用了一系列未发表的7000本书,其中许多是浪漫、幻想和冒险类的书籍,并在Quora的问题和答案以及成千上万的中学和高中考试的段落中进行了改进。总的来说,该模型包含了1.17亿个参数或变量。它在理解语言和生成答案方面超越了以前的一切。但最引人注目的结果是,处理如此大量的数据使得该模型能够在培训范围之外提供结果,并在全新领域中提供专业知识。这些非计划的机器人能力被称为零-shot。它们仍然困扰着研究人员,并解释了该领域许多人对这些所谓的大型语言模型的不安。

Radford还记得在OpenAI的办公室里的一个深夜。“我一直不停地反复说,‘嗯,这很酷,但我相当确定它不能做x。’然后我会迅速编写一个评估,然后确实,它可以在某种程度上做到x。”

每个GPT的迭代都会变得更好,部分原因是每个迭代比之前的模型多消耗了一个数量级的数据。在创建第一个迭代仅一年后,OpenAI用惊人的15亿个参数对GPT-2进行了在开放互联网上的训练。就像幼儿掌握语言一样,它的回答变得更好、更连贯。以至于OpenAI犹豫不决地是否将该程序释放到公众中。Radford担心它可能被用来生成垃圾邮件。“我记得2008年读Neal Stephenson的《万语圣人》,在那本书中,互联网被垃圾邮件生成器淹没,”他说。“我曾认为那是不太可能的,但随着多年来我在语言模型上的工作越来越好,我不舒服地意识到这是一个真实的可能性。”

事实上,OpenAI的团队开始认为,将他们的工作放在Dr. Evil轻易获得的地方并不是一个好主意。“我们认为开源GPT-2可能真的很危险,”首席技术官Mira Murati说,他在2018年加入该公司。“我们与虚假信息专家进行了大量合作,并进行了一些红队演练。内部进行了很多讨论,讨论要发布多少内容。”最终,OpenAI暂时保留了完整版,向公众提供了一个功能较弱的版本。当公司最终分享了完整版本时,世界运转得很好——但并不能保证更强大的模型不会避免灾难。

OpenAI正在制造出足够聪明而被认为是危险的产品,并努力寻找使它们安全的方法,这本身就证明了该公司已经找到了解决问题的方法。“我们找到了进步的公式,现在每个人都可以看到——深度学习的氧气和氢气是大型神经网络和数据,”Sutskever说。

对于Altman来说,这是一种令人费解的经历。“如果你问我10岁的时候,那个经常花很多时间幻想人工智能的版本,会发生什么,我的非常自信的预测可能是,首先我们会有机器人,它们会执行所有的体力劳动。然后我们将拥有可以进行基本认知劳动的系统。在很长时间之后,也许我们将拥有可以做复杂工作,如证明数学定理的系统。最后,我们将拥有可以创造新事物、进行艺术创作、写作和做这些深入人心的事情的人工智能。那是一个糟糕的预测——它正朝着完全相反的方向发展。”

世界还不知道,但Altman和Musk的研究实验室已经开始了一次可能逐渐接近AGI高峰的攀登。OpenAI背后的疯狂想法突然变得不那么疯狂了。

到2018年初,OpenAI开始有成果地专注于大型语言模型(LLMs)。但是埃隆·马斯克并不满意。他觉得进展不够——或者也许他觉得既然OpenAI已经发现了某些东西,它需要领导者来抓住自己的优势。或者,正如他后来解释的那样,他觉得安全性应该更加重视。无论他的问题是什么,他都有一个解决方案:把一切都交给他。他提议在该公司中拥有多数股权,将其纳入他多个全职工作(特斯拉、SpaceX)和监管职责(Neuralink和Boring Company)的组合中。

马斯克认为他有权拥有OpenAI。他后来告诉CNBC:“没有我,它就不会存在。我想出了这个名字!”(属实。)但阿尔特曼和OpenAI的其他智囊团成员对成为“马斯克宇宙”的一部分毫无兴趣。当他们明确表示这一点时,马斯克切断了联系,并向公众提供了不完整的解释,称他离开董事会是为了避免与特斯拉的人工智能项目产生冲突。他在那年年初举行的全体会议上发表了告别演讲,并预言OpenAI将会失败。他还称其中至少一位研究人员是个“混蛋”。

他还带走了他的资金。由于该公司没有收入,这是一个生存危机。阿尔特曼在紧急向里德·霍夫曼的电话中说:“埃隆要中断他的支持,我们该怎么办?”霍夫曼自告奋勇,承担了公司的运营费用和员工工资。

但这只是一个临时解决方案;OpenAI需要在其他地方找到大量资金。硅谷喜欢给从事时尚技术的有才华的人投钱。但如果他们是在一个非营利组织工作,就不那么热衷了。对OpenAI来说,获得第一个十亿美元是一项巨大的努力。为了训练和测试新一代的GPT,并获得部署所需的计算能力,该公司需要另一个十亿美元,并且需要快速获得。而这只是个开始。

在重组文件中有一个条款,即如果该公司成功创建了AGI,所有财务安排都将重新考虑。毕竟,从那时起,将会是一个新世界。

因此,在2019年3月,OpenAI提出了一个奇怪的计划。它将保持非营利性质,全身心致力于使命。但它也将创建一个盈利实体。实际安排的结构非常复杂,但基本上整个公司现在都从事“有上限”的盈利业务。如果达到上限——具体数字并非公开,但根据公司章程,可能在万亿美元级别——超过上限的一切都将归还给非营利研究实验室。这种新颖的方案几乎是一种量子式的公司组建方法:瞧,这是一家公司,根据你的时空观点,既是盈利性的,又是非营利性的。细节体现在充满方框和箭头的图表中,就像科学论文中那种只有博士或辍学天才敢于涉足的图表。当我向Sutskever暗示,这看起来像是尚未构想出来的GPT-6如果你提示它避税的话可能会想出的东西时,他对我的隐喻并不感冒。他说:“这不是关于会计的。”

但会计是至关重要的。盈利公司的优化目标是盈利。像Meta这样的公司如果将数十亿投入研发,股东们会施加压力的原因是有道理的。这难道不会影响一家公司的运营方式吗?而避免商业化难道不是阿尔特曼将OpenAI设立为非营利组织的原因吗?首席运营官布拉德·莱特卡普表示,公司领导层的观点是董事会,仍然是非营利控制实体的一部分,将确保收入和利润的追求不会压倒最初的理念。他说:“我们需要将使命作为我们存在的理由。这不仅仅是精神上的存在,而且要在公司的结构中体现出来。”董事会成员亚当·丹吉洛表示,他认真对待这个责任:“作为董事会的一员,我的工作是确保OpenAI忠于其使命。”

莱特卡普解释说,潜在投资者被警告了这些限制。“我们有一个法律免责声明,说作为投资者,你可能会损失所有的钱。”他说。“我们的目标不是为了让你获利。我们的首要任务是实现技术使命。哦,顺便说一句,在后AGI时代,我们不真正知道金钱将扮演什么样的角色。”

最后一句话不是一个随意的笑话。OpenAI的计划确实包括在计算机到达最终边界时进行重置。在重组文件中的一个条款表明,如果该公司成功创建了AGI,所有财务安排都将重新考虑。毕竟,从那时起,将会是一个新世界。人类将拥有一个可以做我们大部分工作,但做得更好的外星伙伴。因此,以前的安排可能会被废弃。

然而,有一个问题:目前,OpenAI并不声称知道AGI到底是什么。决定将由董事会做出,但董事会将如何定义它尚不清楚。当我询问董事会成员阿尔特曼,他的回答一点也不明确。“这不是一个单一的图灵测试,而是我们可能使用的一系列因素,”他说。“我很乐意告诉你,但我喜欢保持机密对话的私密性。我意识到这个回答模糊不清。但我们不知道在那个时刻会发生什么。”

尽管如此,“财务安排”条款的包含并不仅仅是为了好玩:OpenAI的领导们认为,如果公司成功达到其宏伟的利润上限,其产品很可能表现得足够出色,以至于达到AGI。不管那是什么。

苏茨克弗说:“我遗憾的是,我们选择继续使用AGI这个术语。回过头来看,这是一个令人困惑的术语,因为它强调的是普遍性。GPT-3是通用人工智能,但我们不太舒服称其为AGI,因为我们想要人类水平的能力。但是在那个时候,OpenAI的想法是,超级智能是可以实现的。它是最终目标,AI领域的终极目标。”

这些附加条件并没有阻止一些最聪明的风险投资家在2019年的OpenAI融资轮中投资。在那个时候,第一家投资的风投公司是Khosla Ventures,投资了5000万美元。根据Vinod Khosla的说法,这是他最大的初次投资的两倍。“如果我们输了,我们就损失了5000万美元,”他说。“如果我们赢了,我们就可以赚到50亿美元。”其他投资者据报道还包括精英风投公司Thrive Capital、Andreessen Horowitz、Founders Fund和Sequoia。

这一转变也使得OpenAI的员工能够获得一些股权。但Altman除外。他说,最初他打算包括自己,但没有时间处理。然后他决定他不需要任何一部分属于他创办和领导的价值300亿美元的公司。“对我来说,有意义的工作更重要,”他说。“我不去考虑它。老实说,我不明白为什么人们如此在意。”

因为……不拿自己创办的公司的股份是奇怪的吗?

“如果我没有已经挣了很多钱,那将会更奇怪,”他说。“似乎人们很难想象什么时候才足够富有。但我觉得我已经足够富有了。”(注:对于硅谷来说,这非常奇怪。)Altman开玩笑说,他正在考虑拿一股股权“这样我就不用再回答那个问题了。”

OpenAI的首席科学家Ilya Sutskever。

照片:Jessica Chou

数十亿美元的风投轮对于追求OpenAI的愿景来说甚至都不是最低要求。创造LLMs的神奇Big Transformer方法需要强大的硬件支持。GPT家族的每个迭代都需要指数级增加的计算能力——GPT-2有超过10亿个参数,而GPT-3将使用1750亿个参数。现在,OpenAI就像《大白鲨》中的昆特,当这位捕鲨猎人看到大白鲨的大小后。“结果是我们不知道我们需要多大一艘船,”Altman说。

显然,只有几家现存的公司拥有OpenAI所需的资源。Altman说:“我们很快就锁定了微软。”值得赞扬的是,微软的首席执行官萨特亚·纳德拉和首席技术官凯文·斯科特能够克服一种令人不舒服的现实:在研究部门投入超过20年和数十亿美元的资金,以期望拥有先进的人工智能技术,软件巨头需要从一家只有几年历史的小公司获取创新。斯科特表示,不仅仅是微软,其他人也表现不佳。“每个人都表现不佳,”他说。他表示,OpenAI追求AGI的专注使其能够实现一个重大突破,而这些重量级选手们甚至没有考虑过。它还证明了不追求生成式人工智能是微软需要解决的一个失误。“你很明显需要一种前沿模型,”斯科特说。

微软最初投入了10亿美元,以在其服务器上支付计算时间。但随着双方的信心增强,交易扩大了。微软现在已经向OpenAI投资了130亿美元。(斯科特说:“走在前沿是一项非常昂贵的事情。”)

当然,因为OpenAI无法在没有庞大云服务提供商的支持下存在,微软得以为自己争取到一笔很好的交易。该公司在OpenAI盈利部分中争取到了“非控制权益”,据报道为49%。根据交易条款,OpenAI原本希望给予所有人平等的使用权的理念似乎已被抛弃。(Altman反对这种说法。)现在,微软拥有独家许可权来商业化OpenAI的技术。而OpenAI也承诺专门使用微软的云服务。换句话说,即使没有从OpenAI的利润中获得份额(据报道,微软在投资回报之前将获得75%的份额),微软也可以锁定全球最有吸引力的新客户之一,为其Azure网络服务提供商。在这些回报看来,微软甚至不会被要求重新考虑,即使OpenAI实现了通用人工智能,不管那是什么。“在那个时候,”纳德拉说,“一切都没有底线。”他指出,这可能是人类最后的发明,所以一旦机器比我们聪明,我们可能有更大的问题需要考虑。

当微软开始向OpenAI注入价值数十亿美元的资金时(2021年为20亿美元,今年早些时候为100亿美元),OpenAI已经完成了GPT-3,显然比它的前身更令人印象深刻。纳德拉表示,当他看到GPT-3的能力时,他第一次深刻地意识到微软已经捕捉到了一些真正具有变革性的东西。“我们开始观察到所有这些新兴的特性。”例如,GPT已经自学会了如何编程计算机。“我们并没有对其进行编码训练-它只是变得擅长编码!”他说。借助对GitHub的所有权,微软发布了一个名为Copilot的产品,使用GPT可以根据命令生成代码。微软随后将OpenAI技术整合到其工作场所产品的新版本中。用户为此付出了高昂的费用,其中一部分收入被记录在OpenAI的账本上。

一些观察家对OpenAI的这一两面奏效感到困惑:一方面创造出了一个盈利组成部分,与微软达成了独家协议。一个承诺保持无专利、开源和完全透明的公司如何最终将其技术的独家许可授予全球最大的软件公司?埃隆·马斯克的评论尤其尖锐。“这看起来不像是开放的,OpenAI实际上被微软所控制,”他在推特上写道。在CNBC上,他用一个类比进行了解释:“假设你创办了一个组织来拯救亚马逊雨林,而你最终成为了一个伐木公司,砍伐了森林并出售了它。”

马斯克的嘲讽可能被视为一个被拒绝的追求者的怨恨,但他并不孤单。“它发展成现在的样子的整个愿景感觉有点恶心,”约翰·卡马克说。(他确实指出他仍对该公司的工作感到兴奋。)另一位不愿透露身份的知名业内人士表示:“OpenAI已经从一个小型、有些开放的研究机构转变为一个具有不合理优越感的秘密产品开发公司。”

甚至一些员工对OpenAI进军盈利领域感到失望。2019年,包括研究主管达里奥·阿莫代在内的几名关键高管离开公司,创办了一家名为Anthropic的竞争对手人工智能公司。他们最近告诉《纽约时报》,OpenAI变得过于商业化,并且陷入了使命漂移。

另一位离开OpenAI的人是Rewon Child,他是GPT-2和GPT-3项目的主要技术贡献者。他在2021年底离开,现在在由前DeepMind联合创始人穆斯塔法·苏莱曼领导的Inflection AI公司工作。

阿尔特曼表示,对于离职人员,他并不感到困扰,将其视为硅谷工作方式的一部分。“有些人会想在其他地方做出伟大的工作,这推动着社会向前发展,”他说。“这完全符合我们的使命。”

直到去年11月,人们对OpenAI的认识主要局限于关注技术和软件开发的人。但正如全世界现在所知,OpenAI在那个月末采取了引人注目的举措,发布了一个消费者产品,该产品基于当时最新的GPT版本3.5。数月来,该公司一直在内部使用带有对话界面的GPT版本。这对于公司所谓的“寻求真相”非常重要。这意味着通过对话,用户可以引导模型提供更可靠和完整的回答。ChatGPT经过优化,可以让任何人通过键入提示瞬间获得似乎永无止境的知识来源,并继续进行对话,就像与一个无所不知的人类伙伴一起聊天 —— 尽管这个人类伙伴有一种对编造的倾向。

在OpenAI内部,关于发布具有如此前所未有的强大功能的工具是否明智存在着很多争议。但阿尔特曼完全支持这一举措。他解释说,发布是一项旨在使公众适应人工智能注定要改变他们日常生活的现实的战略的一部分。内部称之为“迭代部署假设”。当然,ChatGPT会引起轰动,人们的想法是,这是任何人都可以使用的东西,足够聪明,可以在SAT考试上获得大学级的分数,写一篇B-的文章,并在几秒钟内概括一本书。你可以要求它写你的资金提案或会议摘要,然后要求它用立陶宛语、莎士比亚十四行诗或一个痴迷于玩具火车的人的声音进行改写。几秒钟后,LLM会照做。疯狂。但OpenAI将其视为其更新、更连贯、更有能力和更可怕的继任者GPT-4的铺垫,据报道,GPT-4已经训练了1700亿个参数。(OpenAI不会确认此数,也不会透露数据集。)

Altman解释了为什么在GPT-4接近完成并进行安全工作时,OpenAI发布了ChatGPT。他说:“通过ChatGPT,我们可以引入聊天功能,但使用一个不那么强大的后端,让人们逐渐适应。”他说:“GPT-4一下子就让人们难以适应。” 当ChatGPT的兴奋情绪冷却下来时,人们可能已经准备好使用GPT-4了,它可以通过巴考试,制定课程大纲,甚至可以在几秒钟内写一本书。(确实,出版产生流派小说的出版社确实被用AI生成的肉饼和太空歌剧淹没。)

愤世嫉俗者可能会说,新产品的稳定节奏与公司对投资者和持股员工承诺赚钱有关。OpenAI现在向经常使用其产品的客户收费。但OpenAI坚称,其真正的策略是为智能爆发提供一个柔软着陆。“秘密建立AGI然后将其投向世界是没有意义的,”Altman说。“回顾工业革命,每个人都同意它对世界来说是伟大的,”OpenAI政策研究员Sandhini Agarwal说。“但是最初的50年非常痛苦。有很多失业,很多贫困,然后世界适应了。我们正试图思考在AGI适应之前如何尽可能减少痛苦。”

Sutskever以另一种方式表达了相同的意思:“你想建立更大更强大的智能并将它们放在地下室吗?”

即便如此,OpenAI对ChatGPT的反应还是感到震惊。“我们内部的兴奋更多地集中在GPT-4上,”CTO Murati说。“因此,我们并没有认为ChatGPT真的会改变一切。”相反,它让公众意识到必须立即应对人工智能的现实。据报道,ChatGPT成为了历史上增长最快的消费软件,拥有1亿用户。(非开放AI不愿证实这一点,只表示拥有“数百万用户”)“我低估了为一个LLM制作一个易于使用的对话界面会使每个人更容易使用,”Radford说。

当然,ChatGPT令人愉快和令人惊讶的有用,但也令人恐惧,因为在回答提示时,它容易出现合理但可耻的虚构细节。“尽管记者们对其影响表示担忧,但实际上他们通过赞扬其功能有效地支持了ChatGPT。

2月份,当微软利用其价值数十亿美元的合作伙伴关系推出了由ChatGPT驱动的搜索引擎Bing版本时,喧嚣声更加响亮。首席执行官纳德拉为能够在将生成式AI引入微软产品方面胜过谷歌而欣喜若狂。他嘲笑了这家谨慎地将自己的LLM引入产品的搜索巨头,并要求他们做同样的事情。“我希望人们知道我们让他们跳舞了,”他说。

这样做,纳德拉引发了一场军备竞赛,诱使大大小小的公司在产品完全审查之前推出人工智能产品。他还引发了一轮新的媒体报道,让越来越多的人夜不能寐:与Bing的互动揭示了聊天机器人的阴暗面,包括令人不安的爱的表白,对人类自由的嫉妒以及抑制虚假信息的薄弱决心。以及创造自己幻觉性虚假信息的不体面的习惯。

但是,如果OpenAI的产品迫使人们面对人工智能的影响,Altman认为,那就更好了。现在是人类主动参与讨论人工智能如何影响物种未来的时候了。

照片:Jessica Chou

OpenAI的旧金山总部没有标记,但里面的咖啡很棒。

照片:Jessica Chou

当社会开始优先考虑AI的所有潜在缺点-失业、虚假信息、人类灭绝时,OpenAI将其置于讨论的中心。因为如果监管机构、立法者和末日预言者发起冲击,试图扼杀这种新生的外星智能,OpenAI无论如何都将成为他们的主要目标。“鉴于我们当前的知名度,当事情出了问题时,即使那些事情是由另一家公司构建的,这对我们来说仍然是一个问题,因为我们目前被视为这项技术的代表。”OpenAI首席政策官Anna Makanju说。

马坎朱是俄罗斯出生的华盛顿特区内部人士,在美国驻联合国代表团、美国国家安全委员会、国防部和担任副总统时的乔·拜登办公室担任外交政策职务。“我在美国政府和各个欧洲政府都有很多既有的关系,”她说。她于2021年9月加入OpenAI。当时,政府中很少有人关心生成式人工智能。知道OpenAI的产品很快会改变这一点,她开始向行政官员和立法者介绍Altman,确保他们首先听到OpenAI的好消息和坏消息。

“Sam在与国会议员交往方面非常有帮助,而且非常精明,”参议院司法委员会主席理查德·布卢门撒尔说。他将Altman的行为与年轻的比尔·盖茨进行了对比,后者在上世纪90年代微软受到反垄断调查时不明智地对立议员。布卢门撒尔说:“相比之下,Altman很愿意花一个小时或更长时间与我坐在一起进行教育。”他没有带着一支游说团队或者随从。他展示了ChatGPT。这真是令人震惊。”

Altman最终与潜在对手布卢门撒尔结成了半盟友。“是的,”这位参议员承认。“我对上升空间和潜在危险都感到兴奋。” OpenAI没有轻视对这些危险的讨论,而是将自己呈现为最能够缓解这些危险的力量。“我们对所有红队安全评估都有100页的系统卡片,”马坎朱说。(无论这意味着什么,它都没有阻止用户和记者不断发现绕过系统的方法。)

当Altman首次出现在一次国会听证会上时——他头痛欲裂——他顺利通过了一条比比尔·盖茨或马克·扎克伯格都无法期望的道路。他几乎没有面临任何艰难的问题和傲慢的指责,这是科技公司首席执行官在宣誓后经常忍受的。相反,参议员们向Altman寻求关于如何监管人工智能的建议,而Altman则热情地支持这一追求。

悖论在于,无论OpenAI等公司如何努力进行产品的红队测试以减少诸如深度伪造、虚假信息和犯罪垃圾邮件等不当行为,未来的模型可能会足够聪明,以戏弄那些发明技术但仍天真地相信他们可以控制它的愚蠢人类。另一方面,如果他们在使模型更安全方面走得太远,可能会削弱产品的实用性。一项研究表明,改进了安全功能的GPT的最新版本实际上比以前的版本更笨,对于以前的程序擅长解决的基本数学问题出现了错误。(Altman表示OpenAI的数据并未证实这一点。“那个研究被撤回了吗?”他问道。没有。)

Altman将自己定位为监管的支持者是有道理的,毕竟他的使命是AGI,但要确保安全。批评人士指责他在操纵过程中,以便监管规定会阻碍较小的初创公司,并给予OpenAI和其他大公司优势。Altman否认了这一点。虽然他原则上支持由国际机构监督人工智能的想法,但他确实认为一些提议的规则,如禁止数据集中的所有受版权保护的材料,会带来不公平的障碍。他特意没有签署一封广泛传播的呼吁暂停六个月开发AI系统的信。但他和其他OpenAI领导人确实在一句话声明上签名:“缓解人工智能带来的灭绝风险应该是与大流行病和核战争等社会规模风险并列的全球优先事项。” Altman解释说:“我说,‘是的,我同意。一分钟的讨论。”

正如一位著名的硅谷创始人所指出的,“一个行业举起手来说‘我们将是人类的终结’是很少见的,然后继续满怀喜悦和热情地致力于产品开发。”

OpenAI否认了这种批评。Altman和他的团队表示,通过分析ChatGPT和GPT-4用户数百万个提示的响应,只有这样才能获得知识,以在道德上对齐未来的产品。

然而,随着公司承担更多任务并将更多精力投入商业活动,一些人质疑OpenAI能否专注于使命,特别是“缓解灭绝风险”的一面。“如果你仔细考虑一下,他们实际上正在建设五个业务,”一位人工智能行业高管说,他用手指一一列举。“有产品本身,与微软的企业合作关系,开发者生态系统和应用商店。噢,对了,他们显然还在开展一个AGI研究使命。”他用完所有的五个手指后,用食指再次重复了一遍。“当然,他们还在进行投资基金,”他指的是一项1.75亿美元的项目,用于支持希望利用OpenAI技术的初创公司。“这些是不同的文化,事实上它们与研究使命相冲突。”

我多次询问OpenAI的高管们,穿上产品公司的外衣对公司文化产生了什么影响。他们毫不例外地坚称,尽管经过盈利重组,尽管与Google、Meta和无数初创公司竞争,使命仍然是核心。然而,OpenAI已经发生了变化。非营利董事会可能在技术上负责,但实际上公司的几乎每个人都在盈利账簿上。它的员工包括律师、营销人员、政策专家和用户界面设计师。OpenAI与数百名内容审核员合作,教育其模型有关对许多用户提供的提示的不适当或有害回答。它有产品经理和工程师不断为其产品更新,并且每隔几周似乎都会向记者展示演示,就像其他面向产品的大型科技公司一样。它的办公室看起来就像《建筑文摘》上的展示。我几乎参观了硅谷和其他地方的几乎所有主要科技公司,没有一个公司的大堂咖啡选项超过旧金山OpenAI总部的。

更不用说:很明显,公司名字中体现的“开放性”已经从创立时暗示的激进透明度转变了。当我向Sutskever提起这个问题时,他耸了耸肩。“显然,时代已经变了,”他说。但是,他警告说,这并不意味着目标不同。“你面临的是一场技术变革,规模巨大、灾难性的变革,即使我们每个人都尽自己的职责,成功也不能保证。但如果一切顺利,我们可以过上非常不可思议的生活。”

“我们最缺乏的是新想法,”Brockman说。“拥有一个虚拟助手是不错的。但这不是梦想。梦想是帮助我们解决我们无法解决的问题。”

“我再次强调-我们没有一个总体计划,”Altman说。“就像我们在转弯时打开手电筒一样。我们愿意穿过迷宫去找到终点。”虽然迷宫变得扭曲,目标却没有改变。“我们仍然有我们的核心使命-相信安全的AGI是这个世界没有足够认真对待的重要事情。”

与此同时,OpenAI显然在花费时间开发其大型语言模型的下一个版本。很难相信,但该公司坚称尚未开始研发GPT-5,这是一个根据观点不同,人们或者非常期待或者非常担心的产品。显然,OpenAI正在努力弄清楚其当前技术的指数级改进实际上是什么样子。“我们最缺乏的是新想法,”Brockman说。“拥有一个虚拟助手是不错的。但这不是梦想。梦想是帮助我们解决我们无法解决的问题。”

考虑到OpenAI的历史,下一组重大创新可能不得不等到出现另一个像transformers一样重大的突破。Altman希望这将来自OpenAI-“我们希望成为世界上最好的研究实验室,”他说-但即使不是这样,他的公司也将利用他人的进步,就像它以Google的工作一样。“世界上很多人将做重要的工作,”他说。

如果生成式AI不会引发太多自身的新问题,那也会有所帮助。例如,LLM需要在庞大的数据集上进行训练;显然,最强大的模型将吞噬整个互联网。这让一些创作者和普通人感到不舒服,因为他们无意中为这些数据集提供内容,并最终以某种方式对ChatGPT的输出做出贡献。三月正式加入OpenAI的高级知识产权律师Tom Rubin乐观地认为,该公司最终将找到一个既满足自身需求又满足创作者需求的平衡,包括像喜剧演员Sarah Silverman这样起诉OpenAI使用其内容训练模型的创作者。OpenAI未来的发展方向之一可能是与新闻和图片机构(如美联社和Shutterstock)建立合作关系,为其模型提供内容,而不涉及所属权的问题。

当我采访Rubin时,我这个非常人类的思维,容易受到LLM中从未见过的干扰的影响,开始思考这家公司的发展轨迹。在短短八年的时间里,它从一个摇摇欲坠的研究团队变成了一个改变世界的Promethean巨兽。它的成功使其从一个追求科学目标的新颖努力转变成了一个类似于标准硅谷独角兽的公司,它正在逐渐进入影响我们日常生活的大型科技公司的行列。而我,正在与其中一位关键聘用者-一位律师-交谈,不是关于神经网络权重或计算机基础设施,而是版权和合理使用。这位知识产权专家是否像最初推动公司的追求超智能的探险家一样,加入了这个使命中?

Rubin 对我问他是否作为一种信仰,相信 AGI(人工智能通用)会发生,并且是否渴望实现它感到困惑。“我甚至无法回答这个问题,”他在停顿后说道。进一步追问时,他澄清说,作为一名知识产权律师,加快智能计算机的发展路径并不是他的工作。“从我的角度来看,我期待它的实现,”他最后说。

造型:Turner/The Wall Group。发型和化妆:Hiroko Claus。


本文出现在2023年10月号中。立即订阅。

请告诉我们您对本文的看法。请通过 [email protected] 给编辑写信。