当前位置: 首页 » 资讯 » 新科技 » 正文

OpenAI联合创始人揭秘为何 “杀掉” Sora:1220亿美元换不来无限算力

IP属地 中国·北京 编辑:杨凌霄 大力财经 时间:2026-04-04 15:10:17

头图及封面来源 | YouTube@Alex Kantrowitz

最近几个月,OpenAI的战略动作让人有些看不懂。

一方面,他们野心勃勃,自2月以来,收编了OpenClaw(龙虾)创始人,完成了1220亿美元的巨额融资,甚至有消息称,他们正在秘密打造一款集成了ChatGPT、代码能力和浏览器的超级应用(Super App)。但另一方面,他们又显得异常克制——竟然主动叫停了曾惊艳全球的视频生成模型 Sora。

一边是高歌猛进,一边是急刹车,OpenAI 到底在盘算什么?

就在外界猜测不断时,OpenAI 联合创始人兼总裁Greg Brockman在《Big Technology》播客中罕见地交了底。这场对谈,堪称OpenAI 近期最坦诚的一次对外发声。

YouTube@Alex Kantrowitz

Brockman直言,关停Sora并非技术遇到瓶颈,而是在算力极度稀缺的现实面前,OpenAI 必须做出的“痛苦抉择”——砍掉旁枝,死保主干。

这根主干,就是通往AGI的核心推理模型,以及那个即将把AI门槛彻底踩碎的Super App。

这次访谈的核心话题,主要围绕四个纯技术与产品维度:AI 自我进化、超级应用战略、通往 AGI 的路径,以及算力扩展与新模型“Spud”。对话中,Brockman 不仅回应了关于Super App的野心、新基座“Spud”的进展,还首次彻底揭开了OpenAI狂奔背后的算力账本。

以下是对话全文(已编译):

叫停 Sora,放弃做“AI界迪士尼”

Alex Kantrowitz:这会儿,OpenAI正在关闭视频生成业务,并将精力集中在一个结合了商业和编程的SuperApp上。我想包括我自己在内的旁观者都会觉得,OpenAI在消费者领域正在获得越来越多的用户,现在却突然转移资源。到底发生了什么?

Greg Brockman:我们开发深度学习(deep learning)技术,是为了真正去看它是否能产生我们一直设想的积极影响。它能不能用来开发帮助人们、改善他们生活的应用程序?

我们另外还有一个部门在说,不管是为了帮助维持业务,还是为了获得一些在现实世界中能产生影响的实践经验,我们都可以真正尝试部署这项技术。这一切都是为了这项技术真正成熟的那一天。

我认为我们现在正处在这样一个阶段:我们看到了这项技术的应用前景。现在我们正在走出基准测试及类似纯智力能力展示的阶段,进入到了实际应用的时候。

为了进一步开发这项技术,我们需要把它放到现实世界中去,并从人们在知识工作和各种应用中的使用方式获取反馈。

因此,我会把它看作是由于技术发展而发生的一次更大的战略转变。这与其说我们在从消费者转向B2B,不如说我们在问:我们可以专注的最重要的应用是什么?

我们不可能专注于所有事情。所以我们要考虑哪些是我们能够付诸实践的、在开发过程中能够相互协同、并且能够产生有意义影响的事情?

在消费者方面,你可以把它想象成很多东西,但其中一个是个人助理(person alassistant)。一个了解你、与你的目标一致、并且将帮助你实现生活中任何目标的助理。此外还有创意表达、娱乐以及许多其他应用。

在商业方面,如果你放眼全局,它看起来更像是一件事:你有一个艰巨的任务,AI能去完成吗?它是否拥有完成这些事情的所有上下文?

对我们来说,如果按优先级排序,最重要的只有两件事,一个是个人助理,另一个是能够为你解决难题的AI。

当我们反观自己拥有的算力时,我们甚至没有足够的算力来支持这两件事。所以,一旦我们开始增加许多其他应用、许多AI,这可能对人们有一些帮助,但我们根本不可能面面俱到。

因此,这是对技术成熟度及其将迅速产生的巨大影响的认知,也是我们需要确定优先级、真正挑选出我们想要让其大放异彩并带给世界的应用的必然结果。

Alex Kantrowitz:我记得之前你谈论OpenAI的各种押注时,你描述的一种方式是OpenAI可以成为某个版本的迪士尼。先在中心拥有这种核心的、令人信服的优势,然后以不同的方式将其扩展开来。比如,迪士尼有米老鼠,然后它可以做电影、主题公园和Disney+。

而对于OpenAI,核心是模型,你可以做视频生成、成为助理、然后协助企业和工作。那么,现在是否不再可能拥有这种中心优势并将其向各个方向扩展了呢?你们是不是已经意识到该做出取舍了?

Greg Brockman:我认为在某些方面,这个故事比以往任何时候都更加真实。但必须认识到的一点是,在技术上,Sora模型与核心的推理GPT系列处于科技树(tech tree)的不同分支。它们的开发方式非常不同。在某种程度

上,不得不承认,我们很难同时追求两个分支。

现在我们实际上在机器人技术的背景下继续推进Sora的研究项目,我认为这将是一个变革性的应用,但它仍处于研究阶段。机器人技术还没有真正成熟。在未来一年里,我们将看到AI技术在知识工作领域迎来真正的爆发,但目前的机器人技术还无法实现那种程度的落地部署。

所以这是一种认知,即在这个时刻,我们真的需要把主要精力放在开发GPT系列上。

这不仅仅意味着文本。它不仅是纯智力的东西,例如,它还拥有双向交互和出色的语音对语音接口(speech-to-speech interface)。这也是一项将使这项技术变得非常易用和非常有用的东西,但它不是科技树的另一个分支。

它们都在同一个模型框架内,我们只是像你描述的那样,以略微不同的方式对其进行调整。如果你分支得太远,拥有两个不同的产物,在算力有限的世界里是很难维持的。算力有限是因为人们需求太大了。人们想用我们创造的每一个模型做的事情太多了。

Alex Kantrowitz:好的。那么请谈谈为什么你们的赌注没有押在这个世界模型(Sora)上,即视频能理解事物的运转。它显然对机器人技术很有用。既然看到视频生成前三代的进展如此巨大,为什么你们还把赌注押在了GPT推理模型树上?

Greg Brockman:这个领域的问题在于机会太多了。我们在OpenAI早期观察到的一点是,我们能想象到的每一件事现在都能行得通,只是伴随着不同程度的摩擦、不同的工程努力和算力要求。每一个不同的想法,只要在数学上是合理的,你实际上就能获得一些相当好的结果。

这就是底层深度学习技术的威力,它能接受任何类型的问题并触及问题的核心,让AI真正理解生成数据的底层规则。所以这不是关于数据本身,而是关于理解底层过程,并能够将其应用于新的上下文。你可以将其应用于世界模型、科学发现或编程。

当我们考虑推出这项技术时,一直有这样的争论:文本模型能走多远?你能否对世界的运作方式有一个真实的认知?我们现在已经明确回答了这个问题:它确实会走向AGI(通用人工智能)。在这个时间点,我们看到了今年即将到来的这些更好的模型的清晰路径。

为了决定如何分配算力,我们在OpenAI内部经历的痛苦也是有增无减的。所以也许核心在于,这是一个关于顺序和时机的问题

在这个时刻,我们一直梦想的各种应用开始触手可及。例如,解决未解的物理问题。我们最近有一个成果:一位物理学家研究一个问题已经有一段时间了,他把它交给了我们的模型。12小时后,我们得到了一个解决方案。

他说这是他第一次看到一个让他觉得在思考的模型,感觉这可能是一个人类永远无法解决的问题,而我们的AI解决了它。

当你看到这样的事情时,你必须加倍甚至三倍下注,因为我们真的可以为人类释放所有这些潜力。所以对我来说,这不是关于这些事情的相对重要性。更多的是关于OpenAI将AGI带给世界的使命。我们有一棵科技树,我们知道如何去推动它,如何做工程、做进一步的科学研究,让它最终开花结果。

Alex Kantrowitz:今年早些时候我与Google DeepMind的Demis Hassabis谈过。有趣的是,他说对他来说感觉最接近AGI的是他们的图像生成器NanoBanana。

原因在于,图像生成器或视频生成器要创造图像和视频,它必须理解对象之间的互动,并至少对世界是如何运作的有一定的概念。所以,这是一个巨大的赌注,如果情况确实如此,OpenAI在另一棵树上加倍下注,是否可能会错失一些东西?

Greg Brockman:有两个答案。第一,绝对有可能。在这个领域,你仍然必须做出选择,必须下注。这其实也是OpenAI的出发点,我们在问,我们相信的通向AGI的路径是什么,并非常努力地专注于此。随机向量的总和是零,但如果你对齐你的向量,你就能朝着一个方向前进。

第二个观点是,实际上图像生成在ChatGPT内部非常受欢迎,这也是我们继续投资、继续优先考虑的东西。我们能够做到这一点,是因为它实际上并不在扩散模型(diffusion model)等世界模型的技术分支上,它实际上是基于GPT架构的。

所以尽管它的数据分布不同,但核心技术在底层堆栈上是同一个东西。这其实是AGI相当疯狂的地方,有时候这些看起来非常不同的应用,比如语音到语音、图像生成、文本(文本本身也包括科学、编程、个人健康等),所有这些你都可以在一个技术框架(technological envelope)内完成。

所以我正在关注的,也是我们作为一家公司正在关注的,是如何让我们的技术努力尽可能地统一

因为我们真的将这项技术视为将提升并推动整个经济发展的动力。经济是一个庞然大物,我们不可能涵盖所有方面,但我们可以做好我们的部分,那就是人工智能中的“通用”部分。

Super App让计算机“主动迎合”人类

Alex Kantrowitz:说到统一,这个Super App会是什么样?是把编程、浏览器和ChatGPT结合在一起吗?

KrASIA

Greg Brockman:没错。我们想要构建的是一个为你服务的终端应用程序,真正让你体验AGI的威力,体验这种通用性。如果你在想今天的ChatGPT是什么,我认为它将成为你的私人助理、你的私人AGI。一个照顾你、了解你、与你的目标一致、值得信赖的AI,它在这个数字世界中代表你。

以前它主要是我们为软件工程师构建的一个工具,但它正在成为面向所有人的Codex。任何人都可以使用它让计算机去完成他们想做的事情。

现在已经不再仅仅是关于编写软件了,它几乎涵盖了计算机的所有使用。比如我用它来设置我笔记本电脑上的系统快捷键,Codex直接就做好了。这才是计算机本来该有的样子:迎合人类,而不是让人类去适应它们。

所以想象一下有这么一个应用,任何你想让计算机做的事情,你都可以问它。它内置了计算机使用和浏览功能,允许AI实际使用网络浏览器,而你可以监督AI正在做什么。

你所有的对话——无论是聊天、编程,还是常规知识工作——都统一起来,AI有记忆,了解你。这就是我们正在构建的东西。

但其实这只是冰山一角。

对我来说更重要的是技术上的统一。过去几年真正改变的不仅是模型,而是关于工具链(harness)。模型如何获取上下文?它如何连接到世界?它可以采取什么行动?与模型交互的循环是如何运作的?

所有这些我们曾经有多种不同的实现方式,而现在我们正在将其收敛为一个统一的版本。最终形成一个可以非常轻量级地指向特定应用程序的AI层。

这样一来,你可以建立一个小插件或专门的UI来处理金融或法律,但通常不需要,因为这一个Super App将非常广泛。

Alex Kantrowitz:这个应用是针对商业还是个人?

Greg Brockman:两者都是。这才是真正的核心:就像你的笔记本电脑,它是个人用的还是商业用的?两者都是。它是你的个人机器,为你提供与数字世界交互的接口。

Alex Kantrowitz:从非商业角度来看,我在个人生活中使用这个SuperApp,能用它来做什么?我的生活会发生怎样的改变?

Greg Brockman:在个人生活中,就像你现在使用ChatGPT一样。人们在各种场景都能用到它。

比如,“我要在婚礼上致辞,能帮我起草一下吗?”“你能给我这个想法一些反馈吗?”“我正在做个小生意,能给我一些点子吗?”这或许就开启了个人与工作之间的桥梁。

任何问题,你都能去Super App里问。

回想ChatGPT的过去,它一直在进化。它以前没有任何记忆,就像在和一个陌生人说话。如果它能记住你们有过的互动,如果它连接到你的电子邮件和日历,真正了解你的偏好,它就会强大得多。

比如现在的plus功能,每天都会根据对你的了解为你推送可能感兴趣的内容。在个人层面,Super App能做所有的这些事情,并且将以更深入、更丰富的方式进行。

Alex Kantrowitz:你们计划什么时候发布它?

Greg Brockman:我们正采取渐进的步伐来实现这一目标。我们将逐步发布我们在这里讨论的完整愿景,不过它将是分块到来的。比如,今天的Codex应用程序实际上是二合一的。它是一个可以使用工具的通用agent框架,也是一个知道如何编写软件的agent。

那个通用框架可以用于很多不同事情,你可以把它连接到电子表格或Word文档,它能够帮助你进行知识工作。我们将在常规知识工作方面使Codex变得更加易用。我们在OpenAI内部已经看到了大量自发将其用于此目的的案例。所以这将是第一步,接下来还会有更多。

Alex Kantrowitz:昨天我和你的一位同事交谈,他提到有人让Codex剪辑视频。它为Adobe Premiere构建了一个插件,开始将其分为几个章节并开始了剪辑。

Greg Brockman:这正是我们所期待的,我非常喜欢听到这个。Codex应用程序最初是为软件工程师构建的。对于非软件工程师来说,它目前的可用性其实相当低,因为当你在设置时会遇到一堆开发人员才知道如何修复的小错误。

但尽管如此,我们依然看到那些从未写过代码的人开始使用它来搭建网站,自动化他们与不同软件的交互,以获得巨大的杠杆效用。

比如我们沟通团队的成员用它连接到Slack和电子邮件,浏览大量反馈并出色地进行总结。非常有动力的人可以克服重重障碍并获得巨大回报。

所以在某种程度上,我们已经完成了超级困难的部分,即打造一个非常聪明、能干、能实际完成你任务的AI。现在我们要完成的是更容易的部分:让它广泛可用,消除这些准入门槛。

坦言曾落后,OpenAI正在死磕“最后一公里”

Alex Kantrowitz:看看竞争格局。比如Anthropic有Claude应用程序。你可以使用Claude聊天机器人、Claude Co-work、Claude Code。他们也有自己版本的Super App。你认为Anthropic看到了什么让他们更早地到达了这个位置?你认为你们赶上的机会有多大?

Greg Brockman:如果你倒退12到18个月,我们一直专注于编程这个领域。我们在各项编程竞赛上的数据一直都是最好的。

我们投入不够的是最后一公里的易用性(last mile of usability。我们没有想到的是,这个AI能解决复杂的编程比赛,但它从未见过某人真实世界里混乱的代码库。我认为在这一点上我们是落后的。

但大概在去年年中,我们开始非常严肃地对待这个问题。对于差距在哪里?如何获取训练数据、构建训练环境,让AI体验实际做软件工程是什么感觉、以奇怪的方式被打断是什么感觉等这些问题,我们专门有一个团队在处理。

我想说,在这一点上,我们已经赶上了。当人们在前端直接把我们和竞争对手进行比较时,人们更喜欢我们。这是我们一直在采取的总体动作,即端到端地思考产品的可用性,而不仅仅是做一个模型然后再建一个独立的东西。这是我们OpenAI内部一直在改变的一种模式。

今年全年都会有令人难以置信的阶跃式模型(step-upmodels)问世。看着路线图,未来可能实现的事情确实令人振奋。但现在的重点是让我们把最后一公里的易用性也做好。

Alex Kantrowitz:自2022年以来,OpenAI就像是无可争议的领导者,而现在竞争显然非常激烈。你刚才用了“我们赶上了”这个词。公司内部的氛围是否有所不同?有报道称,开会时强调OpenAI不再有“支线任务”(side quests),所有的重点都在这个上面。这里的环境发生了怎样的变化?

Greg Brockman:个人而言,我觉得OpenAI最可怕的时刻实际上是我们发布ChatGPT之后。记得在假日派对上,我感觉到了这种“我们赢了”的氛围,这是前所未有的。我当时想,不,我们是弱势群体,我们一直都是。这个领

域的竞争对手拥有更多的资本、数据和资源。

为什么OpenAI还能竞争?

仅仅因为我们从不自满。我们始终觉得自己是挑战者。在市场上看到其他竞争对手出现并做得很好,实际上是一件非常好的事情。我认为这给了我们公司一种统一和对齐。

我们过去几乎把研究和部署当作独立的事情,而现在我们真的想把它们整合起来。我认为它一直非常稳定。而对于模型生产的核心以及我们的路线图,我感到极其自信。在产品方面,我们拥有巨大的能量将这一切交付给世界。

揭开新基座“Spud”的面纱

Alex Kantrowitz:你已经好几次预示了你们即将推出一些优秀的模型。Spud是什么?有报道说,你们已经完成了Spud的预训练(pre-training)。OpenAI的CEO Sam Altman告诉员工,他们有望在几周内获得一个非常强大的模型。所以什么是好的模型?

Greg Brockman:我觉得这真的不在于任何一个特定的模型。我们开发流程的运作方式是先进行预训练,生成一个新的基础模型,然后在此基础上改进。这始终是一项跨公司的巨大努力。

我过去18个月大部分精力都专注于我们的GPU基础设施,支持负责训练框架的团队进行扩展。但之后还有一个强化学习(reinforcement learning)过程,以及后训练(post-training)过程。

我把Spud看作是一个新的基础,一个新的预训练。我们在其中汇聚了长达两年的研究成果。对我来说,这(优秀的模型)永远不在于任何一次发布。因为我们发布任何一款模型,都只是我们未来成果的早期版本。我们拥有一个不断加速的进步引擎,而Spud只是这条路上的一步。

Alex Kantrowitz:那么你认为它和现在的模型有什么不同?

Greg Brockman:我认为它将能够解决更困难的问题。它会更加细致入微,更好地理解指令和上下文。

人们经常谈论所谓的“大模型味”(big model smell),就是当这些模型真正变得更聪明时,它们会更多地迎合你。当你问一个问题但AI没有完全理解时,你可能很失望。所以新的模型在定性上会有一些新东西出现,以前你不放心、绝不会用AI来做的事,现在你根本不怎么想就直接用了。

我很期待看到它如何提高上限。我们已经看到了那些物理应用,我们将能够解决更开放、时间跨度更长的问题。同时我也非常兴奋看到它如何提高下限,让你想做的任何事情都变得如此有用。

Alex Kantrowitz:对于日常用户来说,真正感受到这种变化可能有点困难。在接下来的这一系列模型中,你期望它在某些职业的一线被感受到,还是你认为它对所有人来说都是一个广泛有形的进步?

Greg Brockman:当你发布它时,会有人尝试它然后说:“这和我之前见过的都不一样。”也会有一些应用领域,受限于智能瓶颈,你可能不会立刻感受到。

但随着时间的推移,你会感受到的。我有个朋友用ChatGPT去了解治疗他癌症晚期的不同方法,并由此获得了治疗。这需要你相信AI会有所帮助,你才会真正投入精力。

我们将看到,在各种应用中,AI能提供帮助这一点将变得更加明显。所以这既是技术在变得更好,也是我们对技术的理解和观念在转变。

让AI自己研发AI

Alex Kantrowitz:你们在OpenAI内部也会更加依赖它。你们正在研发一个自动化AI研究员(Automated AI Researcher),据说今年秋天推出。这是什么?

Greg Brockman:我们正处于这项技术起飞(take off)的早期阶段。随着AI变得越来越好,这项技术将呈指数级增长。我们利用AI来使AI变得更好,所以我们的开发过程加快了。起飞也是关于它在现实世界中的影响。所有能量都在越聚越多,AI正在从某种边缘角色变成经济增长的主要驱动力。

Alex Kantrowitz:那么这个自动化AI研究员究竟会做什么?

Greg Brockman:可以这样理解,我们正在开发的AI接手了更大比例的任务,它能够自主运行。但这并不意味着我们就是把它放出去不管。我们会深入地参与管理它。

就像你有一位高级研究员,他们不一定懂那些机械的技能,但他们能够提供反馈、进行审查,并在某些方面提供指导。因此,我把它看作是一个我们要开发的系统,它将极大加速我们生产模型、实现新研究突破的能力。

Alex Kantrowitz:所以它是要去寻找AGI吗?

Greg Brockman:我想差不多是这样。在实践层面上,我认为它将接手我们一位研究科学家的全部端到端的工作,并在芯片中完成它。

AGI进度已达80%

Alex Kantrowitz:AI的进展从渐进式转变为势不可挡地走向比人类更聪明的智能。你是否担心这个过程也有可能出现问题?

Greg Brockman:绝对的。获得这项技术红利的方法也是认真思考风险。我们在安全方面投入很大,一个例子就是提示词注入(prompt injections)。如果你要拥有一个非常聪明、连接了许多工具的AI,你要确保它不会被奇怪的指令颠覆。我们在这上面投入了大量资金,并且取得了巨大成果。

有趣的是,人类也容易受到网络钓鱼攻击或被欺骗。我们将这些类比引入到开发过程中,思考如何确保AI与人类价值观一致。但也存在一些关于世界和经济的更大问题,这些不单是技术问题,OpenAI靠自己是无法解决的。

Alex Kantrowitz:令人担忧的是这是一场竞赛,许多开源玩家在安全方面的边界和保护要少得多。如果大家都同意停下来,我们就会停下来。但现在似乎没有放缓的迹象。那么AI带来的回报值得冒这个风险吗?

Greg Brockman:我认为值得。OpenAI成立之初,我们就在问,这项技术如何真正提升每个人?一种是集中化的观点,即只有一个参与者在构建它以确保安全。这在某些方面是一剂苦药。

相反,我们认为应该通过“弹性”来思考。把AI看作是一个开放的系统,并构建能帮助这项技术顺利发展的社会基础设施。就像电力发展一样,有很多人发电,它也存在风险,但我们以多种方式建立了安全标准和法规。

我们需要广泛的对话,让许多人知晓并参与其中,这不能是由某个集中的小组秘密完成的。所以我们认为,应该围绕这项技术的发展形成一个具有弹性的生态系统。

Alex Kantrowitz:英伟达CEO黄仁勋最近表示,他相信AGI已经实现了。你同意吗?

Greg Brockman:我认为AGI对许多人来说有不同的定义。许多人会认为我们现在拥有的就是AGI。但在我看来,目前的AGI是非常参差不齐的。在编写代码等许多任务上,它绝对是超人类的。但有一些非常基本的任务它仍然会遇到困难。

所以分界线划在哪里?目前这更像是一种感觉而不是科学。如果你5年前向我展示今天的系统,我会说,“哦是的,这就是我们所说的东西。”但它与我们曾经描绘的画面如此不同。

Alex Kantrowitz:所以你觉得还没有达到。

Greg Brockman:我认为基本上已经达到70-80%了,所以我们非常接近了。我们将在未来几年内实现AGI,它可能仍然会参差不齐,但在使用计算机进行各种智力任务的下限能力上,AI将能够做到。

就我个人而言,我认为我们几乎到了,但需要再进一步,我们才能算绝对达到。

Alex Kantrowitz:2025年12月发生了什么?那似乎是一个转折点,让机器不间断编程数小时的想法从理论变成了现实。当时究竟发生了什么?

Greg Brockman:新模型的发布真的让AI能够完成的任务比例从大约20%飙升到了80%。它从一个“可有可无的附属品”变成了你绝对需要围绕它来重新配置工作流程的东西。

我自己有个测试提示词是“给我建个网站”。过去,这可能需要花费四个小时,并使用一堆不同的提示词。在12月份,只需要一次提示它就生成了,并且做得非常好。

Alex Kantrowitz:那么这些模型是如何实现这一飞跃的?

Greg Brockman:这很大程度上得益于更好的基础模型。我们在改进预训练技术方面已经投入了相当长的一段时间。另外我们不断地在创新的每一个轴线上推进。在某些方面你会看到跳跃,而在某些方面一切都是连续的。

我们在推出的每一个小版本更新中都切实看到了这种改进。比如在52和53之间,和我合作的一位工程师的体验就是,AI一开始根本无法完成他底层的系统工程,现在能够添加监控指标、运行性能分析器,并且能够产出完全是他想要的东西。这几乎是一种“慢慢地、慢慢地、然后突然爆发”的过程。

Alex Kantrowitz:之前你说Codex是为软件开发人员准备的。而在这场对话早些时候,你却说每个人都能使用这些东西。是什么导致你改变了看法?

Greg Brockman:以前我们为自己开发工具,很容易形成思维惯性。但随着技术进步,我们意识到底层技术其实大部分不是关于代码的。它主要关乎解决问题、管理上下文和框架。

明白了这一点之后,写代码这件事也突然向所有人敞开了大门。你可以管理一个去帮你工作的工具。在操作Excel或制作演示文稿时有那么多机械性的要求,如果AI具备了这些上下文,凭借它现在的原始智能就能出色完成任务。只要让它更平易近人,它就变成了“面向所有人的Codex”。

智能体时代,人人皆是CEO

Alex Kantrowitz:硅谷出现了另一个现象级事物OpenClaw。人们开始给AI机器人访问电脑桌面的权限,让它去管理生活。后来OpenAI把OpenClaw团队招致麾下。这是你们的愿景吗?

Greg Brockman:这项技术的核心难题在于:弄清楚它的用处、人们想怎么用它、Agent的愿景是什么,以及它将如何嵌入人们的生活。OpenClaw的创始人Peter是一个非常有远见和创造力的人。

在这项技术的迭代中,那些全情投入、充满好奇心和远见的人拥有极具价值的新兴技能。这不仅仅是技术问题,真正关乎的是我们如何利用这些能力并嵌入人们的生活。这是我们正在加倍努力和大量投资的领域。

Alex Kantrowitz:当这些AI智能体为你工作时,你就成为了由数十万个agent组成的车队的CEO,这种新的工作方式可能会让你觉得正在失去对问题的脉络把握。这算是件好事吗?

Greg Brockman:我认为这喜忧参半。我们需要承认这些工具带来的优势并缓解劣势。我们赋予人们杠杆和能动性。但说到底,总得有个责任方。如果你的智能体把事情搞砸了,那不是智能体的错,是你的错。

为了让人们使用这些工具,你需要意识到人类的能动性和责任心是系统的核心部分。作为用户,你不能推卸责任,不能仅仅说“反正AI会搞定的”。

Alex Kantrowitz:但是你提到你感觉自己对问题本身失去了脉络把握。

Greg Brockman:这两者实际上是相互关联的。如果你是一个CEO,你离细节太远,失去了对脉搏的把握,那将无法带来出色的结果。有些细节你可以不操心,是因为你信任他们。

但有些细节错了,你应该关心。你需要深入其中,真正去理解优势和劣势。当你从一些较低层次的细节中抽身时,那应该是你与一个能把工作做好的系统建立起了信任。

Alex Kantrowitz:模型的演进从预训练到微调,再到强化学习和使用工具。这个演进过程的下一步是什么?

Greg Brockman:我们所处的世界是机器的能力和深度不断增加的世界。现在我们也需要去开发真正优秀的工具。比如在企业环境中,凭证认证、审计跟踪如何工作?有大量的技术建设需要赶上核心模型的能力。

发展方向包括一个出色的语音界面,让你能够自然地与计算机交谈。比如你早晨醒来,它会为你提供智能体昨夜取得进展的报告。

另外,提升野心的上限,提升人类所能解决的挑战的上限,也是下一步。就像AlphaGo的第37步,这将在科学、数学、医疗甚至文学等每一个领域发生,解锁人类在创意理解和构思方面的能力。

Alex Kantrowitz:为什么你觉得这些还没有发生?

Greg Brockman:因为模型的能力与人们使用它们的方式之间存在一种悬垂状态(overhang)。我们对这些模型中包含的内容的理解仍在浮现阶段。

我们之前非常擅长在可以被测量的任务上训练模型(比如数学或编程),因为那里有完美的验证器。而解决更开放的问题在于扩展能够被创造的空间。

对于像创意写作这样的事情,很难评分。因此之前在教导AI体验和尝试方面受限较多。但这一切都在改变。

Alex Kantrowitz:PeterThiel(硅谷传奇投资人)提到过,如果你是一个搞数学的人,你可能比那些搞文字的人面临更深的麻烦。你以前是数学俱乐部的成员,你不担心吗?

Greg Brockman:人们总是更容易看到自己失去了什么。比如我过去参加数学竞赛,现在AI也能参加了。但这从来不是关于数学竞赛本身的,这并不是真正驱动人类的东西。

想想我们现在的工作方式,是在屏幕后敲击键盘,这不自然,这不是人类存在的意义。

作为人类的意义在于存在、参与其中,与其他人建立联系。我们将看到AI能够为人类腾出大量时间用于增进人际交往。

Alex Kantrowitz:有讨论说,究竟是否真的需要进行更大规模的训练运行。你是负责扩展(scaling)的人,你怎么看?

Greg Brockman:这种观点忽略了模型生产管道中的每一步都是具有乘数效应的。只要改进了预训练,就会让所有其他步骤变得容易得多。模型能学得更快,需要犯的错误更少。

以前我们只把这看成是对一个纯粹理性系统进行训练,现在这同时也关乎去尝试各种事物,了解现实世界的使用并反馈到训练中。这并没有消除继续研究的重要性。

另一个转变是,过去我们只专注预训练能力,现在我们意识到这是个平衡,你真的需要它具备良好的推理能力,这样你才能为世界提供服务。你要认真考虑下游海量的使用需求,再去优化“智能乘成本”的指标。

Alex Kantrowitz:如果一切大多转向推理阶段,你们还需要英伟达的GPU吗?

Greg Brockman:绝对需要。除了将算力集中在一个问题上之外,你没有其他途径能够实现大规模的训练。某些部署足迹将显著上升,但在进行大规模预训练时,还是希望将大量算力集中在那里。英伟达团队非常不可思议,我

们与他们合作非常紧密。

Alex Kantrowitz:难道不会有一天大家说模型已经够聪明了吗?

Greg Brockman:我想这有点像“一旦人类解决了摆在面前的所有问题”。但过去50年里我们的雄心有些退缩了。

比如我们能否为所有人提供真正的预防性医疗保健?在疾病发生前发现隐患。这样的问题可以通过更智能的模型来实现。可能到了某个阶段你解决了这个问题,但还有其他问题会需要它。

一场不会破产的“算力豪赌”

Alex Kantrowitz:你们今年早些时候筹集了1100亿美元。这背后的算账逻辑是什么?

Greg Brockman:很简单:摆在我们面前的巨大开销就是算力。你可以把算力看成是一个收入中心,而不是成本中心。就像雇佣销售人员,只要你能卖出产品,销售越多收入越多。

我们不断发现,算力扩容的速度根本无法跟上需求。现在我们必须就推出什么产品、算力如何分配做出痛苦的决定。问题将是:哪些问题将获得这些庞大的算力?世界上的算力根本不足以让每个人都拥有私人助理或使用Codex。

Alex Kantrowitz:这是一个全新的类别,你们如何确信它一定会成功?

Greg Brockman:现在已经有历史先例了。从推出ChatGPT起,我们知道无论部署多少算力都无法满足需求。算力购买必须提前18个月或更长时间锁定,你需要向未来进行预测。

迄今为止我们的大部分收入来自消费者订阅。但目前正在涌现的巨大机会是知识工作。每个意识到这项技术可行的企业都在采用它。付费意愿和收入增长非常明显,你只要把它向未来推演即可。基于清晰的模型改进路线图,经济增长的最关键因素将是关于AI以及你可用的计算能力。

Alex Kantrowitz:消费者订阅现在是最大收入来源,企业业务会成为最大的来源吗?

Greg Brockman:企业的这种发展非常快。企业的含义也在改变,即真正使用它来进行生产性知识工作。随着我们思考定价,它不会被明确界定为这个类别或那个类别。作为一个用户,你将拥有这个通往数字世界的门户,那才是收入的根本来源。

Alex Kantrowitz:Dario(Anthropic的联合创始人兼CEO,OpenAI的前高管与“出走者”)曾说有些玩家正抱着孤注一掷的心态,把风险的拨盘拉得太满,他对此非常担忧。他指的可能是你们的基础设施豪赌。你怎么看?

Greg Brockman:我完全不同意。我们深思熟虑过,极其清晰地看到了即将到来的东西。我们甚至会在今年看到每一个参与者都将受到算力的限制。其他玩家可能在去年底才意识到并开始寻找算力,而其实已经没有多余的了。每个人都已意识到这项技术是在起作用的,我们从根本上受限于可用的计算能力。

Alex Kantrowitz:他还说如果预测出现偏差,公司可能会破产。你们也是如此吗?

Greg Brockman:这里的回旋余地大得多。这个赌注压的不是某一家公司,而是整个行业。它在于你是否相信这项技术能够被生产出来并兑现巨大的价值。

软件工程的改变很难用语言描述,人们会很快体验到它。6个月后大家都会感受到这种痛苦:有一个超棒的模型却不可用,因为算力不够。

Alex Kantrowitz:去年年底有人预测2026年是大家都使用智能体的一年。我现在已经在用了。这能让我们以更自然的方式与软件互动吗?

Greg Brockman:这就是关键。我们制造计算机的方式把我们拉进了一个数字世界,你花了大量时间点击按钮试图连接不同的东西。AI是让机器向你靠拢,为你提供个性化服务,理解你想完成什么。你可以与之交谈并让其办事的计算机,正开始变成现实。

Alex Kantrowitz:民调显示,认为AI对社会产生负面影响的美国人是预期产生积极影响的三倍。你担心AI的品牌形象吗?

Greg Brockman:我们需要向国家展示为什么AI对他们有好处。不仅是对宏观经济,更是它如何在人们实际生活中帮助他们。

我每天都能听到真实的故事,比如一个家庭用ChatGPT研究症状,争取到了MRI,从而发现了孩子的脑瘤,挽救了生命。这些故事还没有流传出去。90年代的流行文化对AI的看法非常负面。

但当人们真正使用AI时,他们会发现它的效用和价值。所以答案是会,我非常担心我们还没有成功地帮助人们理解这项技术将如何改善生活、增强人与人之间的联系。这关乎国家安全和国家竞争力。

Alex Kantrowitz:民调显示,认为数据中心对环境和生活质量产生负面影响的人,远远多于认为其有益的人。人们错了吗?

Greg Brockman:关于数据中心确实存在大量错误信息。比如我们的阿比林设施(OpenAI正在美国德克萨斯州阿比林市建设的一座超大型AI数据中心)的耗水量仅相当于一个普通家庭一年的用水量,可以忽略不计。

OpenAI官网

在电力方面,我们承诺自掏腰包支付费用,不会推高普通人的能源价格。我们深入当地社区了解情况发现,数据中心会带来税收和就业机会。

Alex Kantrowitz:即便电费不涨,引入电力可能意味着更多污染,不令人担忧吗?

Greg Brockman:你看看今天的电网,实际上有大量被闲置的清洁电力未被利用,因为需要升级输电系统。把这个责任落在我们身上非常重要。这给了老化的电网一个真正的升级理由。在北达科他州,数据中心的入驻帮助改善了公共设施,人们的电费反而下降了。

Alex Kantrowitz:你向支持特朗普的MAGAInc.捐赠了2500万美元。对于支持让这项技术造福所有人的事,你说你都愿意做。一个更强大的国家难道不应该是政治活动的北极星吗?这是那笔捐款的考量之一吗?

Greg Brockman:我和妻子也曾向跨党派的超级政治行动委员会捐赠过。这项技术在未来几年内将迅速到来,成为经济的基石,但它并不受欢迎。

我们想要支持那些真正倾向并愿意投入这项技术的政治家。我确实是一个单议题捐赠者(one-issuedonor),这是表达对这项技术的支持,作为一个国家,这是我们应该全力拥抱的东西。

Alex Kantrowitz:你对那些害怕AI的人想说些什么?他们可能觉得它会抢走工作、污染社区、让世界变化太快。

Greg Brockman:去尝试这些工具。只有亲身体验才能真正领悟。那些从未建过网站的人现在可以建网站了。做小生意的人现在能用AI解决后台管理问题。

思考它如何帮助你的健康、帮你的家人、帮你赚钱省钱。看到未来会有什么变化,远比看到你将会获得什么要容易得多。值得去给它一个公平的机会。

Alex Kantrowitz:民调数据中,那些看别人用过但自己没试过、或从未尝试过AI的人,往往要负面得多。而深度用户或偶尔使用的人总体上是非常积极的。

Greg Brockman:是的。我所看到的正在我们面前展开的景象,比我们曾经想象的要更惊人,并将产生更加积极的影响。

Alex Kantrowitz:最后一个问题。如果让你提一些建议,那你会建议人们为未来做好哪些准备?

Greg Brockman:最重要的一点是理解这项技术。你必须带着好奇心去接触它,尝试应用到你的工作流中,克服最初的障碍。比如,面对一个空白框,我该做什么?去培养“我能成为管理者、设定方向、委派任务并提供监督”的能力。

这项技术是为了帮助人类建立更多联系,让人类能花更多时间做自己想做的事。所以问题是你到底想要什么?借助这项技术去实现它,这是最重要的事情。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。