版权声明
瓜哥AI新知,书享界(readsharecn)
作者:萨姆·奥特曼 (Sam Altman),OpenAI联合创始人
格雷格·布罗克曼 (Greg Brockman),OpenAI联合创始人兼总裁
导语
2026年4月24日,OpenAI 正式发布了最新一代大模型GPT-5.5引发行业震动。两天前2026年04月22日,OpenAI的两位联合创始人萨姆·奥特曼 (Sam Altman) 与格雷格·布罗克曼 (Greg Brockman)在Core Memory Podcast频道进行了他们的首次媒体播客合体专访,他们回顾了OpenAI跌宕起伏的十年历程,探讨了目前真正押注的核心产品,并正面回应了围绕着他们的个人风波与法律诉讼。
布罗克曼首次解释了为什么风靡一时的Sora项目会被砍掉,OpenAI如何对标Anthropic的Claude来规划Codex与代码智能体的未来,以及公司在自研芯片、超级应用和机器人领域的最新野心。
奥特曼则回答了关于Anthropic的Mythos模型、与美国国防部的合作风波,他首次公开谈及了上周发生在他家中的惊魂事件,解释了为什么他反而期待马斯克的诉讼案走向审判,并向全世界吐露了OpenAI究竟是如何一步步走到今天
以下为全文:
阿什利 ·万斯:请包容我这段略显中二的开场白,但我相信接下来会很精彩。欢迎来到“金融堡垒”(Fortress of Finance),资本的中心——当然,我们不是那个播客节目。这里是《核心记忆》(Core Memory)。我是阿什利·万斯(Ashley Vance)。
凯莉 ·罗宾逊:我是凯莉·罗宾逊(Kylie Robinson)。
阿什利 ·万斯:我想今天我们为大家准备了一期绝对硬核的节目。通常在这个环节我们会介绍嘉宾,但今天似乎没这必要。今天,我们请到了OpenAI的联合创始人萨姆·奥特曼(Sam Altman)和格雷格·布罗克曼(Greg Brockman)。大家应该都听说过他们。感谢二位的光临。
萨姆 ·奥特曼:谢谢你们邀请我们。非常感谢。
阿什利 ·万斯:这应该是你们第一次共同参加播客节目吧。
格雷格 ·布罗克曼:听起来不可思议,但我想是真的,至少是很长一段时间以来的第一次。
阿什利 ·万斯:确实。
格雷格 ·布罗克曼:也许真的是破天荒第一次。
阿什利 ·万斯:我当然不会因为你们把首秀给了我们而抱怨,但你们确实收购了一家播客公司。是我们走运了吗?你们也挺走运的。好吧,我接受这个说法。我很好奇你们为什么要收购一家播客公司?我们不需要深聊,但能简单谈谈想法吗?
格雷格 ·布罗克曼:我觉得制作TPPN的团队非常了不起,他们是极具创造力的思考者。我们正迈向一个全新的世界,在构建这些对人类极具实用价值的AI系统时,我们需要帮助人们理解它将如何赋能个人生活与工作。而他们,正是那种能够完美传递这一信息的团队。
阿什利 ·万斯:我在上面见过你。你上过TPPN吗?你确实上过。好的。虽然我没看全所有剧集,但是……
凯莉 ·罗宾逊:那是个很有趣的播客。
1
在OpenAI战壕里并肩作战的10年
阿什利 ·万斯:既然今天二位都在,而且你们也很久没有一起同框了,我想在节目开篇先走一波怀旧风。这些年来,凯莉和我对你们都有所了解。在准备这期节目时我感慨万千,现在刚刚过了OpenAI成立十周年的节点。你们是仅剩的联合创始人中的两位,我想沃伊切赫(Wojciech Zaremba)是第三位。你们就像一条贯穿公司发展的主线。你们从不被看好的黑马起步,最终成长为行业的霸主。这一路伴随着太多的戏剧性事件与跌宕起伏。
我真的很好奇,经历了这一切,你们之间的关系发生了怎样的改变?你们是如何打好配合的?这种关系是否随着时间的推移发生了蜕变?
萨姆 ·奥特曼:这种感觉极其美妙。说实话,我们都希望少一点抓马(drama),只想单纯地专注于技术。但在这样一个充满混乱、戏剧性、紧张、冲突与权力斗争的世界里,能拥有一位知根知底、了解全局的伙伴,是一种难以置信的慰藉。我们拥有共同的历史,在风光无限或是至暗时刻,我们都能将后背交给彼此。这也是我在OpenAI的全部经历中,最美好的事情之一。
格雷格 ·布罗克曼:在很多方面,OpenAI诞生的那一刻,正是在2015年7月的那次晚宴之后。萨姆和我一起开车回旧金山市区,我们看着彼此,心里只有一个念头:我们必须干这件事。当时大家一直在讨论,现在才开始建立一个致力于实现通用人工智能(AGI)并产生积极影响的实验室,是不是已经太晚了?现在回想起来,当初我们竟然如此忧虑,简直太可笑了。当时真觉得已经晚了。
凯莉 ·罗宾逊:觉得错失良机了。
阿什利 ·万斯:我记得你们刚起步时,我也有过同样的想法。我当时觉得,不可能吧。
格雷格 ·布罗克曼:我们当时觉得DeepMind肯定会一骑绝尘。不过,那场晚宴的结论是:这件事并非绝对不可能。我们俩都觉得,既然这件事如此重要,我们就必须去做。这种精神一直延续至今。我记得在早期运营时,我当时正好待业,所以第二天我就全职投入了。萨姆当时还有全职工作,但我们一天到晚都在通电话,大概一天能打五次。
阿什利 ·万斯:那时候你们已经是亲密无间的朋友了吗?
萨姆 ·奥特曼:我们认识已经非常久了,或者是感觉像认识了一辈子。我其实记不清了……那是哪一年来着?2010年还是2011年?
格雷格 ·布罗克曼:2011年?大概是你刚加入Stripe的时候。没错,我们是通过科里森兄弟(Collison brothers)认识的。所以在那之前,我们算是点头之交。
萨姆 ·奥特曼:看来并没有我想象的那么久。也许是2010年认识的,而这是在2015年。也就五年的时间。
格雷格 ·布罗克曼:时间被压缩了。
阿什利 ·万斯:显然,在这样一个高压锅般的环境中做这件事,我可以想象,你们的关系只会随着时间推移而越来越铁。
萨姆 ·奥特曼:人们总爱用“创伤羁绊”(TraumaBonding)这个词,但我很讨厌这种说法。我更喜欢“战壕里的战友”这种意象。无论如何,努力工作的迷人之处在于,尤其是在高压之下拼搏时,你们会淬炼出一种在任何其他情况下都无法缔结的深厚情谊。
格雷格 ·布罗克曼:我确实认为,萨姆和我之间的工作与相处模式,可能与你所想象的传统联合创始人关系大相径庭。我们保持着高频的联络,每天打五通电话,每次两到五分钟——这种习惯保留至今。我们始终保持着高度同频。
我们并非在所有事情上都意见一致,我们看待世界的视角也不尽相同,但这正是我们强强联手的原因。我们有着极强的互补性。萨姆可能会提出一个大胆的想法,而我会去思考如何用不同的方式去落地,或者如何另辟蹊径,以及它与我们正在考量的其他事情有什么内在逻辑。
我非常欣赏萨姆的一点是,他总能敏锐地洞察到不同想法之间的连接,并指引我们始终聚焦于必须达成的大局。然后,我们一起构思如何将它真正落地。我认为,将宏大的野心与极致的执行力完美融合,正是OpenAI一直以来脱颖而出的核心密码。
凯莉 ·罗宾逊:在这十年中,有哪些时刻你们觉得产生分歧是非常必要的?你们还记得什么关键节点吗?
萨姆 ·奥特曼:我认为格雷格做得最好的一点——这并非我的本能——就是极力推动大家将所有精力倾注在最重要的事情上,无论是他的本职工作,还是公司的战略方向。很多次我想做更多元化尝试时,格雷格总会一针见血地反问:“这是最核心的要务吗?我们还是集中火力把这件最重要的事情做好吧。让公司保持专注。”我们在这一点上确实有过分歧,而格雷格的这种专注精神,成为了贯穿公司上下的一股极其宝贵的力量。
格雷格 ·布罗克曼:补充一点,比如在算力(Compute)方面,我们需要不断拉高愿景。有时从理智上讲,我知道我们正在迈向一个由算力驱动的经济体,需求将永远大于供给。但眼下还有大量苦活累活:我们已经拥有了庞大的计算机阵列,正将其投入运营;同时还有海量的物理基础设施需要建设。你很容易感觉自己被淹没其中,焦头烂额。
然而,Sam总是在说:“不,我们需要更多。”这种视角至关重要。人们很容易忽视“最高优先级(High order bit)”——即这不仅关乎未来六个月,更是决定未来两年、五年甚至十年的关键。
我们需要一种平衡:既要深潜于细节,又不能被细节吞噬。正是这种平衡,造就了今天的OpenAI,也指引着我们未来的方向。
2
你所未见的安全性之争
阿什利 ·万斯:在你们的产品或策略中,一定有某个点是你们产生过分歧的,具体是什么?
萨姆 ·奥特曼:讨论最激烈的一次分歧吗?刚才Greg说话时我刚好在想这个问题。虽然它不是一款产品,却是你在提问前我就想到的。过去,我们经常就“如何探讨安全性”展开争论。对于“安全性极端重要”以及“成败的后果”这些根本问题,我们从未有过分歧。
但在如何探讨安全、如何利用安全,以及这其中究竟有多少是为了权力博弈,多少是为了真正的安全,整个行业的态度一直很微妙。在早期,我一度深陷其中,认为必须在特定的框架下讨论安全。而Greg则非常清醒,他坚持不落入传统框架的窠臼,认为我们绝不能那样去谈论它。
即便如此,正因为安全问题兹事体大,我们有时还是会掉入陷阱,过多地使用了错误的框架。然而,我认为OpenAI迄今为止最大的贡献之一,就是开创了一种探讨安全的新范式。这不仅仅体现在我们如何构建产品,或探讨社会需要做什么,更体现在我们如何部署产品——也就是“迭代部署(Iterative Deployment)”的核心理念。随着风险赌注的不断加码,我们实际上正在探索一个全新的世界:在这里,我们要弄清楚如何部署那些随着风险升高而越来越安全的产品。面对当时要求我们不这么做的巨大压力,Greg死死守住了底线,这对于整个公司至关重要。我认为这对我们的全局战略意义深远,它不仅改变了我们的叙事方式,更重塑了我们发布和构建产品的方式。
格雷格 ·布罗克曼:是的,以OpenAI基金会(管理OpenAI并持有大量股权的非营利组织)为例,其核心支柱之一就是“AI韧性(AI Resilience)”。这实质上是在思考:我们如何让AI对世界产生积极影响?答案绝不是某种单一的干预措施;不是说搞个思维链(Chain-of-thought)监控,你的使命就大功告成了。这其实是整个社会应当围绕这项技术进行自我调整的系统性深度工程。
这种认知至关重要:你不可能靠写一篇论文,就能解决AGI如何平稳落地并造福世界的问题。这必须是一场倾尽全球之力的行动,需要社会各界、不同背景的人共同参与,通过多种途径去真正理解这项技术的本质,以及它将如何重塑人类和世界。在10年前我们刚起步时,这一点完全没有得到重视或理解。因为当时人们很容易陷入一种视障:“我们是技术极客,我们在搞技术,这是我们唯一要解决的问题。”虽说没人直白地把这话说出口,但你很容易不知不觉地掉进这个思维陷阱。
我们花了大量时间运用第一性原理去思考:如何真正将这种变革性技术落地交付给世界,切实改善人们的日常生活。你会意识到一件事:如果你手中有一项足以颠覆一切的强大技术,那么在此之前,先抛出一项威力稍弱的技术去积极地引导改变,整个过渡过程往往会顺畅得多。
顺着这个思路,你就会顺理成章地开始思考“韧性”和“迭代部署”。这正是我们两人在OpenAI内部频繁碰撞出的火花。我们总是在反复琢磨:到底该如何达成这一使命,并让整个进程走得更加稳妥。
凯莉 ·罗宾逊:是的,感觉就在前不久,我还在2022年、2023年的SXSW大会上看到过你们,那时关于AI的讨论氛围与今天截然不同。感觉这十年间发生了很多改变,尤其是你们探讨安全与对齐(Alignment)的方式。我想知道你们现在回过头看有何反思?如果在那些圆桌论坛和媒体采访中能重来一次,你们会做哪些改变?在谈论安全方面,你们学到了什么?
3
我的孩子未来能做什么?
萨姆 ·奥特曼:在谈论安全之前,作为一群技术极客,我们似乎陷入了这样一种叙事套路:“我们要打造超级智能,省略号……总之它对你大有裨益。”但我们一直没有把“省略号”里的内容填补完整。我们整天吹嘘正在构建的这项惊人技术能带来多少美好的事物,但——
——但现在大众普遍的反应是:“好吧,看来你们是对的,你们确实能把这玩意儿造出来。但为什么?我们为什么要这东西?它能给我们带来什么?”整个行业都在画大饼:“哦,它能治愈癌症,你们会很幸福的。”这显然无法引起真正的共鸣。很多人只会觉得:“行吧,治愈癌症,听起来不错。”
但我认为,人们内心真正渴望的是繁荣、自主权(Agency),以及未来依然有意义深远的工作可做。前几天我看到一篇极佳的帖子,让我记忆犹新,里面提到了“直面逆境的权利(Right to adversity)”。生而为人,你总会希望生活里带点挑战。你并不想每天都完美无瑕,更不想饭来张口衣来伸手。面对AI,人们有一种深深的恐惧:“假设你们是对的,假设你们真的把它造出来了,假设它大包大揽赚了所有的钱、干了所有的活。那我还能干什么?我的孩子未来能干什么?生活会变成什么鬼样子?个人的成长从何而来?人们还能为什么而奋斗?”
不管是整个AI行业、OpenAI,还是我和Greg,我们都在大谈特谈这项技术的惊艳之处、它的无穷潜力,以及它作为一种技术奇迹的荣光。但我们却没有把这些散落的拼图拼凑完整,去清晰地描绘出未来的生活究竟会变成什么样。
当我和那些有学龄儿童的家长交谈时,被问到最多的问题就是:“我的孩子以后该学点什么?未来会是什么样?什么技能还会具备经济价值?”我渐渐意识到,这并不是他们内心真正想问的。他们真正焦虑的是:“在这个新世界里,我的孩子该如何度过充满意义的一生?”你当然可以甩出一堆经济学上的回答,但这根本无法抚慰人心。因为这背后,潜藏着一个更深刻的哲学命题。
格雷格 ·布罗克曼:我正想说,其实我们对此有很深的体会。例如,我们收到过非常多ChatGPT用户的反馈,说他们自己或挚爱亲人的生命,正是因为从ChatGPT获取的信息而得以挽救。
比如有个孩子患有剧烈的头痛,最初医院拒绝为其进行核磁共振(MRI)检查。家长就用ChatGPT研究症状,并利用这些信息据理力争,最终争取到了保险公司支付扫描费用。结果查出是脑肿瘤,由于干预及时,孩子的生命保住了。这家人说,如果没有ChatGPT,他们完全不知道该如何熬过那段艰难的经历。这只是其中一个故事,类似的例子不胜枚举。
我认为大家正真正意识到,这项技术不仅是在抽象意义上造福社会,而是能实实在在地帮到个人。眼下,我们正见证新一波创业浪潮的兴起,我认为这将是贯穿今年的一大主题。对此我们深有体会。
我们将构建去主动适应人类的AI,而不是强迫人类扭曲自己来适应计算机。想想我们现在的工作方式,那既不自然,也不是我们与生俱来的本能。未来,计算机将代你完成这些工作。
那么随之而来的问题是:什么是工作?什么是有价值的?你内心真正渴望完成的究竟是什么?这触及了极其深刻的人性本质——即人的主观能动性与自我赋能。我相信,这项技术正在带来一场非常积极的变革,这绝非盲目乐观,而是实实在在的正向改变。
然而,人们总是更容易察觉到什么将要消逝——那些你曾以为坚如磐石、如今却即将改变的事物。但想要看清即将到来的未来,却要困难得多。你将获得什么新事物?这场技术变革会带来哪些红利?我认为我们正日益意识到,除了应对转型的其他方面,我们还必须向大众把这幅未来图景描绘清楚。
4
为什么连聪明人也还没真正理解AI
阿什利 ·万斯:基于你们刚才的发言,我有几个问题。
我刚陪儿子去了趟奥柏林学院(OberlinCollege),当时我们在一个容纳了六七百人的大厅里,那场面让我印象深刻。学校在俄亥俄州,人们从全国各地赶来。校长在台上演讲,随后开启了问答环节。
很多问题都围绕AI展开,但这恰恰让我深刻意识到,我们身处的科技圈就像一个信息茧房。因为在我看来——我无意贬低任何人——他们问的都是相当基础的问题。
当时我在现场最强烈的感受是:“天哪,你们真的不知道正在发生什么,也不清楚即将席卷你们生活的是什么。”我不知道这是否令人担忧,但听到他们的提问,确实让我大开眼界。
显然,他们问的都是诸如“你们打算如何在课堂上使用AI?”或者“怎么防止学生过度依赖它?”之类的问题。虽然话题后来稍微深入了一点,但我依然觉得,这满屋子相当聪明的人,对当下的技术变革其实缺乏真正的认知。我的意思是,如果人们连AI能做什么都不了解,甚至我们自己也说不准它最终的形态,那我实在不知道我们该如何解决这个问题,又该如何让大众做好准备?
格雷格 ·布罗克曼:对此,我倒有一个比较积极的看法:如果你只是在纸面上阅读关于AI的报道,可能会产生一种错觉,觉得这是一种需要绞尽脑汁去理解的深奥新技术。但当你亲手使用它时,你会发现它是如此直观。在很多方面,这就是AI的终极意义。
回想过去70年我们设计计算机的逻辑,机器从未真正完全理解过你。你脑海中有个目标,但必须将其拆解成机器的语言,无论是早期的汇编代码,还是后来的高级编程语言。如今,你可以直接用自然语言与计算机对话了。不过,就算你看看ChatGPT现在的工作方式,你仍然需要理解语言模型(Language Model)的概念。你可能会纳闷,为什么每次都要开启新的对话或标签页?为什么它不能是一个能够记住所有事情的统一体?这些都是当前的技术局限,但我们正在努力攻克。
我相信,我们正在打造的是人类所能想象到的最直观的技术。我们正在创造一种让机器去主动适应人类的产品。当人们真正用上它时,就会立刻意识到自己获得了多大的潜能。
我最喜欢的一些故事完美地印证了这一点。例如,我一个朋友的妹妹描述了一款她梦寐以求的App,并详细讲述了各种功能细节。我朋友一边听,一边直接将她的描述输入到Codex中。他敲下回车键,几个小时后,他向妹妹展示了成品:一个与她描述分毫不差的App。她惊呆了,难以置信地问:“这到底是什么神仙东西?是谁做的?这简直就是我想要的!”朋友回答说:“是你自己做的。”
正是这种“顿悟时刻(Aha Moment)”,我认为每个人都将经历一次。一旦你体验过AI能为你做什么,意识到自己被赋予了怎样强大的能力——比如你脑海中浮现出一个画面,想让它变成现实,你去看看我们即将推出的新一代图像模型,效果绝对令人惊叹。你可以用前所未有的方式进行创作。
另外还有一个让我感触颇深的故事:我祖母患有严重的阿尔茨海默症(Alzheimer's),这对全家人来说都无比煎熬。但有一件事让我印象特别深:她依然能自如地使用智能音箱Alexa播放音乐,甚至还能记起歌词跟着唱。这是她借助技术与“真实的自我”保持连接的一种方式。这件事深深触动了我。这说明,如果你能构建出足够直观的交互界面,任何人都能与技术产生连接。而现在,我们所拥有的技术往往只针对特定人群,或者要求你掌握大量与你的核心诉求毫无关系、仅仅是为了操作机器而存在的复杂技能。
萨姆 ·奥特曼:刚才听Greg发言时,我脑海中浮现出三点想法,我完全赞同他的观点。
第一,在发布ChatGPT之前,我们曾四处游说:“AI时代要来了,大家必须重视。它将颠覆一切,这事关重大。”但当时几乎无人理睬。
我们写过文采飞扬的博客,也展示过令人叹为观止的技术壮举。我们在电子游戏中战胜了人类冠军;我们造出了能用单手复原魔方的机器人。我们做了一堆酷炫的事情,自我感觉非常良好。我们心想:“哇,《纽约时报》都报道了,我们一定干得非常棒。”但残酷的真相是,根本没人在乎。这些都没有产生实质性的社会影响。
直到后来,我们推出了ChatGPT——这远远不是我们做过最了不起的技术突破。
但当人们能切身感受到它时,大家的反应是:“好的,我懂了。”我认为那可能是一个历史性的时刻,全世界在同一瞬间集体惊叹:“这个叫AI的东西原来是真的。”因为人们可以亲自去使用它,从中获取价值,并建立起属于自己的认知。这与仅仅听别人谈论是截然不同的。正如Greg所说,同样的情况在编程模型(Coding Models)上也发生了。
这确实是两次极其重大的标志性时刻,让全世界刷新了认知,并坦然接受:“好吧,变革正在发生。”未来还会有更多这样的时刻。但就目前而言,你只需向计算机提出任何问题就能得到答案,或者让计算机帮你写出任何代码,这本身就已经具有极其强大的震撼力了。我认为这正是世界自我迭代的方式。如果我们天天喊着“超级智能(Super intelligence)要来了,它将改变一切”,听这个播客的观众可能会觉得:“嗯,听起来有道理,也许我们该关注一下。”但这永远无法对世界产生真正巨大的冲击。
因此,为了引导大众不仅把目光局限于“怎么防止学生用AI作弊”,而是去深入思考这项技术对整个人类命运的意义,我认为我们能做的最重要的事情,就是持续推出那些卓越、令人惊艳、能创造巨大价值且极其易用的产品。我们将继续在这条路上走下去。
在我们的发展历程中,我们一次又一次地见证了这样一种现象:当我们推出一款相当不错的产品时,人们往往会说:“我实在无法想象它如果变得更好会是什么样。这应该就是天花板了,它不可能再好了。”
Greg刚才提到的那个我们即将发布的图像模型,对我来说就是一个绝佳的例子。我一度以为图像生成技术已经被彻底攻克了。当时觉得:“这已经非常完美了,我不需要它再有任何提升。”但这个新模型犹如一记棒喝,让我意识到:哇,原来它还可以走得更远,还有如此广阔的想象空间。它生成的图像简直好得离谱。
凯莉 ·罗宾逊:里面全是文字,因为我当时试着制作一些核心记忆(Core Memory)周边产品的实物效果图。
萨姆 ·奥特曼:很快就会发布。干得漂亮,团队在这个项目上确实做得非常出色。
即使是ChatGPT也是如此,比如当我们刚把GPT-4接入ChatGPT时,我记得很多人,包括我一些非常资深的业内朋友,都惊呼:“这就是终极形态,这就是通用人工智能(AGI)。”他们觉得即便模型变得更聪明也无所谓了,只希望它能更便宜。他们惊叹:“这太不可思议了。”但如果你现在回头去用那个版本——不管具体是哪个版本,大概是2023年3月版的GPT-4——你会觉得:“这也太难用了。”但在当时,人们觉得:“技术瓶颈已经突破了,它击败了图灵测试,大功告成了,不可能再有比这更好的了。”
然后它变得越来越强大。你可以不断拉高预期,拓展它能做的事情的边界,更不用说后来引入的推理模型和代码能力了。我甚至只说ChatGPT在那段时间里的进步有多大,就已经足够震撼了。
我觉得我们在不断见证这种循环:世人总是说:“好吧,你们做出了这个了不起的东西。它已经达到了巅峰,这正是我需要的最完美的水平。”然而,随着每一个月,或者至少每一个季度的推移,人们的期望和模型的能力都在大幅跃升。Greg刚才提到的第三点则是……
与它们未来的完全体相比,现在的模型依然相当笨拙。但更关键的是,它们对你的生活几乎一无所知。你仍然需要反复调试指令、耐着性子“哄”着它们,费尽心思才能得到你想要的结果。
5
比你更懂你的个人通用人工智能 (Personal AGI)
我们距离一个能够完全掌握你所有背景信息(Context)的模型已经不远了。它懂你,了解你的生活,知道你在做什么、在乎什么,也认识你生活圈里的人。它可以访问你的电脑和浏览器——当然,一切都建立在你授权的方式之上——而且随着时间推移,它还能越来越多地感知到你周围真实世界正在发生的一切。
这将彻底颠覆我们使用电脑和人工智能的体验。对此我感到无比兴奋,但我认为,即便是我们自己,目前也无法准确想象出那将是一种怎样震撼的体验。
格雷格 ·布罗克曼:顺着这一点,想想你现在花了多少时间,仅仅是为了向聊天机器人或你使用的其他工具解释当前的状况。想想这有多折磨人。这就好比你有一个共事的搭档,你需要不断地向他解释:“不,这是我想要的,现在的背景情况是这样的,前因后果在这里。”你不应该把精力浪费在打包这些背景信息上;这绝不是我们期望的系统交互方式。
对Sam刚才的话再作一点补充:我认为在OpenAI,我们面临的最大技术挑战之一,恰恰是机会太多了。人工智能是一个充满无限可能的领域;无论你向哪个维度探索,都会有前所未见的、令人惊叹的新事物诞生。但最核心的是,我们必须具备一种宏大的愿景:明确我们真正应该聚焦在哪里,在哪里能获得最大的突破和收益,并确保多个不同方向的努力最终能汇聚成一项极其伟大的成果。
谈到我们目前的编程辅助系统,我认为它的效用显然会扩展到所有的计算机操作层面。有趣的是,你可以想象一下,你所做的所有工作在未来将如何实现无缝衔接——在面对面的交谈、在电脑上打字,以及试图梳理出正确的背景信息之间自由切换。解决这种背景上下文(Context)的连贯性,将是一个极其关键的命题。
除了专业工作,你也迫切需要将这种能力引入个人生活。我们开始将这一目标称为“个人通用人工智能(Personal AGI)”——一个真正懂你、掌握你的背景信息且绝对值得信赖的AI。无论你是询问财务还是健康问题,你都需要它提供绝对可靠的信息。
最终你会发现,在技术底层,用于重度计算机工作的AI和用于个人生活的AI之间的界限变得模糊了。即使你倾向于使用不同的系统——一个专门掌握你的工作背景,另一个熟悉你的私人生活——你完全可以同时并行推进这两个系统,并将它们建立在相同的技术基础之上。而让我感到最不可思议的是,我们正在构建的这项技术,其核心不过是同一个神经网络。本质上依然是深度学习(DeepLearning)。你所做的就是不断扩大它的参数规模(Scalingup),构建出一个强大的底层系统,然后将其应用于所有这些令人惊叹的不同场景中。
6
为什么 AI的写作依然让人觉得缺乏灵魂
阿什利 ·万斯:我想顺着这个话题问一个问题。我曾发誓不问你们这个的,但我以前虽然不是个完全的怀疑论者,也能看到AI在做一些不可思议的事情,但其实直到最近,我一直都抱有几分怀疑态度,直到……
格雷格 ·布罗克曼:是什么刷新了你的认知?
阿什利 ·万斯:主要有几点。一是我开始更频繁地使用智能体(Agents),并真正去塑造它们,让它们执行我的意图,这让我切身体会到了你们两位刚才所说的那种感觉。我发现:“哇,这确实为我节省了大量时间。它完全听从我的差遣,而且干得相当漂亮。”
另外一点是,我经常报道生物技术(Biotech)领域,看到最近不断涌现的研究成果,我深刻意识到,编程和生物技术似乎是目前这项技术落地最快、最明显的发展方向。
前几天晚饭时我和你聊天,又读了你写的一些文章,我看到了一条基于大语言模型(LLMs)通向你所描绘愿景的清晰路径。
不过,我内心深处仍然有一丝疑虑——我想可能是因为我本人经常跟文字打交道的缘故——我觉得AI的写作水平仍然不够出色。这纯粹是出于我个人的直觉和经验,但每次看到AI生成的文字,我的第一反应依然是:“不,火候还差点意思。”
萨姆 ·奥特曼:在赋予文字个性和灵魂方面,我们确实还未达标。但大语言模型(LLMs)最终一定会带我们跨过这道门槛。
格雷格 ·布罗克曼:对,我觉得可以把它看作是一个非常“参差不齐(Jagged)”的发展前沿,这很正常。
举个例子,就在过去几天里,我们的AI解决了一个悬而未决的保罗·埃尔德什问题(Erdősproblem)——这是一个长期以来备受数学界瞩目的谜题。一位多年来倾注心血研究这个问题的数学家,公开发表了他对AI所做贡献的看法。陶哲轩(Terence Tao)也表示,AI似乎发现了不同数学领域之间潜在的隐藏联系。我们已经开始从这些机器身上看到真正的理性之美。
当然,这是一个极其垂直的领域,对吧?数学和创意写作有着天壤之别。我认为,这些AI能够产生如此深刻的洞见并提供实质性的辅助,正促使许多数学家去思考:利用AI,我们还能做些什么?因此,这就回到了我刚才说的,在AI擅长的领域,我们正面对一条“参差不齐的能力边界(Jagged Frontier)”。但关键是,我们知道如何不断向外拓展这条边界。
但我认为我们真正追求的——如果你回想一下AlphaGo那惊世骇俗的第37手(Move37)——它不仅仅是一个深邃的洞察;它彻底颠覆了人类对围棋这项运动的理解。现在有更多的人投入到围棋中,它实质上是在升华人类探索的意义。
我坚信,我们终将打造出一个让人无可挑剔的系统。不仅如此,未来你在写作时,AI将能精准、完美地实现你的所有创作意图,这种能力将远远超乎你今天的想象。
凯莉 ·罗宾逊:很抱歉一直纠结这个问题,但我之前听说GPT-5的写作能力会非常出色。后来让我放下成见、改变看法的,是推理模型(Reasoning Models)的出现。当Claude推出了非常棒的研究辅助功能,紧接着你们也上线了相关研究功能时,我当时的反应是:“天哪,这太棒了”,因为它确实为我节省了大量时间。但我之前得到的承诺是,到目前为止,我们应该已经能拥有出色的写作体验了。
阿什利 ·万斯:现在的写作读起来感觉没有灵魂,你明白吗?总觉得少了点什么。
格雷格 ·布罗克曼:我来告诉你,从技术角度来看,我们目前拥有的技术是通过无监督方式(UnsupervisedWay)来训练模型。我们输入所有公开可用的数据,让它学习预测下一个词(Predictwhatcomesnext)。这本质上是将其置于一个新场景中,让它试着找出合理的应对方式。接着我们会进行强化学习(ReinforcementLearning)步骤,让它真正去尝试各种想法,并根据表现好坏给予奖励或惩罚。就是给正向信号或负向信号。
确切地说,真正的难点在于:你如何评判?如何决定某次输出是该点赞还是该踩?
在数学和科学领域,这比在一些更具开放性的领域要容易得多。但我们的AI正变得越来越聪明,越来越擅长提供这种奖励信号(Reward Signal)。因此我认为,挑战的一部分在于:如何扩展可创建任务的集合?这也一直是我们的关注重点。
这其实非常有意思。许多这方面的思考可以追溯到OpenAI成立之初,我们当时就预想过事情会这样发展。
我想说的是,我们正在接近目标。我们肯定还有很多工作要做,但希望你们能持续提供反馈,我们会尽力为大家不断改进。
萨姆 ·奥特曼:这里面隐含的一个挑战是,你想要的写作风格与大多数人想要的截然不同。目前,我们必须打造一个大约十亿人使用、且大家都觉得还不错的模型。而我们希望做到的是,让模型的个性化(Persona lization)能力足够强大,让你觉得它是一位伟大的作家;同时,让另一个生活方式和需求与你截然不同的人,也觉得它能完美满足自己的需求,是一位伟大的作家。这两者是完全不同的要求。
阿什利 ·万斯:这正是我想要问的。对于个人通用人工智能(Personal AGI),你肯定希望它拥有那种火花、那种灵魂、那种魔力,对吧?绝对的。我只是觉得,如果做不到这一点……显然,杨立昆(Yann Le Cun)长久以来一直对此持反对意见。我也很快注意到了德米斯(Demis Hassabis)的观点,他似乎和你们立场一致,认为大语言模型(LLMs)会带我们实现这一目标,但他似乎也提到,我们可能还需要一些特殊的新技巧(tricks)。但你们看起来却如此自信。
萨姆 ·奥特曼:如果模型能解决难题——要知道,我们并没有试图让它成为阿什利·万斯(Ashlee Vance)眼中的伟大作家,我们努力的方向是,让它去解决世界上最顶尖的数学家都无法解决的开放性数学难题。我并不是想拿你的智商和那些数学家做比较,我想说的是……作家当然也很聪明,但解决数学难题同样非常困难。因此,如果我们能做到这一点,我非常有信心,这种方法也能学会你所认为的“伟大写作”,并摸索出如何写出你想要的风格。
格雷格 ·布罗克曼:顺便说一下,在这个维度上我们也有一些新模型即将推出。所以在这期播客发布后,不妨告诉我们它是否表现得更好。
我认为,在个性化以及所有的能力方面,我们都在不断提升,沿着那条参差不齐的技术边界(Jagged Frontier)不断攀升。在这个领域,非常重要的一点是:不要只盯着当前的位置,而要审视它的上升斜率,并将其视作一场指数级的增长。因此,如果你回想一下现在的写作水平相比一年前的状态——很抱歉大家对GPT-5感到失望。但别担心,我们非常有动力去真正交付它。而且我认为,对于人们想要的每一个应用场景,我们都已经有了清晰可见的改进路径。
7
三个未来。十个万亿富豪。
阿什利 ·万斯:这项技术——假设一切运转良好,这是一个相当乐观的情景。疾病被治愈,资源变得更加充裕,各种难题被攻克。因此,人类整体都在被提升。但我仍然觉得——我的意思是,世界上最顶尖的一批聪明人正在开发这项技术,这让我觉得,这项技术将不成比例地使他们受益。
在几乎所有的设想中,即便每个人的生活底线都有所提高,情况实际上也会变得更加极端。因为每次听你们谈论如何驾驭这些工具、使用这些工具时,我总感觉……我觉得事情会走向更加极端,变成富者越富(thehaves)……
凯莉 ·罗宾逊:就像那个关于“永久底层阶级(Permanent Underclass)”的玩笑。当你看到这些无比强大的工具时,会产生一种“天哪,那我存在的意义是什么”的情绪,感到被深深地剥夺了权利和价值。
阿什利 ·万斯:是的,虽然你可能拥有了所有的时间去做有趣的、富有创造力的事情,但我只是觉得,少数人会以极其极端、不可思议的方式来操纵这些工具。
格雷格 ·布罗克曼:这正是OpenAI使命的核心,也是我们创立这里的初衷。当你预见到这种强大的技术即将降临,意识到它将是人类史上被创造出来的最重要的技术时,你该如何确保它造福每一个人——真正地造福全人类?我们的使命,就是确保通用人工智能(AGI)造福全人类,我们绝对是认真的。
看看我们的公司架构,为了将价值观制度化并确保这项技术真正惠及大众,我们进行了多次迭代尝试。这也体现在我们做出的产品决策中。我们决定发布ChatGPT,是因为我们坚信必须将这项技术交到人们手中。这曾引发过巨大争议;当时有另一种声音认为,必须在秘密中进行研发,不能让公众接触,必须采取截然不同的方式。然而,当我们思考如何构建社会的韧性(Resilience)、如何真正造福大众时,所有的答案都指向了我们正在坚持的道路。
尽管其中有很多微妙之处,但我相信,我们前进的方向将显著拉高每个人的生存底线(raisethe floor)。试想一下,每个人的口袋里都装着一位私人医生,他的医术比当今世界上任何人能接触到的最顶尖医疗团队都要高超;只要有一部智能手机,任何人都能随时随地向他问诊。这一天即将到来,且每个人都触手可及。这是一个极其震撼的事实——它不仅仅是带来了一点点改善,而是从根本上、大规模地拉高了整个人类的生存底线。
当然,我认为关于“如何打破上限(raising theceiling)”的探讨也是合理的。我们一直在深入思考价值分配机制将如何运作。看看OpenAI基金会(OpenAI Foundation),它持有OpenAI约25%到30%的股权——价值超过1500亿美元。如果OpenAI取得巨大成功,锁定在这个非营利组织中的巨额价值,将被用来真正回馈和造福世界。我们认为,这是一项重大的承诺。
阿什利 ·万斯:我完全能理解。前几天我们一起吃晚饭,听你聊起你是怎么使用智能体(Agents)的。我很了解你,说实话,你绝对是绝顶聪明。格雷格(Greg),听你描述这套系统怎么融入你的生活和工作时,我心里就在想:“老天啊!”虽然我也觉得自己平时在做一些有意思、有帮助的尝试,但听完你的描述,我还是被深深震撼了。未来这个世界将会满大街都是“超级个体”。说真的,这让人挺发怵的。这确实很酷,但也真的非常让人有压迫感。因为我完全不知道该怎么像你那样去驾驭这些技术。
萨姆 ·奥特曼:我能不能用一种更直白、不加掩饰的方式来表达?希望我不会因为这话惹上麻烦。我预见到了这个世界的三个未来。
第一种未来,正如格雷格所说,社会的下限被大幅拉高了。仅仅得益于纯粹的物质极大丰裕,每个人的主观财富感都会提升十倍。那种繁荣是极其惊人的,人们会想:“天哪,和十年前相比,我现在过得太棒了。”但在那个世界里,因为人工智能是一个真正强大的杠杆,那些最有能力、最有野心的人——即那些起步就富有、且能获得大量算力(Compute)的人——将使贫富差距进一步拉大。我们可能会看到身价一万亿,甚至十万亿美元的超级富豪。因此,虽然社会的下限被大幅拉高,但不平等却在急剧恶化。这是我预见的第一种世界。
我预见的第二种世界是,受多种因素影响,社会下限提升得没那么快。我们没有创造出那么大的整体繁荣,但随之而来的不平等也较轻。也许十年后人们觉得自己富有了两倍,但贫富差距实际上缩小了。
其实,我想先停下来集中讨论这两种情况,因为我认为这才是真正的核心症结所在。
凯莉 ·罗宾逊:第三种未来会可怕得多吗?
萨姆 ·奥特曼:不,但它会偏离我现在想表达的重点。世界上很多人认为选择是显而易见的。格雷格和我认为,人们理应更倾向于第一种未来。我想你也同意这一点。但从情感层面上来说,很多人并非如此。
格雷格 ·布罗克曼:我正想说,我不想断言什么是显而易见的,但对我个人而言,我在这项技术中看到了无限的潜力。从社会层面来看,这至关重要,特别是考虑到美国的竞争力。你看看机器人领域,我根本不认为我们在机器人方面领先。我们确实落后了。但在软件方面,我们确实握有机遇。在我看来,所有这些因素交织在一起,值得我们同时去审视。
萨姆 ·奥特曼:是的,很明显,即使是在很多问题上存在分歧的人,也都会同意美国需要在芯片、机器人、人工智能等所有领域保持竞争力。
但这将引出一个巨大的问题:我们该如何组织我们的社会和经济?我们是应该追求极致的繁荣,并坦然接受随之而来的不平等?还是说我们要对它进行限制,因为我们更看重事物之间的相对公平,并且担心:如果我们不加干预,尽管世界或许会变得更加繁荣,但那些善于利用这些工具的人将掌握所有的权力?
从理智和情感上来说,我的立场很明确。但我完全理解为什么其他人会感到迷茫。我也深切地体会到那种恐惧,如果我们任由其发展……
如果任由不平等在此蔓延,这种工具的复利效应是我们目前还无法完全预知的。最后我想强调的是,无论走向何方,每个人都应该呼吁获取更多的算力、更完善的基础设施,以及尽可能低廉的人工智能访问成本。否则,当资源变得稀缺,供需关系推高价格,导致只有富人才能用得起时,那才是真正加剧了不平等。
格雷格 ·布罗克曼:对,我想顺着这点往下说,因为在某种程度上,这也呼应了前面提到的一点——即我和山姆(Sam)是如何合作以及如何思考的。抛出这两种选择确实是个很好的切入点;这会让你思考,这是仅有的两条路吗?还是说在这片空间里,还有我们尚未察觉的其他可能性?
我认为山姆最后说的那番话,是我们思考AI的一个破局点。AI确实是赋予每个人的时代机遇,但前提是你必须拥有访问权——更准确地说,你必须拥有算力。如果没有算力,你几乎寸步难行;无论你使用智能体的技术多么出神入化,如果没有运行它们的硬件,你的潜力终究会被锁死。
我相信在未来的世界里,每个人都能获得算力。对我们这一代人来说,我们是伴随电脑长大的一代,比我们的父母更擅长使用它,我们是“数字原住民”。我认为现在成长起来的这一代,在使用智能体方面会和我一样出色——确切地说,我认为他们会比我强十倍。亲眼见证这一切的发生,真的是一种极其疯狂的体验。
阿什利 ·万斯:确实太疯狂了。我在《Core Memory》上写的第一篇深度报道,讲的就是那个用Claude制造核聚变装置的小伙子。我当时就觉得,那个核聚变装置本身反倒没那么重要了,真正震撼我的是他使用电脑的方式。我当时心想:“你使用这玩意儿的方式完全跟常人不同。”他才22岁,同时开着八个AI应用,然后……
8
美国的硬件难题 (America'shardwareproblem)
格雷格 ·布罗克曼:如果你能把算力提供给那个孩子,如果你能把算力提供给每一个孩子,那这必将是“美国梦”最极致的体现,对吧?这意味着,任何有渴望、有毅力去真正钻研这项技术的人,任何愿意倾注心血去构建并榨取其最大价值的人,都能实现跨越式的爆发。我们将看到社会的各个阶层爆发出极大的阶层流动性。因此,我认为在某种程度上,面对“选第一条路还是第二条路”这个问题,正确的回答恰恰是去创造出完全不同的第三种可能。而且我认为这是完全可以实现的。
阿什利 ·万斯:我觉得我们聊得有些宏观了,其实我们准备了一堆具体的问题。不过请原谅,我想顺着刚才的话题,再问最后一个宏观的问题。你们可能知道,也可能不知道,我一直扎根在硬件领域的报道中。我敢冒昧地说,我参观过的美国工厂和硬件初创企业可能比任何人都多,同时我也在密切关注中国。
有一个念头始终在我脑海中盘旋:是的,我们在软件上遥遥领先,我们在AI上也是。软件一直是我们过去四五十年实力的核心叙事。
但是,当我思考这项技术将如何在物理世界中具象化落地时,我完全看不到美国在未来具备任何形式的竞争力——不仅是在机器人领域,还包括构建这些硬件系统所需的所有核心零部件。
我去加州的埃尔塞贡多(ElSegundo),看到了大约30家初创公司。这很棒,那里思想碰撞,大家都在努力尝试。但与我在中国看到的景象相比,这简直就是小巫见大巫。这给了我一种强烈的冲击……
所有这些技术,必然会在物理世界中找到它的实体形态,而在我看来,美国在这场实体竞争中,似乎处于极其巨大的劣势。
格雷格 ·布罗克曼:在那些正拼尽全力去改变现状的人里,我想说Sam就是其中之一。
阿什利 ·万斯:比如在机器人领域,我知道你们投资了不同的硬件公司……
萨姆 ·奥特曼:不,不,我们在思考,探索机器人如何成为这其中理所当然的一部分,并试图弄清楚如何在机器人技术上取得巨大成功。如果只能选一件事来让美国在制造业乃至整个原子世界(the world of atoms)中保持竞争力,那就是我们需要海量的机器人,去制造更多、更多的机器人。
阿什利 ·万斯:但我们连一个执行器(actuator)都造不出来。
萨姆 ·奥特曼:我们会解决这个问题的。要靠OpenAI,OpenAI会解决它。
阿什利 ·万斯:通过你们的机器人技术来解决?
萨姆 ·奥特曼:我们别无选择,必须这么做。但这其中还有其他极其重要的一环。想象一下,仅仅是为了支撑AI的工作负载,全球就需要消耗多少吉瓦(gigawatts)的电力,我们必须制造多少芯片;更别提那些枯燥的基础工作——如何组装出足够的机架,如何从头制造并铺设足够多的网络电缆。美国在这些方面已经严重落后。只要看看这一进程必须达到的速度、美国目前的优势,以及我们要建设的基础设施规模,再想想纯手工完成这一切需要多长时间,你就会发现,机器人技术将是唯一的出路。
不过,你对现状的诊断和危机感的判断是完全正确的。我认为幸运的是,我们现在在棋盘上多了一枚新棋子。
阿什利 ·万斯:你是指OpenAI还是美国?美国?好吧,告诉我你是什么意思。我的感受恰恰相反,我觉得我们在硬件领域只是在装模作样,最终会被彻底击溃。
萨姆 ·奥特曼:就目前的发展轨迹来看,确实如此,我们完全同意你的担忧。但如果我们能制造出真正的通用机器人,如果我们能为机器人赋予媲美Codex(OpenAI的代码生成模型)那样强大的能力,让你能直接下令:“去按这种方式配置一个工厂,给我制造更多这种机器人”,或者“去弄清楚如何开采和提炼这种原材料”,那么整个竞争的格局就将彻底改写。
阿什利 ·万斯:好吧,但你刚刚说的是美国,而不是特指OpenAI。
萨姆 ·奥特曼:你指出了一个巨大的短板。但我认为,除了这种“AI+机器人”的路线,美国并没有其他可靠的计划能让我们以足够快的速度迎头赶上。
阿什利 ·万斯:我刚才没明白你说的“新棋子”是什么。你是最近看到了什么突破吗?
萨姆 ·奥特曼:哦,我说的“新棋子”就是指通用机器人(general purpose robots)。
格雷格 ·布罗克曼:机器人领域一直深陷在“先有鸡还是先有蛋”的悖论中:没有硬件躯壳,软件算法就无处施展;反之,如果没有一个“最强大脑”,人们也就失去了死磕硬件的动力。
我们在2018年的一个机器人项目上就深刻印证了这一点。还记得那只机械手吗?它简直酷毙了。关于那只手,你需要知道的是,我们是通过强化学习(reinforcementlearning)来训练它的——事实上,这与我们在竞技电子游戏中大杀四方所用的算法如出一辙。同一套底层技术居然能同时攻克这两个天差地别的领域,这实在太疯狂了。
唯一的区别在于,这只机械手每运行20个小时,作为它“肌腱”的线缆就会绷断,导致整个系统宕机。机械工程师不得不跑来修理;有时候我们甚至得半夜把他们叫醒赶回办公室。你很快就会意识到,不可能用这种方式来做机器学习,根本行不通。最终我们砍掉了那个项目,那个团队转而投身于另一项工作,也就是后来的GitHubCopilot。这让你深深感受到,软件世界的狂飙突进究竟有多快。
然而,我认为我们现在已经走到了一个转折点:我们手中掌握了令人惊叹的通用算法,它们可以被演绎出千变万化的应用。你可以预见,一旦我们将这些算法降维打击到物理世界,硬件开发与软硬协同设计(co-design)的故事将被彻底改写。
我相信变革的潜力近在咫尺。但作为一个国家,我们必须拥有将其付诸实践的坚定意志。
9
Greg执掌产品大局
萨姆 ·奥特曼:但我认为我们确实非常同意你的看法:如果缺少了这样破局的技术,目前的发展轨迹看起来将非常糟糕。
凯莉 ·罗宾逊:不。
萨姆 ·奥特曼:她可是坚信现状还不错呢。
凯莉 ·罗宾逊:我们把视角拉远一点。机器人模型(robotics models)是你们非常感兴趣且极其重视的领域。但最近有报道称,你们进行了业务线收缩和战略聚焦。我非常好奇,相信观众也迫切想知道:你们现在的牌桌上留下了什么?哪些项目被砍掉了?你们现在的重心是什么?为什么要进行这些裁撤?这一步为何如此关键?
萨姆 ·奥特曼:在我让Greg回答之前,我想先插一句。Greg已经全面接管,去真正理顺我们极具凝聚力的产品矩阵,以及背后的研究和支持体系。这让公司内部洋溢着不可思议的喜悦。当然,要把这些东西全推向市场还需要一点时间,毕竟他履新才几周左右。但大家对Greg的工作展现出的那种能量、兴奋感和狂热,简直令人难以置信。那么Greg,你可以来讲讲接下来的宏图了。
阿什利 ·万斯:你能展开讲讲吗?比如几周前你走马上任时,有一些裁撤实际上已经在进行了对吧?所以你进来之后,是把所有业务都重新评估了一遍吗?
格雷格 ·布罗克曼:其实在幕后,我一直深度参与着OpenAI的很多业务。只是在这个特定的产品领域走向台前,算是最近的事。不过有个冷知识:OpenAIAPI的第一个版本其实就是我写的。所以可以这么说,自OpenAI有“产品”这个概念以来,我就一直在做产品,而且我对其倾注了极大的心血。
在真正动手构建之前,我们并没有完全意识到产品开发对我们的核心使命究竟有多重要。但在那之后,你就会幡然醒悟它的绝对分量;这也正是我为何一直紧贴产品一线的缘由。
我们目前所处的节点,显然正处于向智能体(Agents)跨越的关键转折期。软件工程界在过去半年里对此感同身受。在2025年的进程中,我认为发生了一场范式转移:从单纯的“代码自动补全”,进化为你在编辑器的侧边栏中开始越来越多地与AI对话,尽管你依然在沿用过去的软件开发模式。
但现在,风向变了:你渴望的不再是一个辅助工具,而是一个真正的智能体管理平台。智能体将接管所有繁枝末节。也许还有20%的核心工作——比如如何将各个模块完美拼图、代码的顶层架构逻辑,以及通常写在架构文档里的高层构思——这些依然是人类最为看重并想要牢牢把控的。但至于写代码本身那些枯燥的实现细节?那全都是智能体的活儿了。
所以我们首要面对的命题是:我们该如何真正迎击并驾驭这个时代?因为这已经远超软件范畴,我们的视线已经穿透到了从法律到金融的每一个垂直赛道。
对于写作、做表格、做演示文档这些机械性的技能,我们该如何让模型做到炉火纯青?答案是与各领域的顶级专家联手,打造严苛的评估体系(evaluations)和训练数据。让AI真正带着它深厚的领域知识杀入这些垂直赛道去积累实战经验,通过源源不断的反馈来判断自己做得好不好,从而真正领悟究竟什么是“优秀”。关于如何实现这一切,我们脑海中已经有了一张精密的机械蓝图,但我们必须确保为其打造最完美的产品界面,以此来引爆它全部的潜力。
我们洞察到了一个根本性的转变:大模型本身已不再是“产品”,而退化为“产品的一部分”。过去,模型之上只覆盖着一层薄如蝉翼的软件代码,你压根不需要太费心去考虑架构设计。但如今,它已膨胀成一个极其厚重的中间层。你需要集成各种技能(skills)、连接器(connectors)、特定的计算机操作接口、上下文管理(contextmanagement)、记忆系统(memory)以及成百上千的其他组件。这一层深不可测的软件系统,实际上才是真正的AI。这就好比模型只是一颗“孤立的大脑”,而我们现在要为它重塑一具全能的“肉身”。打造大脑和构建肉身都极具挑战,它们注定要在软硬协同设计(co-design)中合二为一。
我们当下火力全开的头等大事,就是打造一个震撼人心的智能体平台(agenticplatform)。这是我们目前交付的绝对重心,而我们的团队在这个目标上展现出了极其强悍的执行力。对于未来几周内即将发布的新杀器,我感到无比兴奋。
我们的第二项优先任务是明确这些智能体(Agent)的实际应用场景,目前的重点是“电脑工作”(ComputerWork)。我非常刻意地使用了这个词。人们总喜欢谈论“知识工作”(KnowledgeWork),但其实没人真的把自己当成一个“知识工作者”;这个词太悬了,几乎脱离了实际工作本身。我之所以喜欢“电脑工作”这个词,是因为尽管人们不一定喜欢做这些事,但你会真切意识到自己在这上面耗费了多少时间——你被死死拴在办公桌前,不停敲击键盘,佝偻着背,承受着随之而来的种种身体疲劳。我们正专注于解决这个问题,让现有的代码能力不再只为软件工程师服务,而是让每个人都能触手可及。这一天很快就会到来,就在我们录制这期播客的当下,相关的更新就已经在路上了。在这个方向上,我们还有许多令人兴奋的计划正在推进。
我们的第三个重点是思考“个人通用人工智能”(PersonalAGI)。想想现在的ChatGPT,已经有十亿(abillion)用户在使用。未来,地球上的每一个个体,都将渴望拥有一个专属的AI——它能代表你,懂你的前因后果,并与你建立了深深的信任。
它不仅是你构建的工具,也不仅是陪你一对一聊天的对象;它可以主动出击,替你打理事务。例如,它知道你喜欢某位音乐家,而这位音乐家恰好来你的城市巡演。它会主动捕捉到这个信息,恰好这时放出了几张便宜的好票,它就会直接帮你买下来。
也许它知道已经赢得了你的信任,明白不需要事先请示就可以直接做主;又或者它会意识到:“这件事我不太拿得准,得先去请示一下。”我们正在构建的正是这种能力。所有这些功能最终都会汇聚成一个浑然一体的有机整体。
如果快进到我们的最终愿景,你会发现,你真正想要的只是一个通用人工智能(AGI)。你根本不需要什么语言模型(LanguageModel),不需要什么对话线程(Threads),也不想管任何技术细节。你真正想要的,只是一个能帮你排忧解难、代表你行事的得力助手——它懂你的目标,并能在工作和个人生活中帮你达成所愿。这正是我们当前的首要任务和发力点。
对我而言,人们常问的一个核心问题是:我们如何权衡消费者(Consumer)业务和企业级(Enterprise)业务?我的答案是:如果按照今天的定义,这两者我们都极其看重。然而,我认为这两个词的边界未来会发生改变并逐渐模糊,因为我们将解锁新一波的创业浪潮。
10
为什么砍掉Sora项目
我们已经看到了这种趋势的初见端倪:小公司现在能够创造出以往想都不敢想的巨额营收。这种趋势其实已经存在了一段时间,但接下来它会大幅加速。这算是企业业务吗?还是消费者业务?其实两者都不完全是。我们真正关注的是如何在所有场景下解决实际目标,这也是我们看待事物的一贯视角。
这种专注意味着我们不得不降低其他项目的优先级,哪怕它们本身也非常出色。有些项目必须被搁置或砍掉,Sora就是最明显的一个例子。
凯莉 ·罗宾逊:为什么要这么做呢?
格雷格 ·布罗克曼:因为它点亮的是科技树(TechTree)上不同的分支,对吧?如果你去观察真正驱动Sora的底层模型,你会发现它们与核心的GPT系列并未融合。其次,它的应用场景也并不统一;虽然创意表达非常重要,但它并不能直接服务于我们当前的首要目标。
我认为它是一个极其惊艳的模型,团队也做出了令人难以置信的贡献。这项技术肯定会以其他应用的形式延续下去,但我们的精力必须聚焦在想要交付的核心产品矩阵上。我们看重的是未来3个月、6个月乃至12个月内想要达成的目标。
我刚刚描述的进展仅仅是第一步,因为我们已经看到了一条通往更强大模型的清晰路径(Line of sight)。你可以看看我们现在在数学领域取得的进展;真的有些不可思议。我刚提到的那个成果——解决新的埃尔德什问题(Erdős Problem)——看起来的确意义非凡。
那仅仅是一个普通用户使用GPT-4o取得的成果。想想两年前我们训练模型时的场景:我们有一个20人的团队,试图训练模型去解决一个计算问题,结果只拿到了铜牌——20个人,花了差不多两周时间,耗费了海量算力。而现在,仅仅用这个我们“随手”训练的模型,别人只需把问题抛给它,就能得出这种级别的结果。
如果把这种能力指向药物研发呢?如果真的把那20人的团队和海量算力全部投入到推动科学发现上呢?这其中蕴含的巨大潜力,目前还没有任何人将其计入预期(Pricingin)。
我认为这标志着智能体(Agent)时代的全面到来——我们正在努力确保所做的产品投资具备良好的架构,深思熟虑地规划所有这些组件如何拼接融汇,确保各个连接器(Connectors)运转顺畅,并让每一个模块都能自由组合。
11
芯片、超级应用,以及留存下来的项目
这也关乎构建一个生态系统,因为核心不仅仅在于“我们”构建了什么。我们希望打造一些示例性质的智能体(Agent);你几乎可以把Codex看作一个示例。但真正的愿景应该是:如果你是一名开发者,或者是一个充满创意的人,你完全可以为了自己的应用和目的去构建专属的智能体。如果你执着于某个特定的数学问题,你应该能直接让智能体去攻克它。目前,我们正在让这一切成为可能。
阿什利 ·万斯:但是,请给我一秒钟,让我快速理清一下这里的几件事情。我的意思是,部分原因是不是你必须得搁置Sora,才能腾出足够的算力(Compute)办正事?
凯莉 ·罗宾逊:有报道说它占用了极其庞大的算力。
格雷格 ·布罗克曼:这么说吧,在这个领域里,任何想要取得成功的项目都会消耗海量的算力。
阿什利 ·万斯:我的意思是,特别是你们两位,我想还有Ilya等人,在早期可是以“全押”(Allin)算力方向而闻名的。但现在你们却不得不做出这些极其艰难的抉择。你们得服务所有现有的客户,还得去赚钱,毕竟你们的开销实在太大了。你们俩骨子里就是那种敢下最大赌注的人,但现在某种程度上却受到了商业现实的掣肘。这看起来一定非常煎熬。我感觉这根本不符合你们的本性,这让你们显得有些畏首畏尾。
格雷格 ·布罗克曼:这个说法有点奇怪,因为我并不觉得受到了商业的掣肘。相反,我觉得正是商业赋能了我们,正是业务的发展让我们敢底气十足地说:我们可以大规模扩张算力了。我还记得刚发布ChatGPT的时候,紧接着我们在讨论接下来该买多少算力。我当时就说,我们必须把能买到的算力全部扫光。不管怎样,我们必须这么做,因为市场需求摆在那里,极其庞大且清晰。我认为,正是这种清晰的需求彻底解放了我们,让我们有能力获取海量的算力去投入发展。
萨姆 ·奥特曼:是的,我想如果没有这台惊人的创收机器,我们根本无法说服任何人相信我们应该获得如此庞大的资源。
阿什利 ·万斯:但当你看到关于星际之门(Stargate)这类超级计算项目的报道时,外界的印象显然是:你们在基础设施上的投入似乎有些退缩了。
萨姆 ·奥特曼:我不知道这种说法是从哪里来的。肯定偶尔会有些数据中心选址不如人意,我们会说:“好吧,这个特定的站点可能只有风冷系统,所以对我们来说,它的价值不如其他站点高。”总会有各种具体的客观情况,而人们真的很想大做文章,去编造我们“战略收缩”的故事。但很快风向又会变成:“OpenAI太鲁莽了!他们怎么能在算力上挥霍这么巨额的资金?”无论我们怎么做,媒体总会大惊小怪,我想只是因为你们总得找点噱头写罢。但我们将继续竭尽全力,疯狂扩建我们的算力(Compute)。
格雷格 ·布罗克曼:还有一点值得思考:对我们而言,一旦将算力部署到产品中,它就不再是成本中心,而是利润中心。因此,从很多方面来看,我们的商业模式极其简单:我们租用或购买算力,然后加上利润率转售出去。只要边际收益为正,这种模式就能无限扩展,因为市场对算力的需求是永无止境的。
阿什利 ·万斯:那么,在数据中心硬件方面,依然是全力推进(fullsystemsgo)吗?
格雷格 ·布罗克曼:你是指我们自研的芯片吗?
阿什利 ·万斯:对,自研芯片、网络设施等。
格雷格 ·布罗克曼:是的,我对我们的自研芯片感到无比兴奋,我们有一支不可思议的团队。至于“Titan项目什么时候发布?”——当然,我们现在不谈具体的时间表。但我只能说,我花了很多时间和那个团队在一起,我认为他们做得非常棒。
阿什利 ·万斯:所以硬件方面是全力推进的。听起来机器人(Robotics)领域也是火力全开。
萨姆 ·奥特曼:要达到让大家惊呼“这就是机器人的ChatGPT时刻”,还需要一段时间,但我们并没有放弃那个项目。社交机器人(Socialrobots)虽然目前还不是风口,但在未来显然会变得极其重要。
阿什利 ·万斯:那社交网络呢?不做了吗?对,那块不碰了,已经翻篇了。显然,像“超级应用(SuperApp)”、浏览器这些项目还在继续推进。
格雷格 ·布罗克曼:是的,关于“超级应用”,我希望大家能认清一点:我觉得这只是一个博人眼球的流行词。我本以为是你们想出来的,但它现在被当成了我们内部的一种简写代称。
确实如此。大家需要意识到的是,有时我们在与团队进行内部沟通,但理所当然地,这些话最终会传到外界的耳朵里。这两者的沟通受众和意图本就不该混为一谈。
12
Anthropic真的超越OpenAI了吗?
在很多方面,“超级应用”就像是一座冰山。没错,我们会有自己的应用程序,你们也将看到现有的Codex迎来更新,以确保它能惠及所有人。我认为,尽管距离实现最终目标还有很多步要走,但其核心其实是构建我之前描述的那种**统一的智能体基础设施(AgenticInfrastructure)**。这将会为人类想做的每一件事带来史诗级的解锁与突破。
阿什利 ·万斯:我们之前稍微聊过,你们经历了不少抓马(Drama)事件。这些风波有时确实拖慢了你们的步伐。遗憾的是,你们现在依然麻烦不断,比如即将到来的诉讼,那可就有意思了。好吧,这个我们稍后再谈。就过去两年来看,你认为哪家公司的执行力更胜一筹,OpenAI还是Anthropic?
格雷格 ·布罗克曼:听着,我认为仅仅从当下的节点来评判是一件很困难的事。我们需要退一步,认真思考我们聚在这里的终极使命是什么。
从OpenAI的角度来看,向企业端销售,并探索如何交付这些编程工具,显然是我们的重中之重。在某种程度上,竞争确实能倒逼我们提升思维维度,让我们意识到该把焦点放在哪里。以代码能力为例,我们不仅要构建在抽象理论上擅长编程的模型——我们在各种编程竞赛中一直保持着最高的分数——还要将它们应用到混乱的真实代码库和现实世界的数据中,但在这一层面上,我们确实入局晚了。我认为Anthropic比我们更早意识到了这一点。向他们致敬,但这也正是促使我们不断提升自身执行力的动力。
如果现在让Codex和Claude正面对决,我认为我们的胜算非常大。我们的团队在全公司范围内完成了令人难以置信的壮举,打造出了一款不仅极具竞争力,甚至在多方面遥遥领先的产品。
然而,我们使命的核心从来不是在新闻舆论的跌宕起伏中博眼球;而是稳步迈向通用人工智能(AGI),并确保它能造福全人类。这是我们始终如一的极度专注点,团队目前的执行力堪称完美。从外界你未必能总览全局,但如果你回顾我们探讨过的内容,就会发现我们在多重时间维度上都有着极其清晰的焦点,而这些所有的努力,最终都将汇聚成引领我们抵达彼岸的力量。
13
关于 AI神话与“恐惧营销(fear-basedmarketing)”
凯莉 ·罗宾逊:是的,在剩下的时间里,我还有无数个问题想问。但其中一个是,我们刚才触及到了这一点,即确保大批模型能交到大众手中,让他们拥有这种强大的技术。但我们现在似乎到了一个临界点,有人告诉我们,其中一些模型过于强大,必须设限,仅供特定的公司使用。Claude和Mythos确实抢占了大量头条,我认为也制造了更多的恐慌。我想知道你们如何看待这个新阶段?我们是否已经到了这样一个转折点:必须将这些强大的模型隐藏在幕后,而不是交到每个人手中?
萨姆 ·奥特曼:世界上确实存在这样一群人,他们长期以来一直妄图将AI牢牢控制在一小撮人手中。你可以用各种各样的理由来为之辩护,有些担忧确实是真实的;合理的安全隐患必然存在。
但如果你的潜台词是:“我们需要控制AI,而且只能由我们来控制,因为只有我们才值得信赖”,那么我认为,“恐惧营销(fear-based marketing)”可能是为其辩护最奏效的手段。这并不意味着在某些情况下这种担忧不合理。
但显然,这是一种绝佳的营销套路:“我们造了一枚炸弹,即将投向你们的头顶。现在,我们以1亿美元的价格卖给你一个防空洞。为了保全你的所有业务,你必须买它,但前提是我们得先挑中你做我们的客户。”
我们坚信,世界需要获取、使用、理解这项技术,并激发出新的灵感。但在新能力不断涌现的过程中,想要在这个信念与能力之间找到平衡点,绝非易事。
长期以来,网络安全(Cyber security)一直是我们“准备框架(Preparedness framework)”中的重中之重。我们一直在构建防御与缓解措施,以厘清如何发布这些模型,如何将它们置入受信任的访问计划中,以及最终如何将能力更强的模型交到每个人手中。
未来,肯定会有越来越多诸如“模型太危险而不能发布”的论调。同时,也确实会存在一些极具危险性的模型,必须以非同寻常的方式进行发布,正如格雷格(Greg)刚刚提到的那样……
我们的终极目标是造福全人类。我不想把这说成是一种营销,而是想邀请整个世界与我们共赴这场旅程。我们将赋予你们更强大的技术,而与之相伴的必将是更沉重的责任。我们将倾尽全力,帮助这个世界更好地迎接成功。但与此同时,我们会尽最大努力,绝不沾染那些“恐惧营销”。
凯莉 ·罗宾逊:那我就直接问了,你认为Mythos仅仅是营销噱头吗?
萨姆 ·奥特曼:不,我确信它是一个很棒的网络安全模型。我们讨论这个问题已经很久了。这一直在我们的模型规划中,但我们的表达方式是,这些模型在网络安全方面会变得越来越强大。我们将其列为**准备框架(Preparedness framework)中的一个类别。这是我们将这些模型部署到现实世界的计划;这是我们的可信访问计划(Trusted Access Program)**的样貌;这是我们为模型设置的缓解措施。我认为Anthropic并没有将其作为他们准备框架中的一个类别。所以我确信Mythos是一个出色的网络安全模型。但对于如何将这种能力推向世界,我们有一套自己非常有信心的计划。
阿什利 ·万斯:当Anthropic与美国军方(国防部)发生那些事时,从我的角度看,似乎是大卫·萨克斯(David Sacks)以及那些与埃隆(Elon Musk)关系密切的人在施加压力,促成了一些事情,并让政府把注意力集中在这上面。你们随后反应非常迅速,发布了自己的公告,而且反响更好。也就是在这个时候,埃隆也开始……
对你们咄咄逼人。这让我觉得有些滑稽,因为在某种程度上,你们和Anthropic其实身处同一阵营,而我的理解是,埃隆甚至扎克伯格(Zuck)在某种程度上像是在另一边施压。你觉得Anthropic在那次事件中受到了公平对待吗?
萨姆 ·奥特曼:我认为当时各方都有很多恶劣的行为,但我认为Anthropic并没有受到善待。
凯莉 ·罗宾逊:能具体说说吗?在你看来,到底什么是极其不妥的?
萨姆 ·奥特曼:看看后来发生的事情,随着这些模型达到了明确触及国家安全利益的网络安全阈值,我认为整件事的性质已经变了。但是,威胁使用《国防生产法》(DPA)甚至动用供应链风险认定,我认为这绝不是政府与我们的AI事业之间应有的关系。我们非常看重对美国政府的支持,随着模型能力愈发强大,这一点将变得越来越重要。我当然认为,AI实验室摆出一种“我们手握超级武器,但顺便说一句,我们才不会帮你们保卫国家”的姿态,绝不是什么好立场。但我同样认为,政府也不该……
在媒体上挑起争端,动用那种本该极少使用的“政府大锤”来砸人。至于OpenAI,我们通常努力保持温和、中立和理性的态度,这也是我们在与美国政府合作时所坚持的。我看不到任何一种美好的未来,是顶尖的AI力量不协助美国政府的。如果我们所说的关于模型未来走向的一切都是对的——我坚信确实如此——那么政府就需要我们的帮助,而我们也很荣幸能提供这份助力。
14
AI领域的宫斗大戏为何变得如此乌烟瘴气
阿什利 ·万斯:我刚开始做科技报道时,最大的战争基本上就是微软对抗全世界。当时他们被视作财大气粗且邪恶的专有软件巨头,而开源公司则是反抗力量。还有马克·安德森(Mark Andreessen)和网景(Netscape)公司,这些斗争也会在媒体上引发些许唇枪舌剑。人们当然有各自的哲学和信仰阵营。
但显然,我们如今在“AI圈”所处的状态简直是疯了。这一切似乎都与你、埃隆、扎克伯格、达里奥(Dario Amodei)和德米斯(Demis Hassabis)等人的个性、个人恩怨以及世界观深度绑定。你也曾写过——这一切宛如一场莎士比亚式的戏剧。
我们怎么可能跨过这道坎?你们这些人之间的纠葛如此之深,以至于我看不到出路。而且正如我们刚才提到的,即将来临的诉讼只会让局势更加剑拔弩张。
凯莉 ·罗宾逊:我很遗憾地说,你们大概不会在舞台上手拉手言和。
萨姆 ·奥特曼:一些局中人只相信自己能把事情做好。因为他们认为这其中的利害关系是无限大的,又因为种种原因,他们觉得其他人做不好,或者根本不想让别人来做。这导致了一些非常病态(toxic)的行为。我们无法控制他人的所作所为,但我们会继续倡导,将AI视为一项全人类必须共同完成的集体事业,而不是关乎某个人或某种意识形态的成败,更不是为了追求所谓的“独霸之功”(Sole Victory)。
15
山姆最糟糕的一周
阿什利 ·万斯:我们不得不提一下,虽然我知道这非常敏感——但如果你看看过去一周发生在你个人身上的事,其实有无数科幻小说都描写过,当那些真正不希望看到技术进步的阵营开始采取极端行动时,会发生什么。有一种观点认为,现在反击的开关已经被按下了。
萨姆 ·奥特曼:是那些想要阻止技术进步的人干的。
阿什利 ·万斯:是的,多年前我读过理查德·克拉克(RichardClarke)的书,里面有一个类似比尔·乔伊(BillJoy)的角色认定绝不能让AI成为现实,于是四处破坏数据中心。这种桥段一直都有。只是让人觉得,天哪,我想象不出局势还能怎么升级。看起来情况并没有好转,我猜这种紧张态势会起伏不定。
萨姆 ·奥特曼:总体趋势上是在加剧的。
阿什利 ·万斯:你也曾写过这些。显然,这一切一定令人毛骨悚然。
萨姆 ·奥特曼:糟糕透顶。我在这里没什么深刻的见解可分享。以那种方式被惊醒真是太疯狂了。第一天,我完全处于一种肾上腺素飙升的休克状态,只能拼命去处理各种后勤和安保问题。但到了第二天,我突然意识到:
以后还会有更多类似的事情发生,这让人极度心灰意冷。我为此经历了一段非常压抑的时期。这确实非常可怕,我也没法给出什么深刻的总结。我认为那些“末日论(Doomerism)”的言辞无济于事,其他一些实验室谈论我们的方式也于事无补。我其实不想在这里发表什么拉踩站队的声明,但我确实认为,Anthropic谈论OpenAI的方式并没有起到好的作用。我希望,理智与冷静最终能占据上风。
格雷格 ·布罗克曼:有一点我想说,回到“我们无法控制他人,但可以控制自己”这一点上。有一件事让我对山姆(Sam)印象极深且深感震撼,那就是在整段时期里,甚至就在事情发生的那一天,他依然坚守岗位,处理那些非他不可的工作。他始终在毫不动摇地推动着我们的使命。我认为这绝不是理所当然的。山姆所展现出的那种极度的韧性,被人们严重低估了。
阿什利 ·万斯:我也有同感。人们总是会说:“哦,你放轻松点”之类的话。但我不知道,回顾过去三年,很难再找到像你这样,在商业和个人生活上经历过如此剧烈动荡的人了。
萨姆 ·奥特曼:别人可能不会同情你,那也没关系。就在“那件事”发生的前一天晚上,我在家里请了几位同事吃晚饭。我们聊到了公司的下一阶段,他们说:“最近媒体对你的报道极其残酷,但从某种意义上说,这或许是件好事。”我当时的回答是:“至少没人试图杀了我。”
这确实让我豁然开朗:流言蜚语任人评说,只要仅仅停留在言语攻击上,便算不上什么天大的事。你只需继续前行。
阿什利 ·万斯:你以前常说,你的梦想是去纳帕(Napa)退休养老。我的意思是,总会有那一天的,那为什么不是现在呢?我们当然还有很多工作要做,但很明显,现在终归有人会实现通用人工智能(AGI)。目前大概有五家公司很有可能做到这一点,你觉得会是哪一家?你最希望哪家公司率先登顶?
格雷格 ·布罗克曼:难道仅仅是比拼谁先到达终点吗?不。我认为现在缺失的一环是:我们该如何帮助人们真正理解这项技术能为他们带来什么?我认为这是每家公司都能贡献力量的地方。正如我们在本期播客中多次谈到的那样,我们对此有自己的独到见解。
从根本上说,我认为每一个致力于创造这项技术的人,都有责任去展示它的益处,去解释为什么人们应该渴望拥有它。为什么人们应该去保护并捍卫创造这种技术的能力?为什么美国必须在这一领域保持领先?为什么这一切不仅对国家有益,更是为了你个人的未来、以及你孩子们的未来?
这是我们每天一睁眼就在思考的问题。这绝非夸大其词,我们时刻都在讨论。即使是在为公司设计极具创意的独特法律架构时,我们也将这一点铭记于心——我们进行了许多次尝试,都是为了实现这个我们认为至关重要的使命。
如果有其他人愿意为此贡献力量,那自然是多多益善。这是我们所有人都应该肩负的责任,而在某种程度上,这一切才刚刚开始。
萨姆 ·奥特曼:对我们而言,这份信念尤为独特。我们无比坚信,如果我们能带来惠及所有人的繁荣技术,如果能赋予人们对未来更多的掌控权,那么即便道阻且长,也必将引领我们走向一个更美好的世界。我不认为这个领域里的所有人都有同样的信仰,但对于任何志同道合者,我们都无比期待与之合作。这就是我们想要推动世界不断前行的使命。
凯莉 ·罗宾逊:回到刚才的话题。
阿什利 ·万斯:我想我们还有时间提几个问题。
16
Sam渴望直面的埃隆·马斯克诉讼案
我得快点提问。我不想以我即将问的这个沉重问题作为结尾,所以我们直接切入正题。你认为这场诉讼在多大程度上关乎公司的生死存亡?
格雷格 ·布罗克曼:实际上,我认为这是我们讲述自己故事的绝佳机会。回顾OpenAI的发展历程,每当内部出现分歧时,我们总是把叙事权让给对方。我们一直极力克制,不去争辩说:“事实并非如此,让我们谈谈真相吧。”但在这次案件中,我们终于退无可退;我们必须挺身而出为自己辩护,说出真相,还原事情的本来面目。
对于我们处理这些事情的方式,我感到无比自豪。我花了很多时间回溯过往的记录和各种信息。当然,总会有人试图断章取义,指责说:“啊哈,你当初可是这么说的。”你们都知道最近被曝光的那些日记。首先,那是非常私密的文件。当如此私人的东西被强行夺走,甚至被当成攻击你的武器时,那种感觉是极其痛苦的。但即便如此,他们挑出的那些只言片语,已经是反对者能找到的“最恶劣”的黑料了。你甚至会觉得:“就这?”它们全都是被断章取义的。
回想一下我们在那些谈判中所处的境地。当时我们一致认为,OpenAI继续前进的唯一出路就是转型为营利性实体。Sam、Ilya、Greg和埃隆(Elon)——我们四个人都同意这一点。我们都明白这是势在必行的,对于我们的使命而言,这绝对不可或缺。
但随后,谈判陷入了疯狂的境地。埃隆开始要求:“我需要绝对多数股权。我需要担任CEO。我需要完全的控制权。”其实我们当时离达成协议已经非常近了。我们心想:“好吧,如果你需要这么多股权,我们不做平起平坐的合伙人也可以。我们希望你留在团队里,这是可以商量的。”我们甚至考虑过:“行吧,如果埃隆需要当CEO,那就让他当,让大家都知道是他在掌舵。”
但紧接着,他提出了对OpenAI拥有“绝对控制权”的要求。即使他声称未来会稀释或放弃股份,这也直接触及了灵魂拷问:我们的使命到底是什么?我们真的信仰它吗?我们是否真的在乎“让这项技术造福全人类”的愿景?人类的整个未来,绝不该由任何一个人独揽大权。
无论那个人是谁都不行。这就是最后的决裂点,也是促使我们坚决说“不”的原因。多年来我们一直对这段往事保持沉默,但现在我们会把它公之于众。因此,我认为这真的是一个绝佳的机会,让人们看清我们真正的动力所在,以及我们真正坚守的底线。
萨姆 ·奥特曼:我觉得他挑起这场诉讼简直是疯了。但我现在反倒有些担心,他会在开庭前夕突然撤诉,那我们就没机会把这些真相大白于天下了。我非常乐意向全世界把这一切解释清楚,彻底翻过这一页。
凯莉 ·罗宾逊:好的。我的问题又要绕回这期播客的开头了。我刚才提到了外界的种种叙事。作为一名人工智能领域的记者,我觉得自己是在“我们都会死”、“我们都会丢掉饭碗”这种声音中成长起来的。这种论调我听了一遍又一遍。如今,你个人笔记的部分内容被公开了。我很好奇,如果拥有“事后诸葛亮”般的上帝视角(hindsightbeing20/20),你当初会用什么不同的方式来探讨这些问题?
格雷格 ·布罗克曼:某种程度上,我希望当初我们能用今天看待它的方式去进行探讨,但我不知道以当时的认知水平,我们是否真的能做到。
举个例子,部分原因与技术本身有关。在2017年和2018年,我们对构建通用人工智能(AGI)的构想,是通过竞争性的多智能体模拟(Multi-agent Simulation)来实现的。想象有一座生活着数千个智能体的孤岛,它们为了生存和繁衍展开激烈的厮杀。你可以预见,如果倾注海量的算力,也许确实能孕育出极其聪明的东西。但这种“聪明”与人类的价值观毫无瓜葛。你必须额外再增加一个步骤,去研究到底该如何跟这个东西交流。它没有在真实世界中成长过,没有语言的概念,也与我们的现实脱节。它只是单纯的聪明且强大——这是一个令人毛骨悚然的系统。你必须从零开始,去琢磨到底该如何让它与人类对齐(Alignment)。
但现实是,我们走上了大语言模型(Large Language Model)这条路线,它深深植根于人类价值观和对人类的理解之中。我们现在有了可以实时监控的“思维链”(Chain of Thought);只要你在技术方向上走得对,就有一条路能确保这个思考过程是忠实的,它能真实反映出驱动AI做出决策的内在动机。
我们现在意识到,我们拥有了一条截然不同的技术路径来实现我们的最终愿景,而且这是一条充满希望与乐观的康庄大道。我们必须经历这些技术上的摸爬滚打,才能真正理解这项技术的本质、它的诞生方式,以及如何让它真正发挥效用。这是我们当年无法洞察的,但今天,我们做到了。
阿什利 ·万斯:这是一场非常精彩的讨论。非常感谢你们两位能共同出席。作为一个不起眼的播客,能邀请到二位在此倾注时间,我们深感荣幸。显然,我们探讨了非常广泛的议题,但最核心的亮点是:在相对较短的时间内,新一代模型就展现出了极其出色的表现。非常感谢二位。真的非常感谢。
格雷格 ·布罗克曼:感谢你们的邀请。(这些模型)将让人终生受用。
阿什利 ·万斯:谢谢大家,感谢各位。我们下期再见。





京公网安备 11011402013531号