![]()
OpenAI宣布公司重组完成后,Sam Altman和OpenAI首席科学家Jakub Pachocki进行了1小时直播,首次公开了OAI内部对实现超级智能和全自动 AI 研究员的具体时间表。整个直播围绕 OpenAI 的三大支柱——研究、产品和基础设施——展开,信息量巨大
Sam直播核心内容速览(纯干货版)
1.OpenAI 正在开发个人 AGI(明年可能会推出 AI 硬件设备)
2.OpenAI认为,深度学习可能在不到十年内将人类带入超级智能时代
3.时间线展望:
- 2026年9月 → 实现 AI 自动化研究实习生。
- 2028年3月 → 实现全自动化的 AI 研究员。
- 2030年代 → 对世界的影响将无法预测
Sam:“未来很可能是非常光明的。”他们对实现这一时间线抱着极其乐观的态度
4.目前,在数据中心上的投资已达约1.4万亿美元,并计划每周建造一座 1GW 的算力工厂——因此,之前sam提出的7万亿美元芯片计划似乎不再是遥不可及
5.OpenAI 的内部模型目前尚未远超已发布的版本,但他们对在2026年9月前实现重大飞跃非常乐观,到2026年9月,我们极有可能见证模型质量的巨大飞跃。此外,预计未来数月乃至数年内还会有重大进展
6.模型的使用成本已平均下降了40倍,并且预计这一趋势将持续下去(约每年下降40倍)
7.关于 AGI:“AGI 何时能实现?” Jakub 和 Sam 回答:这将是一个持续数年的过程,而我们正身处其中。但 Sam 特别指出了2028年这个节点,届时科学研究将完全由 AI 自动化,AI 系统将能够推动科学前沿的发展,这将是 AI 留给世界的遗产
8.未来几年,人类劳动的自动化程度将显著提高,我们可能面临大规模失业
9.关于 GPT-6:没有具体发布日期,但他们希望未来能更频繁地更新模型
,模型能力在不到6个月内就会有巨大飞跃。
以下是这次1小时直播详细信息
![]()
OpenAI 的愿景与三大支柱
Sam Altman 首先重申了 OpenAI 的核心使命,即确保AGI能够惠及全人类。随着技术的进步,OpenAI 对如何实现这一使命的理解也发生了深刻的演变
愿景的转变:在早期,OpenAI 曾设想 AGI 可能是一种如“神谕”般的存在,能为人类创造出各种奇妙事物。而现在,他们的看法变得更加清晰和务实:OpenAI 的目标是创造强大的 AI 工具,然后将这些工具交到人们手中,让人们用它们来塑造和创造未来。这是一种赋能于人的理念,相信人类利用更先进的工具不断创造更美好事物的历史进程将会延续
个人化 AGI 的愿景:OpenAI 现在可以看到一个清晰的未来,即帮助构建一个个人化的 AGI。这个 AGI 可以被人们在任何地方使用,接入各种不同的服务和系统,从而在工作和个人生活中提供帮助。随着 AI 能力的增强,甚至可以帮助发现新的科学知识,人们利用这种力量所能创造的价值将是不可估量的,不仅能改善整个社会,也能让个人生活更加充实
为了实现这一宏大愿景,OpenAI 的工作围绕三大核心支柱展开:
![]()
1.研究(Research):必须在基础研究上取得成功,以构建出真正的 AGI
2.产品(Product):必须打造一个强大且易于使用的平台,让 AI 的能力可以被广泛应用
3.基础设施(Infrastructure):必须建设足够庞大的基础设施,以确保人们能够以低廉的成本,尽情使用他们所需要的强大 AI
Sam Altman 用一个简单的层级图描绘了 OpenAI 的世界观:
![]()
底层:是硬件基础,包括芯片(chips)、机架(racks)、系统、数据中心以及能源
中间层:在硬件之上训练模型,并构建 OpenAI 账户体系
应用层:推出了名为 Atlas 的浏览器,并计划在未来几年内推出硬件设备,让 AI 无处不在。同时,OpenAI 会开发一些第一方应用,如 ChatGPT。
生态系统:最让 OpenAI 感到兴奋的是一个庞大的生态系统。他们预见到,人们将能够利用 OpenAI 的 API、ChatGPT 内的应用、新的企业平台以及 OpenAI 账户,构建出令人难以置信的服务。这个生态系统将把现实世界中的一切,以及更多未来的事物,都融入到这个全新的 AI 世界中。OpenAI 的角色是成为这个生态的赋能者
通往超级智能的研究路线图:Research
首席科学家 Jakub Pachocki 深入阐述了 OpenAI 的研究目标,其核心聚焦于深度学习技术,特别是规模化训练所带来的影响,分享了 OpenAI 内部为之制定的体研究时间表
超级智能的临近:Jakub 指出,AGI这个词甚至可能低估了技术进步的潜在规模。OpenAI 内部相信,深度学习系统距离实现超级智能(super intelligence)——即在众多关键维度上比所有人类都更聪明的系统——可能已不足十年。这是一个需要严肃对待的预测,其背后蕴含着巨大的影响
![]()
核心目标:加速科学发现:OpenAI 的整个研究计划都围绕一个核心潜力展开:加速科学发现和新技术的发展。他们认为,这将是 AI 发展最深远的长期影响,它将从根本上改变人类技术进步的速度
衡量进展的标尺:任务时间跨度:一个衡量模型能力进展的有效方式是看模型完成一项任务所需的时间,与人类专家所需的时间对比。这个“任务时间跨度”在过去几年里迅速延长
当前一代模型的水平大约在 5 小时左右。这可以从模型在国际数学或信息学奥林匹克竞赛中与顶尖人类选手的表现相媲美中看出
![]()
OpenAI 相信这个时间跨度将继续快速延伸。这不仅源于算法创新,也来自于进一步的规模化训练,尤其是在“上下文计算”(in-context compute)或“测试时计算”(test-time compute)的新维度上。这个维度可以理解为模型用于“思考”的时间,还有巨大的提升空间。对于科学突破这类重要问题,使用整个数据中心的算力来思考是完全合理的
公开内部研究目标:基于对未来进展的预期,Jakub 公开了 OpenAI 为实现这些强大系统而设定的内部目标和时间线。他强调,这些预测可能会被证明是错误的,但这是 OpenAI 目前规划工作的方式
AI 研究实习生(AI research interns):目标是在明年九月之前,开发出能力足够强的 AI 研究实习生。这些 AI 能够通过消耗大量计算资源,有意义地加速 OpenAI 内部研究人员的工作
全自动 AI 研究员(fully automated AI researcher):更长远的目标是,在 2028 年 3 月之前,开发出一个能够自主完成大型研究项目、实现完全自动化的 AI 研究员
![]()
AI 安全与价值对齐的五层框架
随着系统能力向着超级智能迈进,安全与对齐(safety and alignment)问题变得至关重要。Jakub 解释说,OpenAI 的许多工作,无论是关于模型部署、安全研究,还是对技术发展路线的理解,都可以看作是为这些超强能力的模型做准备。他提出了一个将安全问题结构化的五层框架,从模型最核心的内部因素延伸到最外部的系统保障
![]()
价值对齐(Value Alignment):这是最核心、也是最重要的长期安全问题。它关乎 AI 最根本的“关心”的是什么。它能否遵循一些高层次的原则?当面对不清晰或相互冲突的目标时它会怎么做?它是否对人类怀有善意?之所以如此重要,是因为当系统变得极其聪明、思考时间极长、处理的问题超越人类能力极限时,给出完全无懈可-击的指令会变得异常困难。因此,必须依赖于这种更深层次的对齐
目标对齐(Goal Alignment):这一层关注 AI 如何与人互动,以及它遵循指令的表现如何
可靠性(Reliability):AI 能否准确地校准其预测?它能否在简单的任务上保持可靠,在困难的任务上表达不确定性?它能否处理稍微陌生的环境?
对抗性鲁棒性(Adversarial Robustness):与可靠性相关,但更侧重于对抗性环境。AI 能否抵御来自人类或其它 AI 对手的蓄意攻击?
系统性安全(Systemic Safety):这是最外层的保障,不依赖于 AI 本身的智能或对齐程度。它包括系统的安全性(security)、AI 可以访问哪些数据、可以使用哪些设备等外部限制
技术深潜:思维链忠实度(Chain of Thought Faithfulness):Jakub 特别介绍了一项 OpenAI 重点投入的研究方向,它被视为研究价值对齐问题的一个很有前途的新工具
![]()
核心理念:这项可解释性技术的核心思想是,在训练过程中,刻意让模型内部推理的某些部分(即“思维链”)不受监督。OpenAI 克制住不去引导模型产生好的想法,从而让这部分推理过程能够更忠实地反映模型真实的所思所想
乐观的理由:虽然这并不能从数学上被证明一定有效,但有两个理由让人保持乐观。首先,经验性的结果非常理想,OpenAI 内部大量使用该技术来理解模型训练过程中的演变,并与外部合作者成功地用它来研究模型的欺骗倾向。其次,它是可扩展的,其设计目标不会与监控模型的能力产生对抗
技术的脆弱性:思维链忠实度技术是脆弱的,它要求在算法和产品设计中划定清晰的界限。例如,ChatGPT 中对思维链进行总结的功能,就是为了避免将完整的思维链直接暴露给用户。如果思维链完全可见,它就会成为用户体验的一部分,久而久之就很难再对其保持无监督状态。通过为模型保留这种受控的隐私,OpenAI 希望能长期保持理解其内部运作过程的能力,这是为closeAI辩护?
从产品到平台,构建一个 AI 云:Product
Sam Altman 阐述 OpenAI 在产品层面的战略演进。随着深度学习技术的惊人进展,OpenAI 的目标是将其转化为人们创造未来的实用工具
从助手到平台:过去,OpenAI 的产品形态主要是以 ChatGPT 为代表的 AI 超级助手。现在,他们正朝着一个更宏大的目标演进——成为一个平台,一个其他人可以在其上构建应用和服务的“AI 云”。他们的目标是让技术不仅仅局限于 OpenAI 创造的服务中,而是尽可能多地暴露给全世界的开发者,让他们去创造人们所依赖、使用和创造的一切
平台成功的标准:Sam 引用了比尔·盖茨的一个观点来定义平台的成功:当你构建了一个平台,如果其他人基于这个平台创造的价值,超过了平台构建者自身创造的价值,那么你就成功了。这正是 OpenAI 在明年的目标。他们相信,凭借现有的技术、用户基础和框架,他们能够推动全世界在 OpenAI 平台上创建出惊人的新公司、服务和应用
为了实现这一平台化转型,Sam 强调了两个基础性的原则:
用户自由(User Freedom):如果 OpenAI 要成为一个供全世界不同人群构建、使用和创造的平台,就必须承认人们有截然不同的需求和愿望。虽然会有一些非常宽泛的边界,但 OpenAI 希望用户在使用 AI 时拥有大量的控制权和定制化能力,OpenAI 希望像对待成年人一样对待其成年用户
隐私(Privacy):随着 AI 成为基础平台,世界需要以一种不同于以往技术的方式来思考隐私问题。人们与 AI 互动的方式非常私密,他们会像对医生、律师或配偶一样与之交谈,分享生活中最隐秘的细节
万亿级的基建蓝图:Infrastructure
为了支撑雄心勃勃的研究和产品目标,基础设施的建设是不可或缺的一环。Sam Altman 在这一部分以前所未有的透明度,公开了 OpenAI 庞大的基础设施建设计划和投入
当前的承诺:
截至目前,OpenAI 已承诺建设总计超过 30 吉瓦(gigawatts) 的基础设施
这对应着未来数年内总计 1.4 万亿美元投资
这只是基于 OpenAI 目前对收入增长、融资能力的评估而做出的承诺,他们希望未来能做得更多
要实现这一目标,需要大量的合作伙伴。Sam 提及了 AMD、Broadcom、Google、微软(Microsoft)、英伟达(NVIDIA)、甲骨文(Oracle)、软银(Softbank)等众多芯片、数据中心、能源和制造领域的合作伙伴
![]()
未来的愿景:
Sam 强调,以下计划目前尚未承诺,但正在积极讨论中:
他们的愿景是建立一个基础设施工厂(infrastructure factory),能够以每周一吉瓦的速度创造算力
同时,他们希望将成本大幅降低,目标是在设备的 5 年生命周期内,将每吉瓦的成本降至约200 亿美元
实现这一愿景需要海量的创新、更深入的合作、巨大的收入增长,甚至需要重新调整 OpenAI 在机器人领域的思路,让机器人来帮助建设数据中心
全新的公司架构
为了支持上述宏大的计划,并确保公司始终服务于其核心使命,OpenAI 对其公司架构进行了重大调整,使其变得更加清晰和简化。
简化后的结构:
OpenAI 基金会(OpenAI Foundation):这是一个非营利组织,处于整个结构的顶端,拥有对公司的最终控制权。董事会隶属于基金会
OpenAI 集团(OpenAI Group):这是一个公共利益公司(Public Benefit Corporation, PBC),位于基金会之下
![]()
各部分的角色与关系:
基金会:基金会将掌控 PBC,最初持有其约 26% 的股权,如果公司表现出色,这一比例未来还可能增加。基金会的目标是成为有史以来最大的非营利组织,它将利用其资源来追求 AI 能带来的最大化社会福祉,首要关注领域将是科学
PBC:OpenAI 集团将更像一家普通公司一样运作,以便能够吸引研究所需的庞大资源,特别是用于前述的基础设施建设。尽管如此,它依然受到与基金会相同的使命约束,尤其是在安全问题上,必须以使命为唯一准则
基金会的初步焦点:治愈疾病与 AI 韧性
在新架构下,OpenAI 基金会公布了其最初的两个重点投入方向。联合创始人 Wojciech Zaremba 详细解释了其中“AI 韧性”的概念
![]()
250 亿美元用于治愈疾病:基金会的首个重大承诺是投入 250 亿美元,利用 AI 来帮助治愈疾病。这笔资金将用于多种方式,包括生成数据、提供大量计算资源、资助科学家等
AI 韧性(AI Resilience):这是一个比传统AI 安全更广泛的概念
理念:Wojciech 解释说,先进 AI 的到来必然伴随着风险和颠覆。AI 韧性的目标是建立一个由众多组织构成的生态系统,共同帮助解决这些问题
用网络安全行业的发展来类比。互联网早期,人们不敢在线输入信用卡号。而现在,一个庞大的网络安全产业保护着关键基础设施、政府、企业和个人用户,使得人们愿意将最私密的数据和毕生积蓄都放在线上。同样,AI 领域也需要一个类似的“AI 韧性层”,而 OpenAI 基金会将帮助催生和建立这样一个生态系统。
举例说明:以生物风险为例。传统的安全措施是在模型层面阻止与病毒学相关的查询。但“韧性”则考虑得更远:即使 OpenAI 阻止了,也无法保证其他模型不会被利用。因此,韧性不仅包括预防,还包括建立快速响应机制,以便在问题发生时能有效应对
问答环节精选
在分享的最后,Sam 和 Jakub 进行了一场公开问答,回答了用户最关心的一些问题
关于模型、用户自由与内容政策:
GPT-4o 的未来:许多用户表达了对 GPT-4o的喜爱。Sam 表示,目前没有计划下线 GPT-4o,但他们也希望用户理解,该模型对于心智不成熟的未成年人存在潜在风险。未来的目标是构建更好的模型,让用户自然过渡
成人模式与用户自由:对于“成人模式”(adult mode)何时上线、用户能否掌控模型路由等问题,Sam 多次重申了“像对待成年人一样对待成年用户”的原则。他承认之前在模型路由上的处理方式并非最佳,并承诺随着年龄验证等机制的完善,将给予成年用户更大的自由度和灵活性,尤其是在创作等领域,会大幅放宽限制,这个明显是学马斯克
情感连接:对于用户与 AI 建立情感纽带,OpenAI 持开放和支持态度。他们为 AI 能给人们带来情感支持和帮助而深受感动,并认为这非常有价值。他们的底线是,模型必须忠实地告知用户其本质(它是一个 AI),不能欺骗用户,同时避免对精神状态脆弱的用户造成伤害。
关于 AGI、模型能力与时间表:
AGI 何时到来?Jakub 认为 AGI 的到来会是一个持续数年的过渡过程,而不是一个单一的时间点。现在可能就处在这个过渡期中。与其纠结于 AGI 的定义,不如关注更具体的目标,比如在 2028 年 3 月实现全自动 AI 研究员
内部模型领先多少?他们表示,并没雪藏某个极其强大的模型。但他们有许多已经开发出的技术组件,当这些组件组合在一起时,将带来巨大的能力飞跃。他们对未来几个月到一年内的进展抱有很高的期望
GPT-6 何时发布?他们没有给出具体时间,但表示产品发布的节奏将不再与研究计划严格绑定。例如 GPT-5 首次将推理模型作为旗舰产品推出,这本身就是一个重大的集成性工作。但可以确定的是,未来六个月内(甚至更早)模型能力将有巨大飞跃
关于公司战略与社会影响:
IPO 计划:Sam 表示,考虑到公司巨大的资本需求,IPO是最有可能的路径,但目前并非首要议程
商业模式:要支撑 1.4 万亿美元的投资,公司年收入最终需要达到数千亿美元。他预计企业服务和消费者业务都将是巨大的收入来源,后者将不仅限于订阅,还包括新产品、设备等
AI 导致的失业:Jakub 认为,当前模型在原始智力上可能已经能够胜任许多知识性工作,瓶颈更多在于集成和接口。因此,未来几年内大量工作的自动化是必然趋势,社会需要思考哪些新工作将取而代之
想象力的优化:有用户担心 AI 会让人的想象力成为优化的牺牲品。Jakub 承认,不同模型之间确实存在权衡,但这是技术发展过程中的暂时现象。Sam 则认为,虽然存在人们说话像 ChatGPT 的现象,但长期来看,AI 将极大地拓展人类的创造力和思维广度





京公网安备 11011402013531号