当前位置: 首页 » 资讯 » 新科技 » 正文

AI六巨头首次同台!纵论四十年AI风云、泡沫之辩与AGI时间表

IP属地 中国·北京 编辑:郑浩 DeepTech 时间:2025-11-07 20:09:39

这是一个人类 AI 群星闪耀时的时刻——黄仁勋、李飞飞、杰弗里辛顿(Geoffrey Hinton)、约书亚本吉奥(Yoshua Bengio)、杨立昆(Yann LeCun)、比尔戴利(Bill Dally),罕见同台参与同一个圆桌讨论 AI。之所以能聚在一起,是因为他们六人获得了 2025 年伊丽莎白女王工程奖。当地时间 11 月 5 日,六人在围绕该奖项的一场英国 AI 活动上进行了一场圆桌对谈。

图 | 从左到右:诺贝尔奖得主杰弗里辛顿(Geoffrey Hinton)、图灵奖得主约书亚本吉奥(Yoshua Bengio)、图灵奖得主杨立昆(Yann LeCun)、英伟达 CEO 黄仁勋、美国斯坦福大学教授李飞飞和英伟达首席科学家兼高级副总裁比尔戴利(Bill Dally)(https://www.ft.com/content/5f2f411c-3600-483b-bee8-4f06473ecdc0)

对谈中,他们六位针对当前 AI 发展是否存在泡沫发表了自己的观点,同时均认为 AI 将逐渐接近人类智能。

黄仁勋表示过去的软件本质上是工具,是首次被人们使用的自动化手段。而 AI 是增强人类能力的智能,因此它关乎劳动、关乎工作,并且它确实在发挥着实际作用。在黄仁勋看来,人类正处在智能构建的起步期。并指出一个基本事实是,目前 AI 还未普及到大多数人。他认为在不久的将来,我们日常的几乎所有行为,在一天中的每时每刻,都会以某种方式与 AI 相伴。这意味着,人类需要完成从今天使用率尚低、到未来使用率几乎不间断的巨大跨越,而这背后的扩展工程是显而易见的。

李飞飞指出,AI 还是一个非常年轻的领域。即便对比现代物理学,AI 的历史也不足七十年,从艾伦图灵(Alan Turing)算起也才七十五年左右。所以,前方还有太多新领域等待出现。她认为,机器的某些能力将超越人类智能,而另一些机器智能则永远不会与人类智能趋同或等同。因为它们的设计初衷就与人类不同,是为不同的目的而生的。

辛顿认为假如问他“与机器进行辩论,它需要多久才能永久性地胜出”这个问题,他认为这必定会在二十年内成为现实人类目前尚未达到这一水平,但辛顿认为在二十年内必将实现。但他同时指出,如果将 AGI 定义为在辩论中总能胜过人类,那么人类很可能在不到二十年的时间内达成这个目标。

约书亚认为人类不该继续使用“大语言模型”这个称呼,因为它们的功能已远超语言范畴。并指出人类无法预言未来几年或十年的具体技术样貌,但趋势是可以把握的。为此,约书亚认为人类应当保持一种真正的不可知论立场,避免做出过于夸张的断言,因为未来的可能性是开放且多样的。他还表示目前自己正着手联络国际专家,共同追踪 AI 的进展、方向、潜在风险以及应对之道。

Yann LeCun 认为 AI 泡沫确实存在——它体现在一种信念上,即认为当前的大语言模型范式将被直接推升至人类水平智能。在人类造出真正具备人类所观察到的(不仅是人类,还包括动物)那种智能的机器之前,人们还需要取得一些根本性的突破。

作为英伟达的首席科学家,Bill Dally 指出 AI 应该填补人类能力的空白。人类识别不了 22,000 种物品,大多数人也解决不了那些甲基双性问题,这些就可以交给 AI 来做。当人类能腾出精力,去从事那些更具人性特质的工作:比如创造、共情,以及人际互动。

图 | AI 群星闪耀时:六位 AI 领军人物进行圆桌访谈(https://www.ft.com/content/5f2f411c-3600-483b-bee8-4f06473ecdc0)

以下为对谈实录,DeepTech 做了不改变原意的编辑:

六人畅谈人生关键时刻

主持人:各位好,无论您身处下午还是早晨。我很高兴能受托介绍围坐在这张桌旁的杰出人物们,在我看来他们是当今世界上最为出色、也最具影响力的六位人物。并且,我认为这绝非夸大其词。他们就是 2025 年伊丽莎白女王工程奖的得主。这个奖项正是为了表彰这几位获奖者对当今 AI 技术所产生的独特影响。我希望听听你们每个人的经历:在你们的职业生涯里,有没有那样一个灵光乍现的瞬间,让你感觉从此改变了自己工作的轨迹?那个真正触动你的个人觉醒时刻是什么?它又是怎样影响到这项技术发展的?可以先从你开始吗,Yoshua?

Yoshua Bengio:有两个关键节点让我记忆犹新。第一个是我研究生时期,正苦于寻找一个有吸引力的研究课题。当我读到 Geoffrey 的早期论文时,感觉豁然开朗。我内心非常激动,觉得其中可能蕴藏着像物理学定律一样优美而基本的原则,能指引我们理解智慧的本质,并最终建造出智能机器。而第二个时刻,大概是两年半前 ChatGPT 横空出世的时候。它给了我当头一棒,让我不禁反思:我们到底在做什么?如果我们开发出能懂语言、有自己目标但我们却管不住的机器,会发生什么?如果它们比我们更聪明呢?如果有人滥用这种力量呢?正是这种强烈的危机感,促使我下定决心,彻底扭转了我的研究轨道和职业道路,尽我所能去应对这个问题。

Bill Dally:我和约书亚的经历也有些相似之处。那是在 20 世纪 90 年代末,当时我在斯坦福大学主要在研究如何突破所谓的“内存墙”难题——即从内存中获取数据所需的能耗与时间,远远高于数据计算本身。后来我萌生了一个想法:将计算组织成由数据流连接的核心模块。这样就能在执行大量算术运算的同时,大幅减少对内存的访问。这个思路,实际上为后来被称为“流处理”、并最终发展为 GPU 计算的技术奠定了基础。所以在我们最初构建它的时候,就意识到它不仅能够用于图形处理,更可以应用于通用的科学计算领域。而我的第二个关键时刻,是某次在斯坦福与我的同事安德鲁安格(Andrew Ang)共进早餐时。他当时在谷歌工作,正利用一项名为“神经网络”的技术,在互联网上寻找猫的图片——而且动用了 16,000 个 CPU。他成功说服了我,让我相信这是一项非常出色的技术。于是,我联合其他人利用英伟达的 48 块 GPU 重现了整个实验。在亲眼见证结果的那一刻,我内心无比坚定:这就是英伟达应该全力以赴的事业。我们必须调整 GPU 的设计方向,使其更好地服务于深度学习。原因很清楚,这项技术的用武之地远不止于在互联网上找猫,它拥有广阔的应用前景,能渗透到各行各业。可以说,正是那个时刻,我们正式启动了将 GPU 深度优化、专门用于深度学习的进程。(编者注:“互联网上找猫”指 2012 年谷歌用 1.6 万 CPU 训练神经网络,让机器从海量视频帧中自主识别出猫脸,后成为深度学习里程碑事件。)

主持人:具体是在什么时候?又是指的什么事情呢?

Bill Dally:那次早餐是在 2010 年。如果我没记错,我们是在次年,也就是 2011 年重复了那个实验。

主持人:Geoffrey,轮到你给我们讲讲了。

Geoffrey Hinton:对我来说一个非常关键的时刻发生在大约 1984 年。当时我尝试运用反向传播算法,让模型学习预测一个单词序列中的下一个词。这本质上是一个小型语言模型。实验发现,这个模型能够自主学习到一些关于词语含义的有趣特征。也就是说,仅仅输入一串符号序列,它就能依据某种内部规律,学习如何将单词转换为一组特征。这组特征不仅能捕捉单词的语义,还能通过特征间的相互作用,来预测下一个单词的特征表现。事实上,这个在 1984 年末构建的小型语言模型,我认为它就是当今大语言模型的雏形。其核心原理是相通的。尽管它规模很小,训练量也只有 100 次,但已经揭示了基本范式。

主持人:然而,我们却历经了整整四十年,才最终实现今天的突破。

Geoffrey Hinton:是的,我们愣是花了四十年才走到这儿。原因很简单:那时候要算力没算力,要数据没数据,而且我们压根没意识到这个问题。我们当时怎么也想不通,为什么光靠那个好点子,就是行不通。

主持人:这番回顾也让我们自然而然地想到了黄仁勋。正如刚才所说,我们曾长达四十年受限于计算能力的匮乏。而如今,恰是您正在亲手解决这个问题。能否请您和我们分享一下,在您这段旅程中,那些让您豁然开朗的关键时刻?

黄仁勋 :就我的职业生涯来说,我是第一代能够运用更高级别的抽象表达和设计工具来设计芯片的工程师。这一背景,让我对软件开发的新趋势非常敏感。

大约在 2010 年,我几乎同时接触了来自加拿大多伦多大学、美国纽约大学和斯坦福大学三个不同实验室的研究。他们不约而同地向我展示了一种后来被证明是深度学习早期的技术——即利用框架和结构化设计来创建软件,并且该软件被证明极其高效。这引出了我的第二个发现:通过再次使用框架、更高层次的抽象以及像深度学习网络这样的结构化模式,我们就能开发出强大的软件。我意识到,设计芯片与构建这些模式非常相似。当时我就在想,我们或许能创造出一种软件和能力,它能像过去几十年芯片扩展那样,持续地进化与发展。

主持人:您认为芯片助力大语言模型规模化发展的关键转折点在什么时候?毕竟您提到的 2010 年,距今已相隔十五年了。

黄仁勋:英伟达架构的核心优势在于:一旦一个算法能在单个 GPU 上高效并行运行,那么它就能几乎无碍地扩展到多个 GPU、多个系统,乃至多个数据中心。其内在逻辑是相通的。当我们意识到能够有效地实现这种扩展后,问题的关键就变成了:我们究竟能将这种能力推向多远?我们拥有多少数据?网络的规模能有多大?模型能捕捉多少维度?最终能解决何种复杂的问题?正是在那个阶段,我发现深度学习的核心价值已由模型的有效性所证明,这无疑是一个巨大的亮点。而此后的大部分工作,本质上都属于工程上的延伸与拓展。

主持人:飞飞,跟我们讲讲你的重要时刻。

李飞飞:我也有两个关键时刻想分享。大约在 2006 到 2007 年间,我正从博士生转变为年轻的助理教授。作为第一代专注于机器学习的博士生,我阅读了 Yoshua 和 Geoffrey 等学者当时的论文,并深深着迷于解决视觉识别问题——即让机器理解日常图片中物体含义的能力。我们当时一直受困于机器学习代码的泛化问题:模型在学习了有限数量的样本后,能否成功识别出全新的、从未见过的样本?我尝试了从基础网络、支持向量机到神经网络等各种算法。最终,我和我的学生意识到,缺失的关键要素是数据。我们观察到,如同人类这样的智能生物,在早期发展阶段都经历了海量数据的洗礼,而我们的机器却处于数据匮乏的状态。于是,我们决定在当时做一件看似疯狂的事情:花费三年时间,创建一个互联网规模的数据集。这个数据集包含了由全球互联网用户手工标注的 1,500 万张图像,涵盖 22,000 个类别。因此,对我而言,那个顿悟的时刻就是认识到:是大数据在驱动机器学习的未来。

主持人:而如今,它已成为所有算法模型的基石。

李飞飞:没错,这如今已成为 AI 规模化定律的一部分。我的第二个顿悟时刻发生在 2018 年。当时我担任谷歌云的首位 AI 首席科学家,我们的工作涵盖了从医疗保健、金融服务到娱乐、制造,乃至农业与能源等所有垂直行业。在所谓的“Alex 瞬间”图像以及 AlphaGo 出现几年之后,我正是在那时意识到了关键问题。在担任谷歌首席科学家期间,我认识到这项技术的影响力将达到“文明级别”,它会触及每个人和所有行业。面对人类迈向 AI 时代的历史进程,我们必须思考:什么样的指导原则能让我们在大力创新的同时,确保这项强大的技术最终能造福所有人?这个想法促使我重返斯坦福任教我们随后创立了以人为本人工智能研究院(HAI,Stanford Human-Centered AI Institute),其核心就是构建一个框架,将人性和人类价值放回技术进步的中心。(编者注:李飞飞所提到的“Alex 瞬间”指的是一个名为 AlexNet 的深度卷积神经网络在 2012 年的 ImageNet 图像识别竞赛中取得了远超传统方法的成绩,准确率实现巨大突破。)

主持人:所以,我们既要发展技术,也要审视其影响并思考未来走向。这正是我们大家发挥作用的地方。

您(Yann LeCun)是否愿意为我们做一个总结?请不必客气,尽情讲讲吧。

Yann LeCun:早在本科时期,我就对广义智能领域中的 AI 问题非常着迷,并发现 20 世纪五六十年代的研究者,其核心工作是“训练”机器而非“编程”机器。这个想法让我深深入迷,或许是因为我自觉不够聪明或不够勤勉,无法从零开始直接构建出一台智能机器。那么,最好的方式岂不是让机器能够自我训练、自我演进?这不正如同生命体中智能的构建方式吗?它是自组织的。因此,我觉得这个概念极具吸引力,但当时却找不到志同道合的人。我从工程专业毕业,一直在从事一些低成本设计,同时也计划攻读研究生。我始终找不到任何从事相关研究的人,但与一些对此感兴趣的人保持着联系,例如他们发现了 Geoffrey 的论文。到了 1983 年我开始读研时,他已成为我最想见到的学者。最终,我们在两年后得以见面。我们 1985 年一起吃了顿午饭,基本上是一见如故,聊得非常投机。当时我在一个他做主旨报告的会议上发表了一篇法文论文,而他居然成功读懂并理解了我文中的数学内容——那篇文章讲的是一种用于训练多层网络的传播方法。要知道,从 20 世纪 60 年代开始,大家就清楚一个局限:我们没法训练多层模型。这成了我那时心心念念要解决的问题,后来也变成了他的执念。之后我写了一篇提出解决方案的论文,他读懂了里面的数学。我们就是这样结缘并开始合作的。

主持人:而这正是让你踏上这段旅程的原因。

Yann LeCun:确实如此。因此,当你掌握了训练此类复杂系统的能力后,自然会思考下一个问题:如何构建它们,使其能够执行识别图像等有实际意义的任务。早在 20 世纪 80 年代末我担任博士后期间,我和 Geoffrey 曾有过一场辩论。我当时认为,唯一可行的路径是经过精心设计的、在监督学习范式下运行的机器学习。即你向机器展示一张图片,并告诉它正确答案。但他对此表示反对,他认为要想取得真正的进展,就必须超越监督学习。有段时间,我并未充分重视这个观点。直到 2000 年代中期,当我和 Yoshua 开始合作,并致力于重新唤起学界对深度学习的兴趣时,我们实际上是将重点押注在了无监督学习等相关方向上。

主持人:它本质上是一个自我强化的过程。

Yann LeCun:这并非强化学习。它的本质是从结构化数据中发现规律,而无需针对任何特定任务来训练机器。自然语言模型虽然被训练来预测下一个单词,但这本身并非一个真正的任务目标。这只是系统为了学习一种优质的数据表征,或者说为了捕捉数据内在规律所采用的一种方式。

主持人:系统里面有没有一个东西在管着它?抱歉我得说得专业点,就是有没有一个根本的机制,能判断它现在这样跑是对的,好让它一直保持在正轨上?

Yann LeCun:如果你能正确预测出下一个单词,那么这本身便证明了预测的正确性。

Geoffrey Hinton:所谓强化学习里的奖励,打个比方,就像是你对系统说“干得漂亮”一样。

Yann LeCun:说实话,这得“归咎”Geoffrey。如你所知,飞飞构建了大型标注数据集 ImageNet,这使得我们可以采用监督学习来训练系统。而实际结果是,这个网络的性能远超我们预期。于是,我们当时便暂时搁置了整个关于自监督学习的项目计划,因为监督学习的方法已经表现得如此出色。当然,我们也琢磨出了一些提升性能的小技巧。但在某种程度上,我们确实引导了整个行业和研究界将重心放在了深度学习、监督学习等方向上。直到几年后,大约在 2016、2017 年左右,大家才意识到这无法达成我们的终极目标,并开始转向自监督学习。是的,这确实是说明范式转变的一个绝佳例证。而我们当前的工作,是将其应用于视频、传感器数据等新型数据。然而,像自然语言模型这类架构在处理此类数据上其实并不擅长,这将是未来几年我们面临的新挑战。

AI 泡沫是否存在?

主持人:这正好将我们引向了当前的情势。我想大家都观察到一个现象:以前对 AI 完全不关心的人,现在都兴致勃勃。一时间,所有人都涌向这个领域。它早已超越技术革新本身,演变成了一个巨大的商机,甚至成为了大国博弈的战略焦点。每个人都在努力探究其真正本质,围绕着它不断思索。我此刻首先想请教黄仁勋,也希望在座各位都能审视一下此刻:特别是英伟达,它几乎天天占据新闻头条,并且成为了全球最有价值的公司。这说明市场存在着真实的需求。

您是否忧虑,我们正走向一个因普遍理解不足而过于急躁的阶段,最终会导致泡沫破裂,经历一番调整后才能恢复正常?如若不然,与当年的互联网泡沫相比,如今人们对 AI 需求最显著、也是最未被理解的差异到底是什么?

黄仁勋:在互联网泡沫时期,铺设的绝大多数光纤都被闲置,这意味着行业的供给远远超过了实际需求。而如今,几乎每一块能找到的 GPU 都在全负荷运行。因此,我认为退一步理解“AI 究竟是什么”至关重要。对许多人而言,AI 就是 ChatGPT 或图像生成,这没错,但这些都只是它的具体应用。过去几年,AI 取得了巨大进步,它不仅能够记忆和归纳,更具备了推理与有效思考的能力,并能通过研究来确立观点。它现在可以生成答案,完成更有价值的任务,效果也出色得多。此外,那些能构建对其他企业有用工具的公司,例如我们正在使用的 Cursor 等 AI 编程软件公司,它们盈利能力很强,我们也大量使用其产品。在医疗健康等领域,AI 也显示出极大的效用。AI 的能力已经实现了质的飞跃。其结果是,我们正同时目睹两个指数级变化:一是生成答案所需的计算量急剧增加,二是这些 AI 模型的使用量本身也在指数级增长。这两条指数曲线对计算资源构成了巨大需求。现在,当你退后一步,会从根本上追问:今天的 AI 与过去的软件行业有何本质不同?过去的软件是预先编译好的,且所需的计算量不大。但为了让 AI 发挥作用,它必须具备上下文感知能力。目前它已能产生智能,而你无法提前制作并储存这种智能——那被称为“预制内容”。智能必须实时产生。因此,我们所在的这个行业,要生产高需求且真正有价值的产品,所需的计算量是空前巨大的。我们在一个需要“工厂”的行业中创造价值。这就是为什么我常提醒自己:AI 需要工厂来生产这些“智能标记”。这是前所未有的情况,计算机本身成为了工厂的核心。我们需要投入数千亿美元来建设这些工厂,以服务于未来价值数万亿美元的产业。回顾过去的软件,它们本质上是工具,是首次被人们使用的自动化手段。而 AI,是增强人类能力的智能。因此,它关乎劳动,关乎工作,并且它确实在发挥着实际作用。在我看来,我们正处在智能构建的起步期。一个基本事实是,目前 AI 还未普及到大多数人。可以预见,在不久的将来,我们日常的几乎所有行为,在一天中的每时每刻,都会以某种方式与 AI 相伴。这意味着,我们需要完成从今天使用率尚低、到未来使用率几乎不间断的巨大跨越,而这背后的扩展工程是显而易见的。

主持人:假设大语言模型的进展放缓,您认为 GPU 和您打造的基础设施,是否仍能适应新的技术范式并保持其价值?您回答之后,我也非常希望听到在座其他人的想法。

黄仁勋:大语言模型属于 AI 技术的一部分。但 AI 的范畴是包含各类模型系统的广阔天地,大语言模型只是其中一个重要的成员。现在已经有了一些模型系统和必要的技术,可以让 AI 从现在的样子变得更具生产力,或者说让它更“能干”。无论我们给它起什么名字,未来都还有大量的技术等待我们去探索和开发。

主持人:在座各位谁有想说的?

Yoshua Bengio:我认为我们不该继续使用“大语言模型”这个称呼,因为它们的功能已远超语言范畴。是的,它们确实从语言模型起步,预训练是其基础。但最近,技术在质上有了飞跃,正朝着“智能体”的方向发展:能够通过多轮对话,与环境、与人实时互动,完成目标,甚至与底层计算设施深度交互。它和三年前完全不可同日而语。我们无法预言未来几年或十年的具体技术样貌,但趋势是可以把握的。为此,我正着手联络国际专家,共同追踪 AI 的进展、方向、潜在风险以及应对之道。现在,许多基准测试的趋势已经清晰可辨。过去的技术验证非常成功,但这不代表未来没有挑战。期望落空会带来金融风险,这一点我承认。但从长远发展来看,我完全同意其重要性。不过,我们仍需保持清醒。

主持人:那么,目前在座的其他人怎么看?

Bill Dally:当前的趋势在一定程度上解释了现状。首先,模型正变得越来越高效。以注意力机制的演进的为例:从普通注意力到分组查询注意力,再到多头注意力...... 如今人们可以用少得多的计算成本,获得相同甚至更优的效果。这从某种程度上催生了新的需求:许多曾经因成本过高而无法实现的应用,现在变得足够便宜,从而使得 AI 能够涉足更广泛的领域。与此同时,AI 模型本身的能力也在持续进步。或许它会随着 Transformer 架构的优化而提升,或许会有全新的架构出现。但技术发展的方向是明确的:我们必将拥有能力更卓越、且同样高效的模型。实际上,它们比那些功能专一的方案更有价值,因为它们更灵活,也能更好地随着模型一起进化。最关键的一点是,我认为我们对 AI 的应用探索还只是冰山一角。人类生活的几乎每一个角落,无论是职业生涯还是日常琐事,都能借助 AI 变得更好。我想,我们可能连它最终需求的 1% 都还没碰到。随着 AI 不断进步,应用场景只会越来越多。所以,我认为这里根本谈不上泡沫。就像黄仁勋说的,我们正描绘一条多重指数增长的曲线,而现在仅仅是开端,这条路会一直延伸下去。

主持人:在某种程度上,英伟达对此已经适应了。因为无论范式如何变化,涌现出何种新型 AI 或架构,那些最核心的硬件构件始终是需要的。飞飞有什么想说的吗?

李飞飞:我的确认同从市场层面来看,它有其自身规律,有时会自我修正。但如果我们关注长期趋势,必须意识到 AI 还是一个非常年轻的领域。我们环顾这个房间,墙上写有物理学方程。物理学已有四百多年历史。即便对比现代物理学,AI 的历史也不足七十年,从艾伦图灵(Alan Turing)算起也才七十五年左右。所以,前方还有太多新领域等待出现。我们知道,黄仁勋常谈及大语言模型和智能体,它们大多以语言为核心。但即便反思人类智能本身,能力也远不止语言。我一直关注空间智能,它研究的是感知与行动的结合。在此方面,人类和动物展现出的感知、推理、互动和创造力,远超语言所能涵盖的范畴。今天最顶尖的语言或大语言模型,在基础空间智能测试中依然表现不佳。由此可见,作为一门科学与学科,我们面前还有广阔的疆域需要征服和探索。这也意味着,未来将开启更多样的应用可能性。

主持人:您(Yann LeCun)在公司任职,所以同时拥有研究和商业的双重角度。您是否相信这一切 AI 发展现状都是合理的,并且能看得明白其背后的根源?还是觉得我们正面临一个不确定的十字路口,必须找到新的方向?

Yann LeCun:我认为有几种观点支持我们并未处于泡沫之中,但至少也存在一种观点认为我们正身处泡沫。这确实是另一个需要探讨的问题。从某种角度说,结局并非注定。因为基于大语言模型,尚有大量应用有待开发。大语言模型是当前的主导范式,其中蕴含着巨大的潜力可供挖掘。这正是 Bill 所提到的——利用现有技术改善人们的日常生活。技术需要被推动,这也证明了在软件和基础设施方面的所有投入是合理的。一旦我们让智能助手普及到每个人手中,正如黄仁勋所言,为如此庞大的用户群提供服务所需的计算量将是天文数字。因此,从这个层面看,这些投资并未被浪费。然而,从另一种意义上说,泡沫确实存在——它体现在一种信念上,即认为当前的大语言模型范式将被直接推升至人类水平智能。我个人并不相信这一点,在我们造出真正具备我们所观察到的(不仅是人类、还包括动物)那种智能的机器之前,我们还需要取得一些根本性的突破。举例来说,我们甚至还没有像猫一样聪明的机器人,对吧?因此,我们仍然缺失某些关键的东西。这正是为什么 AI 的进步不能仅仅依靠更多基础设施、更多数据、更多投资和现有的 Python 开发。实际上,这是一个科学问题,关乎我们如何朝着下一代 AI 取得突破。

用“年”给出对于 AGI 的预估

主持人:能否请你们每一位都谈谈:在你们看来,我们还需要多久才能达到你们所坚信的那个阶段——即创造出与人类、甚至与章鱼这类高智能动物相当的机器智能?我们距离这个目标究竟有多远?请用“年”来给出你们的预估。

Yann LeCun:这不会是一场短暂的运动。因为各项能力将在不同领域中以渐进的方式逐步拓展。

主持人:您预计在什么时间段内?

Yann LeCun:或许在未来五到十年内,我们能在技术上取得一些实质性突破,从而催生出一个全新的范式。但随之而来的商业应用与公司层面的发展,其进程可能要比我们预想得更为漫长。

李飞飞:机器的某些能力将超越人类智能,而另一些机器智能则永远不会与人类智能趋同或等同。因为它们的设计初衷就与人类不同,是为不同的目的而生的。

主持人:预计何时启动机器替代人类的进程?

李飞飞:其中的一部分能力已经成为现实。试问,我们当中有多少人能够识别出世界上的 22,000 种物体呢?而 AI 可以。试问,有多少成年人能翻译 100 种语言?而 AI 可以。因此,我认为我们的思考应当更加细致入微,并且必须立足于科学事实——正如飞机能够飞行,但其飞行方式与鸟类有着根本区别。基于机器的智能必将发挥诸多强大的作用。但在人类社会的框架内,人类智慧的价值始终是核心且不可替代的。

主持人:黄仁勋,你有什么想说的吗?

黄仁勋:我们已拥有足够的通用智能,可以在未来几年将这项技术转化为大量有益于社会的应用。从现在开始,我们的重点是利用技术去攻克众多重大难题。我认为我们已经具备了基础能力。所以,我认为当前的局限性无关紧要。

主持人:正因如此,现在才是时候,没错。

Geoffrey Hinton:如果您将问题稍微具体化一些,设定为“与机器进行辩论,它需要多久才能永久性地胜出”,我认为这必定会在二十年内成为现实。我们目前尚未达到这一水平,但我可以肯定地预见,在二十年内必将实现。因此,如果您将“AGI”定义为在辩论中总能胜过人类,那么我们很可能在不到二十年的时间内达成这个目标。

Bill Dally:我们的初衷并非是要打造一个能取代人类或超越人类的 AI。

主持人:但这本质上是一个科学问题。其核心意图并非是要取代人类。真正的问题是:我们作为一个社会整体,是否具备创造出这种事物的能力?

Bill Dally:我们的宗旨是创造能增强人类能力的 AI。换句话说,我们是想让 AI 去填补人类能力的空白。人类识别不了 22,000 种物品,大多数人也解决不了那些甲基烷基化问题,这些就可以交给 AI 来做。其目的是让人类能腾出精力,去从事那些更具人性特质的工作:比如创造、共情,以及人际互动。至于 AI 自己能否做到这些,我认为还尚不确定。但它无疑可以成为人类的得力助手。

Yoshua Bengio:在这一点上我持有不同看法。我认为,没有根本性的理由能证明我们在未来无法创造出能够完成人类几乎所有工作的机器。当然,目前在空间感知和机器人技术领域,它确实相对滞后,但从理论层面看,不存在我们无法实现这一目标的障碍。所以,在具体的时间线上,我认为存在着巨大的不确定性,我们的规划应充分考虑这一点。但我注意到一组非常有意思的数据:过去六年中,AI 系统在不同时间跨度上进行规划的能力正呈指数级快速增长。如果这一趋势得以延续,大约五年后,AI 将能够胜任普通员工在岗位上的大部分工作。需要明确的是,这仅仅是工程任务中的一个类别,还有许多其他至关重要的方面。例如,一个可能改变游戏规则的动向是,许多公司正致力于开发“由 AI 主导 AI 研究”的能力——即让 AI 进行工程、计算机科学的研究,并设计下一代 AI 系统,这其中可能就包括对机器人技术和空间理解能力的改进。我并非断言这一定会发生,但 AI 在编程和算法理解方面的能力正在飞速提升,这可能会解锁许多我们目前尚无法预见的可能性。因此,我们应当保持一种真正的不可知论立场,避免做出过于夸张的断言,因为未来的可能性是开放且多样的。

标签: ai 模型 黄仁勋 主持人 机器 人类 芯片 语言 智能 gpu

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。