IT之家 12 月 8 日消息,据《商业内幕》昨天报道,谷歌 DeepMind CEO 德米斯・哈萨比斯(Demis Hassabis)最近表示,扩大 AI 模型规模是实现通用人工智能(AGI)的关键。
![]()
据报道,硅谷各界人士一直在进行一场持续的争论:规模定律(scaling laws)究竟能让 AI 走向何方?
刚刚凭借 Gemini 3 获得广泛赞誉的谷歌 DeepMind CEO 德米斯・哈萨比斯在上周表示:“我们必须把当前 AI 的规模化推向极致,它最终会成为通用人工智能的关键组成部分,甚至有可能构成整个通用人工智能系统”。
IT之家注:通用人工智能(AGI)指的是具备与人类同等智能或超越普通人类的人工智能,能表现正常人类所具有的所有智能行为,目前仍处于理论状态,全球领先的 AI 公司都在为此投入,争夺头牌。
而规模定律(scaling laws)指的是机器学习领域描述性能与模型规模、训练数据集大小及计算资源之间可预测关系的经验性规律,被 AI 业界视为大模型预训练的核心原则,可以用“模型越大 + 数据越多训练越久=越聪明”来理解。
回到正文,哈萨比斯还认为,只靠规模定律或许能让 AI 走向 AGI,但他也怀疑最终可能需要一到两个额外的突破才能达成 AGI。
但规模定律并非完美无缺,毕竟公开的数据总量是有限的,而且增加算力意味着要建设更多数据中心,会导致训练成本越来越高昂,且对自然环境造成压力。一些关注 AI 的专家也担心,大语言模型公司持续投入规模定律会出现投入产出递减现象。
与此同时,硅谷也出现了另一派声音,其中前 meta 首席 AI 科学家、近期宣布离职创业的 Yann LeCun(杨立昆)就认为,AI 行业不能只靠规模定律。
他今年 4 月在新加坡国立大学(NUS)表示:“大多数真正有趣的问题在规模定律下表现得极其糟糕,你不能简单地认为堆数据和堆算力就能产出更聪明的 AI”。
据悉,他离开 meta 是为了构建一款不依赖语言数据,而是依靠空间数据的“世界模型”AI 体系,可以被视为大语言模型的替代方案。





京公网安备 11011402013531号