![]()
新智元报道
编辑:好困 桃子
AI圈爆出大瓜!65岁图灵巨头LeCun即将离职meta,与小扎正式决裂。接下来,他将投身「世界模型」开启创业下半场。
图灵巨头LeCun真的要跑路了!
刚刚,FT独家爆料,现任meta首席AI科学家LeCun,决定将在未来几个月离职。
下一步,开启人生创业的第二阶段。
![]()
消息一出,瞬间引爆全网。此前,坊间传闻称,LeCun因不满内部架构调整想要离职。
如今,65岁的图灵巨头,终于做出了这个决定。
据称,LeCun将要成立的新公司主要推进「世界模型」,目标直指真正的人类级智能。
目前,他正在进行早期的融资洽谈。
![]()
![]()
网友盲猜,LeCun离职可能和会见吴恩达有所关联
任职12年,从创办FAIR实验室,到拿下图灵奖,再到笃定的世界模型,LeCun出走对于meta来说,是一次巨震。
或许,小扎的超级智能梦,真的要碎了。
有网友表示,这并不意外。另有人调侃道,「要始终向一个孩子汇报工作,LeCun的自尊心怎么不会受到伤害呢」。
![]()
![]()
![]()
![]()
![]()
效力12年决裂,LeCun愤然离职
不得不说,这事儿来的太突然,但却早有苗头。
当前,正值meta对公司AI业务进行大刀阔斧的改革之际,希望开发出更强大的AI,挑战OpenAI、谷歌等竞争对手。
今年初,Llama 4发布翻车,且性能远不及ChatGPT、Gemini等模型。而且,meta AI聊天机器人推出后,许多人并不买账。
![]()
在认定meta在竞争中落后之后,小扎的战略重心也随之改变——
从LeCun领军的FAIR实验室,转向更快推出模型和AI产品。
先是今年4月,小扎斥资143亿美元聘请了28岁Alexandr Wang,去领导全新「超级智能」团队。
![]()
在此过程中,他亲自组建TBD Lab,开出高达1亿美元的薪酬包,从谷歌、OpenAI抢人。
其中包括,ChatGPT的核心研究员Shengjia Zhao,被挖来出任MSL首席科学家。
目标很简单,推动其下一代大语言模型的开发。
仅在今年,meta内部就进行了超4次架构调整和优化,并将MSL分立出四大部门,全部由Alexandr Wang掌舵:
1. TBD Lab (To Be Determined,待确定,负责探索/先导研究)
2. FAIR (Fundamental AI Research,长期前沿研究)
3. 产品和应用团队 (含meta AI助手等)
4. 基础设施 (训练与推理的算力、数据与平台)
因此,此前向首席产品官Chris Cox汇报的LeCun,现在转而向Wang汇报。
不仅如此,LeCun长期领导的FAIR也逐渐被边缘化,向比他小30多岁的Wang汇报,包括论文,也需得到审批后才可发表。
![]()
另一方面,LeCun认为小扎置于其战略核心的LLM虽然「有用」,但永远无法像人类一样进行推理和规划。
在FAIR内部,LeCun也一直专注于开发「世界模型」,但在短期内,是看不到KPI的。
而小扎现在要的是,立即就能变现的AI产品。
看得出,LeCun所坚持的路线和个人观点,与meta的AI愿景出现了明显的分歧。
种种因素的叠加,早已成为LeCun离职的导火索。而现在,就是最好的时机。
全力押注「世界模型」
庆幸的是,LeCun终于可以在「世界模型」上大展身手了。
一直以来,他坚信大模型最终没有出路,永远学不会真正的推理和规划,也根本无法通往AGI。
LLM不如阿猫阿狗,LeCun已在多种公开场合中多次提出。
在他看来,AI的终局就是「世界模型」。
![]()
前段时间,他在MIT访谈中直言,未来3-5年内,「世界模型」会成为AI架构的主流模型。
这话可让我在硅谷得罪了不少人,包括某些巨头公司。
到那时候,但凡头脑清醒的人,都不会再用现在这种生成式LLM的路子了。
世界模型不仅仅学习语言,还通过视频和空间数据,来理解物理世界。
直白讲,它让AI可以像婴儿一样,从观察中学习世界的规律。
![]()
不过,LeCun表示,开发出这个架构需要十年的时间才能成熟。
即便时间漫长,他终于可以坚定按着目标方向前进了。
未来几个月,LeCun将正式离职meta,下一步计划将专注于深化在「世界模型」领域的研究。
AI掌舵人出走,这意味着,FAIR实验室就彻底被边缘化了。
图灵巨头,开启AI革命
1960年7月8日出生的Yann LeCun,在法国巴黎的郊区长大。
他的姓氏原本是Le Cun,但他发现美国人常对此感到困惑,将Le误作他的中间名,于是便去掉了中间的空格。
他的父亲是一名工程师,在LeCun充满修补创造的童年中,将自己对电子和机械的热爱传给了他。
青少年时期,LeCun既喜欢在乐队中演奏,也热爱科学与工程。
后来,他在法国精英工程师学校之一的巴黎高等电子与电工工程师学院(ESIEE Paris)获得了相当于硕士的学位。在那里,他专注于微芯片设计与自动化。
他从本科时代就开始独立进行机器学习研究,并将其作为他在索邦大学(当时称为皮埃尔和玛丽·居里大学)博士阶段的核心工作。
![]()
LeCun的研究与Geoffrey Hinton独立做出的发现高度相似。
与Hinton一样,他被当时尚属非主流的神经网络人工智能方法所吸引;
也与Hinton一样,他发现可以通过使用后来被称为「反向传播」的算法来有效训练输入和输出节点之间中间层的「隐藏」神经元,从而克服简单神经网络众所周知的局限性。
1985年在法国阿尔卑斯山区举办的一场研讨会,首次让LeCun与从事相关研究的国际学术界有了直接接触。
正是在那里,他结识了Hinton的密切合作者Terry Sejnowski。当时,Sejnowski关于反向传播的研究尚未发表。
几个月后,Hinton到访巴黎,并主动向LeCun作了自我介绍。
再之后,LeCun则受邀参加卡内基梅隆大学的夏季研讨会,并在多伦多Hinton新成立的研究小组进行了一年的博士后研究。
![]()
1988年,博士后研究结束时,LeCun加入了著名的计算机科学研究中心——贝尔实验室。
在贝尔实验室,LeCun的工作专注于神经网络架构和学习算法。
他影响最为深远的贡献是一种名为「卷积神经网络」的新方法。这是他早期成就的延伸,因为卷积网络依赖反向传播技术来训练其隐藏层。
除了开发卷积方法,LeCun还率先将其应用于「图Transformer网络」,用于识别印刷体和手写文本。这项技术被用于一个广泛部署的系统,以读取支票上的手写数字。
他在贝尔实验室的另一项主要贡献是开发了「最佳脑损伤」(Optimal Brain Damage)正则化方法。
这个名字生动的概念旨在通过移除神经网络中不必要的连接来简化网络。如果操作得当,这种「脑损伤」可以产生更简单、更快速的网络,其性能与完整版本相当甚至更优。
![]()
1996年,在计算机行业未能立足的AT&T公司,将贝尔实验室的大部分业务及其电信硬件业务分拆成立了一家新公司——朗讯科技。
LeCun留在了AT&T,负责一个专注于图像处理研究的实验室小组。
在那里,他的主要成就是DjVu图像压缩技术。
![]()
2003年,LeCun离开工业界,前往纽约大学库朗数学科学研究所担任计算机科学教授。
在纽约大学,LeCun负责计算与生物学习实验室,继续他在机器学习算法和计算机视觉应用方面的工作。
他至今仍在纽约大学任教,尽管随着声誉日隆,他又增添了几个新头衔和额外职位。
![]()
到2010年代初,各大科技公司竞相部署基于神经网络的机器学习系统。与其他顶尖研究人员一样,LeCun也受到了科技巨头的青睐。
2013年12月,他加入Facebook并创建了FAIR(Facebook AI Research),同时,他也还兼顾在纽约大学的工作。
2018年,他卸任主任一职,转任Facebook首席人工智能科学家,专注于战略规划和科学领导力。
同年,他与Geoffrey Hinton和Yoshua Bengio,共同获得了图灵奖。
![]()
![]()
时至今日,LeCun一直保持着对动手创造的热爱,他的爱好包括制造飞机、电子乐器和机器人。
或许,这也是他在65岁时,毅然决定下海创业的动力之一。
参考资料:
https://www.ft.com/content/c586eb77-a16e-4363-ab0b-e877898b70de





京公网安备 11011402013531号