社交媒体巨头 meta 旗下的开放人工智能模型 Llama 系列在 AI 社区享有盛誉,尤其是前几代产品 Llama1至3备受好评。然而,随着2025年4月 Llama4的推出,meta 却遭遇了重大的信任危机。
当时,meta 声称 Llama4在基准测试中的表现非常优秀,但随着模型的发布,众多开发者迅速进行了测试,结果显示 Llama4的实际性能远低于 meta 的宣传。外界开始怀疑,meta 可能在基准测试中采取了不当手段。虽然 meta 一度否认了这一指控,但随后的发展表明,Llama 系列似乎进入了停滞期,meta 也逐渐将重心转向闭源的商业模型。
在最近接受《金融时报》采访时,即将离任的 meta 首席人工智能科学家 Yann LeCun 终于承认,Llama4在发布前确实经过了基准测试结果的篡改。他透露,团队为了提升分数,针对不同的测试项目使用了不同的模型,旨在取得更好的结果。这一做法的后果却是惨痛的:Llama4被认为是一个失败的产品,meta 因被指控操纵测试结果而遭受重创。
这一事件让 meta 创始人马克・扎克伯格感到愤怒,他对参与发布的团队失去了信心,直接将整个 GenAI 团队边缘化。目前,许多团队成员已经离开,像在 meta 工作了十年的 Yann LeCun 也宣布即将离职。这一系列变动不仅暴露了 meta 内部的困境,也让人对其未来的 AI 发展充满疑虑。
meta 的 AI 领域再度掀起波澜,行业内对此事件的反响热烈。Llama4的发布将成为一面镜子,映照出企业在追求技术进步与保持诚信之间的艰难平衡。





京公网安备 11011402013531号