近日,1986年图灵奖得主、康奈尔大学荣休教授约翰霍普克罗夫特(John Hopcroft)就人工智能的能源消耗问题发出警告。他指出,提升计算性能需要消耗大量电力,而人类大脑完成同样任务基本不消耗能量,这种对比值得警惕。

霍普克罗夫特举例说明,当前让机器人执行“捡起某物并放到那边”这样的简单任务,其背后用于计算的能耗相当可观,而人类完成同样动作的大脑能耗却微乎其微。他认为,这表明或许存在成本更低的计算机编程方式,并警告“我们不能继续像现在这样下去了”。

这一警告并非危言耸听。据CNMO了解,斯坦福大学《2025年人工智能指数报告》的数据显示,人工智能模型的能耗正呈指数级增长。例如,2017年的Transformer模型功耗约为4500瓦,而2024年发布的Llama 3.1-405B模型的功耗已高达2530万瓦,增长了超过5000倍。报告指出,训练前沿模型所需的功耗大约每年翻一番。
国际能源署(IEA)的报告进一步印证了问题的严重性。数据显示,2024年数据中心占全球电力消耗的约1.5%,且其电力消耗自2017年以来以每年约12%的速度增长,远超全球总电力消耗的增速。
霍普克罗夫特的言论将AI狂飙突进背后的能源与环境成本问题置于聚光灯下。在追求性能突破的同时,如何寻求更高效、更可持续的技术路径,已成为整个行业无法回避的严峻课题。





京公网安备 11011402013531号