近日,这家以手机芯片闻名的巨头宣布推出两款专为云端AI推理设计的全新芯片:AI200(2026年商用)与AI250(2027年推出),标志着其从终端芯片厂商向全栈AI基础设施玩家的关键跃迁。消息一出,高通股价单日飙升超20%,创2019年以来最大涨幅,资本市场用真金白银投下信任票。
聚焦推理场景,以能效与成本破局与英伟达主打训练+推理的全能路线不同,高通选择聚焦大模型推理市场,主打“低总拥有成本(TCO)+高能效+大内存”三大优势。
AI200支持高达768GB LPDDR内存,可作为独立加速卡或整机架系统交付,专为大语言模型和多模态推理优化,满足企业对高并发、低延迟推理的需求;AI250更进一步,引入近存计算(near-memory computing)架构,宣称将内存带宽提升10倍,同时大幅降低功耗,为超大规模部署提供能效新标杆。这一策略直击当前数据中心痛点:随着模型推理成本飙升,企业亟需高性价比、低功耗的专用方案,而非一味追求峰值算力。
十年磨一剑,Hexagon NPU成关键引擎高通并非临时起意。自2019年起,其已在物联网与5G边缘计算领域积累云端芯片经验,而核心武器正是其自研的Hexagon神经处理单元(NPU)。经过多年迭代,Hexagon已从手机端AI加速器进化为可扩展至数据中心的高性能推理引擎,成为高通挑战云端市场的技术支点。
巨头围猎英伟达,市场迎来“去单一化”拐点尽管英伟达目前占据AI芯片市场约90%份额,但客户对供应链多元化的渴求日益强烈。谷歌(TPU)、亚马逊(Trainium/Inferentia)、微软(Maia)等云厂商早已自研芯片,而高通的入局,为第三方独立供应商提供了新选择。麦肯锡预测,到2030年全球数据中心投资将达6.7万亿美元,这片蓝海足以容纳多个玩家。
高通已拿下首个重量级客户:沙特AI初创公司Humain计划于2026年部署基于AI200/AI250的机架系统,总功率高达200兆瓦,相当于一座小型城市的用电规模。
能否撼动霸主?关键看生态与落地挑战英伟达,芯片性能只是入场券,软件生态、开发者支持与实际部署效果才是决胜关键。高通能否复刻其在移动端的生态整合能力,构建从工具链到框架的完整推理栈,将决定其能否真正分食高端市场。
但无论如何,高通的强势入场,已为AI芯片战场投下重磅变量。当“手机芯片之王”决心在云端掀起风暴,英伟达的护城河,或许不再固若金汤。





京公网安备 11011402013531号