当前位置: 首页 » 资讯 » 新科技 » 正文

1000 倍效率神话,Taalas如何用 “模型即芯片” 暴打英伟达

IP属地 中国·北京 钛媒体APP 时间:2026-02-24 16:17:31

文 | 山自

2026年2月,AI 算力行业的平静被一家加拿大初创公司彻底打破。

由前 AMD、英伟达架构师柳比薩・巴伊奇(Ljubisa Bajic)创立的 Taalas,带着其 “Model based” 芯片架构与累计超 2.19 亿美元的融资浮出水面。这家公司喊出了 “将 AI 模型效率提升 1000 倍” 的激进口号,宣称其首款产品 HC1 能以 17,000 Token / 秒的推理速度,将 Llama 3.1 8B 模型的推理成本降至 0.75 美分 / 百万 token—— 这一数字是传统 GPU 云服务的 1/266。


在英伟达通过 200 亿美元推理技术许可协议 “收编” Groq、全行业陷入通用算力内卷的当下,Taalas 的 “硬核模型” 路线不仅是对摩尔定律的重新诠释,更预示着 AI 算力市场正从 “通用主导” 走向 “通用与专用并存” 的分裂格局。本文将深度解析 Taalas 的技术革命、商业化困境,以及这场架构之争对全球 AI 产业的长远影响。

一场“反通用” 豪赌正秘密进行

Taalas 的诞生,源于巴伊奇对 AI 算力现状的深刻不满。这位曾主导 Tenstorrent 可扩展 AI 加速器研发的芯片老兵,在 2023 年 3 月离开 Tenstorrent 后,与工程师 Drago Ignjatovic、Lejla Bajic 共同创立了 Taalas,核心使命是 “将人工智能商品化”。

“人工智能就像电力一样 —— 这是一种不可或缺的必需品,必须向所有人提供。” 巴伊奇在公司亮相时表示,“将人工智能商品化需要对计算能力和效率进行 1000 倍的提升,而这一目标通过当前渐进式的手段是无法实现的。”

这种 “非渐进式” 的思路,让 Taalas 从一开始就走上了与英伟达对立的道路。公司在 2023 年 8 月至 2024 年 3 月间完成两轮融资,首轮 5000 万美元由皮埃爾・拉蒙德和 Quiet Capital 牵头,后续融资使其总估值达到 2.19 亿美元。值得注意的是,投资人皮埃尔・拉蒙德对团队的评价极为直接:“他们做芯片的经验业内顶级,这个方向能实现 1000 倍的成本改善,推动 AI 成为基础设施级能力。”

Taalas 的研发效率同样令人惊叹。这款被命名为 HC1 的首款产品,由 24 人团队仅用 3000 万美元研发成本就完成设计,并与台积电达成合作,实现了 “2 个月从模型权重到可部署硬件” 的极速生产周期。按照原计划,HC1 应在 2025 年第一季度向客户供货,而最新消息显示,这款芯片已进入技术验证阶段,其极端的性能表现正在重塑行业对推理算力的认知。

Model based 架构:把大模型 “写死” 在硅片上

Taalas 的 1000 倍效率神话,并非来自玄学突破,而是源于对传统 AI 芯片架构的彻底重构。与通用 GPU“内存加载模型、软件调度运行” 的模式不同,Taalas 采用了 “Model based” 架构,将特定大模型的训练结果直接固化在晶体管层面,实现物理意义上的 “硬核模型”。


传统 GPU 为了兼容多模型、多任务,预留了大量运算单元与调度逻辑,导致硬件冗余度极高。而 Taalas 的架构创新,本质上是一场 “效率与灵活性的极致取舍”:

1、硬件固化权重

采用 mask ROM recall fabric + SRAM 架构,将 Llama 3.1 8B 等模型的权重直接写入硬件,彻底绕开了高带宽内存(HBM)这一成本与功耗瓶颈。这种 “硬连线” 设计让模型推理不再依赖外部内存读写,从根本上降低了延迟与能耗。

2、单模型专用设计

每块 HC1 芯片仅支持单一模型,通过牺牲灵活性换取极致性能。在实测中,其推理速度达到 17,000 Token / 秒,是英伟达 H200 GPU(230 Token / 秒)的 50 倍,远超 Cerebras WSE(2,000 Token / 秒)等专用加速器。

3、成本与功耗优化

得益于架构简化,HC1 的硬件成本比传统方案降低 20 倍,功耗减少 10 倍。对于数据中心而言,这意味着 “以 10% 功耗运行同等规模模型”,将彻底改写 AI 投资回报曲线。

中国科学院计算技术研究所副研究员赵永威对这一技术路线给予了高度评价:“虽然 Taalas 目前的状况还没有应用价值,但不妨碍它会成为一颗有历史意义的芯片。这种硬连线模式是未来芯片发展的一大趋势,目前的质疑由 Taalas 来扛,后来者在推广相关概念时会更加轻松。”

极致的速度背后,是初代产品难以回避的短板。在实际测试中,HC1 虽然能实现 “2000 字回复秒出” 的惊人表现,但回复质量却存在明显缺陷 —— 不仅简单运算会出现错误,复杂问题下还会出现 “胡编乱造” 的情况。

这一问题的核心原因,在于 HC1 初代产品采用的定点数格式无法满足复杂推理的精度需求。为了对冲这一风险,Taalas 已明确规划第二代产品 HC2,将改用标准 4-bit 浮点格式改善精度问题,同时将模型支持规模提升至 200 亿参数,计划在 2026 年底前覆盖 GPT-5 级别系统。

“感觉像作弊一样快。”basecamp 创始人 DHH 的试用评价,精准概括了 HC1 的用户体验。而 Cambrian-AI 首席分析师 Karl Freund 则用 “insane(疯狂)” 来形容其性能表现。这种 “速度与精度的矛盾”,也成为 Taalas 商业化落地的核心挑战。

“一模型一芯片” 的生存逻辑

在巴伊奇的设想中,Taalas 并非要取代英伟达 GPU,而是要填补 “通用算力与极致效率之间的市场空白”。目前,公司已探索出三条商业化路径:自建 API、直接出售芯片、与模型开发者合作定制芯片,其核心逻辑是 “锁定高粘性垂直场景”,推动 “一模型一芯片” 的定制化趋势。

Taalas 的产品定位,精准命中了三类对延迟敏感、模型版本稳定的应用场景:

企业专用模型场景

金融、医疗、法律等行业的企业,往往长期使用固定版本的私有化模型。对于这类客户,HC1 的成本优势极为明显 —— 推理成本降至传统方案的 1/266,足以让许多此前不可行的 AI 应用变得具备商业价值。

边缘推理场景

人形机器人、自动驾驶汽车、高端智能手机等设备,对实时性要求极高,且无需运行多模型。

大规模客服场景

电商、运营商的智能客服系统,常年运行标准化对话模型,对响应速度的要求远高于复杂推理能力。HC1 的 “秒级响应” 能显著提升用户体验,同时将运营成本削减 90% 以上。

Taalas 产品副总裁 Paresh Kharya 明确表示:“为模型定制的最优硅片不会取代满是 GPU 的大型数据中心,但它会适配特定的应用场景。” 这种 “互补而非替代” 的定位,为 Taalas 在英伟达的阴影下找到了生存空间。

尽管场景定位清晰,但 Taalas 的商业模式仍面临两大核心不确定性:

首先是模型迭代风险。“一模型一芯片” 的模式,意味着客户必须对特定模型做出长期承诺。在大模型架构快速演进的当下,一旦行业转向全新架构(如超越 Transformer 的革命性设计),现有专用硬件将快速贬值。Taalas 的应对策略,是押注 Llama 等开源架构的长期主导地位,同时通过 LoRA 微调技术优化芯片固化模型的适应性。

其次是生态系统短板。英伟达的真正护城河并非硬件,而是 CUDA 软件生态和开发者的重度依赖。相比之下,Taalas 的专用芯片缺乏配套的开发工具链,开发者需要重新适配,这无疑提高了客户的迁移成本。如何在短时间内构建起自己的生态,成为 Taalas 能否规模化落地的关键。

Taalas 的崛起,并非孤立的行业现象。2025 年底,英伟达以 200 亿美元的价格与 Groq 达成推理技术许可协议,这一交易被业内视为 “通用算力巨头向专用推理赛道妥协” 的信号。

作为谷歌 TPU 核心开发者 Jonathan Ross 创立的公司,Groq 的 LPU 推理芯片同样采用专用架构,凭借确定性设计和片上 SRAM 内存实现了超低延迟。英伟达通过 “非独占技术许可 + 核心人才吸纳” 的方式,快速补全推理短板,同时降低收购风险。有消息称,英伟达下一代 Feynman GPU 可能在 2028 年集成 Groq 的 LPU 单元,形成 “通用 + 专用” 的混合架构。

这场路线之争的本质,是 AI 产业从 “模型训练阶段” 向 “规模化推理落地阶段” 转型的必然结果。随着大模型发布间隔时间延长,企业对成熟模型的依赖度不断增加,专用推理芯片的市场空间正在快速扩大。

未来的 AI 算力市场将呈现 “三分天下” 的格局:英伟达 GPU 主导训练场景和通用推理场景,Taalas 等 “模型即芯片” 企业占据高粘性垂直场景,而谷歌 TPU、微软 Azure Maia 等云厂商自研芯片则深耕云原生推理市场。这种分化,将彻底打破英伟达的垄断地位,推动 AI 算力进入 “专业化分工” 时代。

对于 Taalas 而言,2026 年将是决定其命运的关键一年。第二代产品 HC2 的推出,将验证其技术路线的可扩展性;而商业化落地的成效,将决定资本对 “模型即芯片” 路线的信心。要真正实现巴伊奇 “将 AI 商品化” 的愿景,Taalas 还需要跨越三道门槛:

第一,精度与速度的平衡。HC2 能否在采用 4-bit 浮点格式后,保持 HC1 的极致速度优势,同时显著提升推理正确率,将直接决定其能否进入金融、医疗等高精度要求场景。

第二,成本与规模化的突破。目前 HC1 仍处于技术验证阶段,未公开定价。要实现 “推理成本降至 1/266” 的承诺,Taalas 需要通过大规模量产降低制造成本,同时优化供应链管理。

第三,生态与合作伙伴的积累。与模型厂商、云服务商、垂直行业客户建立深度合作,构建起 “模型定制 - 芯片设计 - 场景落地” 的完整闭环,才能摆脱 “小众技术” 的标签,成为行业标准的制定者。


从更长远的视角看,Taalas 的探索不仅关乎一家初创公司的生死,更关乎 AI 产业的未来走向。如果 “模型即芯片” 路线被证明可行,将推动 AI 算力从 “追求通用” 转向 “追求极致效率”,让 AI 技术真正渗透到千行百业,实现巴伊奇 “让 AI 像电力一样无处不在” 的愿景。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。