当前位置: 首页 » 资讯 » 新科技 » 正文

Artificial Analysis评测新鲜出炉:Kimi K2 thinking位居世界第二,开源第一

IP属地 中国·北京 AI寒武纪 时间:2025-11-08 10:13:57


根据著名AI分析机构Artificial Analysis的评估,Kimi K2 Thinking在智能体(agentic)相关任务中表现非常突出,但在完成评测时生成了所有模型中最多的token,表现出非常“话痨”的特性

以下是其核心要点:

智能指数67分,登顶开源榜首

Kimi K2 Thinking在Artificial Analysis智能指数中获得67分。

这一成绩使其明确领先于所有其他开源权重模型,包括最近发布的MiniMax-M2(61分)和DeepSeek-V3.2-Exp(57分),在所有模型中仅次于GPT-5


Agent能力突出,推理表现强劲

Kimi K2 Thinking在智能体应用场景中展现出强大实力,在Artificial Analysis智能体指数中排名第二,仅次于GPT-5

其优异表现主要得益于在²-Bench Telecom基准测试中取得了93%的成绩。这是一个智能体工具使用评测。这是该机构独立测量到的最高分


此外,在Humanity’s Last Exam(人类终极考试)评测中,Kimi K2 Thinking在无工具情况下的得分为22.3%,创下开源模型历史新高,仅次于GPT-5和Grok 4


成为新晋开源代码模型冠军

尽管Kimi K2 Thinking并未在任何一项代码评测中夺得总冠军,但相较于其他开源模型,它在各项评测中均排名第一或并列第一

具体排名为:Terminal-Bench Hard第6名,SciCode第7名,LiveCodeBench第2名

因此,它在Artificial Analysis代码指数中超越了先前的开源领导者DeepSeek V3.2

更多排名:


模型细节:1万亿参数,INT4原生精度

模型规格:总参数量1万亿,激活参数320亿(约594GB),仅支持文本输入,拥有256K上下文窗口

模型定位:该模型是Kimi K2 Instruct的推理变体,拥有相同的架构和参数数量

INT4精度:与此前Kimi K2 Instruct发布的FP8精度不同,该模型原生以INT4精度发布。月之暗面在后训练阶段使用了量化感知训练来实现这一点。这使得模型大小仅为约594GB,相比K2 Instruct的1TB以上大幅缩小,从而提升了推理和训练效率

代价:高冗余度、成本与延迟

Kimi K2 Thinking表现得非常“话痨”。在完成智能指数评测时,它总共使用了1.4亿个token,约为DeepSeek V3.2的2.5倍,GPT-5的2倍。


高冗余度直接影响了成本和延迟

基础版API

定价:输入 百 万 , 输 出 2.5/百万token。

评测总成本:$356,比顶尖前沿模型便宜(比GPT-5(高)便宜2.5倍),但比DeepSeek V3.2贵9倍

速度:非常慢,约8个输出token/秒

Turbo版API

定价:输入 百 万 , 输 出 8/百万token。
评测总成本:$1172,是第二昂贵的模型,仅次于Grok 4。
速度:相对较快,约50个输出token/秒

报告指出,此次发布再次凸显了一个持续的趋势:后训练,特别是强化学习(RL),正在推动推理模型和涉及工具调用的长程任务性能实现增长

参考:

https://artificialanalysis.ai/models/kimi-k2-thinking

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。