![]()
根据著名AI分析机构Artificial Analysis的评估,Kimi K2 Thinking在智能体(agentic)相关任务中表现非常突出,但在完成评测时生成了所有模型中最多的token,表现出非常“话痨”的特性
以下是其核心要点:
智能指数67分,登顶开源榜首
Kimi K2 Thinking在Artificial Analysis智能指数中获得67分。
这一成绩使其明确领先于所有其他开源权重模型,包括最近发布的MiniMax-M2(61分)和DeepSeek-V3.2-Exp(57分),在所有模型中仅次于GPT-5
![]()
Agent能力突出,推理表现强劲
Kimi K2 Thinking在智能体应用场景中展现出强大实力,在Artificial Analysis智能体指数中排名第二,仅次于GPT-5
其优异表现主要得益于在²-Bench Telecom基准测试中取得了93%的成绩。这是一个智能体工具使用评测。这是该机构独立测量到的最高分
![]()
此外,在Humanity’s Last Exam(人类终极考试)评测中,Kimi K2 Thinking在无工具情况下的得分为22.3%,创下开源模型历史新高,仅次于GPT-5和Grok 4
![]()
成为新晋开源代码模型冠军
尽管Kimi K2 Thinking并未在任何一项代码评测中夺得总冠军,但相较于其他开源模型,它在各项评测中均排名第一或并列第一
具体排名为:Terminal-Bench Hard第6名,SciCode第7名,LiveCodeBench第2名
因此,它在Artificial Analysis代码指数中超越了先前的开源领导者DeepSeek V3.2
更多排名:
![]()
模型细节:1万亿参数,INT4原生精度
模型规格:总参数量1万亿,激活参数320亿(约594GB),仅支持文本输入,拥有256K上下文窗口
模型定位:该模型是Kimi K2 Instruct的推理变体,拥有相同的架构和参数数量
INT4精度:与此前Kimi K2 Instruct发布的FP8精度不同,该模型原生以INT4精度发布。月之暗面在后训练阶段使用了量化感知训练来实现这一点。这使得模型大小仅为约594GB,相比K2 Instruct的1TB以上大幅缩小,从而提升了推理和训练效率
代价:高冗余度、成本与延迟
Kimi K2 Thinking表现得非常“话痨”。在完成智能指数评测时,它总共使用了1.4亿个token,约为DeepSeek V3.2的2.5倍,GPT-5的2倍。
![]()
高冗余度直接影响了成本和延迟
基础版API:
定价:输入 百 万 , 输 出 2.5/百万token。
评测总成本:$356,比顶尖前沿模型便宜(比GPT-5(高)便宜2.5倍),但比DeepSeek V3.2贵9倍
速度:非常慢,约8个输出token/秒
Turbo版API:
定价:输入 百 万 , 输 出 8/百万token。
评测总成本:$1172,是第二昂贵的模型,仅次于Grok 4。
速度:相对较快,约50个输出token/秒
报告指出,此次发布再次凸显了一个持续的趋势:后训练,特别是强化学习(RL),正在推动推理模型和涉及工具调用的长程任务性能实现增长
参考:
https://artificialanalysis.ai/models/kimi-k2-thinking





京公网安备 11011402013531号