编辑:元宇 桃子
Grok首个编码模型终于来了!从0构建,编程实力超强,直接冲进SWE-bench前五,仅次于OpenAI Codex-1。背后核心团队同时被爆出,华人学者占多半。
马斯克画的饼,终于兑现了!
一大早,xAI正式上线首个编码模型——Grok Code Fast 1,一款兼具速度、高性价比的推理模型。
经过微调,Grok Code在编码性能上表现非常惊艳。
在SWE-bench Verified基准测试中,Grok Code拿下70.8%高分,仅次于Codex-1、Claude 4 Opus。
在编码LiveCode Bench中,它拿下了62%高分;数学IOI得分4.3%。
可以说,Grok Code编程实打实的强,有开发者测试,仅用几次提示直出一个网页。
甚至,有人仅用一天时间,就打造出了战斗模拟器游戏原型,编码速度极快。
值得一提的是,Grok Code是所有编码模型中,成本最低的那个。
输入价格:0.20美元/百万token;输出价格:1.5美元/百万token;缓存输入:0.02美元/百万token。
目前,Grok Code已在Cursor、Windsurf等各大编码平台上线,限时免费使用7天。
Grok编程冲进前五,狂飚速
xAI从零打造的Grok Code Fast 1,专门面向更轻盈、更敏捷的编程场景,主打一个「快速响应」。
就看它直出代码的速度,就知道有多快了。
而且,网友实测Grok Code要比GPT-5速度快五倍。
能做到如此神速,一定离不开Grok Code背后技术架构的创新。
为此,他们设计了一款全新的模型架构,在训练阶段,精心构建了一个高度聚焦于编程领域的语料库。
在后训练阶段,他们还筛选了高质量的数据集,涵盖真实世界中的Pull Request和实际编码任务。
最关键的是,xAI在推理、训练流程中做了一系列创新,直接拉满运行速度,让体验原地起飞。
你可能连CoT的第一段文字都还没读完,Grok Code已经在后台狂调数十个工具了。
此外,xAI还针对提示词做了缓存优化,在协作编程时,缓存命中率稳定超过 90%。
在软件工程的基准测试中,Grok Code一举拿下了 70.8%的高分。
在ToyBench上,Grok Code位居第五,仅次于 GPT-5、Claude Opus 4、Gemini 2.5 Pro和DeepSeek Reasoner。
与此同时,在打造Grok Code的过程中,xAI还通过真实用户的评价不断优化模型,让其更贴合日常开发场景。
全能程序员,改bug直出网页
Grok Code Fast 1具备出色的全栈开发能力,尤其擅长Typescript、Python、Java、Rust、C++和Go。
无论是从零构建项目、深入回答代码库问题,还是精确修复复杂bug,都可轻松应对,而且只需最少的监督。
有开发者用Grok Code开发了一款网页应用,它能快速生成设计草图。
测试中,性能从最佳时的60-80 tps,提升到了220-250 tps。
网友认为,Grok Code的一次性输出的代码量最丰富,在如下星舰模拟演示中,效果着实令人惊艳。
Grok Code Fast 1在遵循指令方面,表现非常出色。
Shubham Saboo认为它的性能可以媲美Claude Sonnet 4和GPT-5 ,但价格几乎低10倍。
更震撼的是,有人直接给出一句话,就用Grok Code和Cursor中cursor rules,瞬间搞定了整个后端。
华人团队占多半,清北校友在列
或许你还不知道,在xAI打造Grok Code模型的员工,这次还有一个特殊福利——
去SpaceX星舰基地,去看现场发射。
xAI华人研究员骆梁宸,晒出了自己在星舰基地的大片。
话又说回来,这次Grok Code能够顺利诞生,是xAI全团队的努力数月的结晶。
另一位研究员Mohit Reddy透露,几个月前,这个项目还仅有两人,如今已经发展成为人才济济的小团队。
他特别点出了一些重点参与Grok Code的研究人员,其中华人学者占了半壁江山。
Liangchen Luo(骆梁宸)
骆梁宸在xAI公司从事机器思维与学习算法的研发工作。主导创建了Grok Code项目并从0搭建其完整体系,同时作为核心研发人员,参与了Grok 3 Think、Grok 4两大系统的开发建设。
他本科就读于北京大学地球与空间科学学院。
Zihang Dai(戴子航)
前谷歌大脑研究员,毕业于清华和CMU。此前,他还在百度美国分公司和蒙特利尔大学的MILA进行过研究实习。
Ziniu Hu
Ziniu Hu目前在xAI专注于强化大语言模型,包括Grok Code Fast 1、Grok 3-mini推理API、Grok 3及Grok 2等研究。
他本科毕业于北大计算机系,在UCLA获得了计算机科学博士学位,并在加州理工学院CMS实验室完成博士后研究。
Yongchao Zhou
Yongchao Zhou就职于xAI,在多伦多大学分别获得了机器学习学士学位和计算机博士学位。
Jiayi Pan(潘家怡)
潘家怡从伯克利人工智能研究中心的博士研究中休假后,加入了xAI,参与了Grok 4研发。
Evan Wang
Evan Wang在xAI任后训练团队技术研究员,曾获得了加州理工学院计算机科学学士学位,和马里兰大学学士学位。
Honghua Zhang(张宏华)
张宏华在xAI参与模型后训练研究,本科毕业于UCLA,获得计算机科学与数学双学位。
同时,他亦获得了UCLA计算机科学系的博士学位。
Eric Jiang
Rui Hou
Rui Hou在xAI专注于推理与智能体方向研究,曾获得同济大学学士学位,密歇根大学硕士和博士学位。
可以看到,特别感谢11人中,9人都是华人学者,规模壮观。
提示工程指南
对于开发者来说,grok-code-fast-1是一款轻量级的智能体模型,为了帮助程序员高效地完成日常编码任务,xAI总结了一些提示词编写指南。
提供必要的上下文
大多数编程工具会自动获取上下文信息,但很多时候,我们需要主动选择自己希望用作上下文的具体代码会更高效。
因此,为让grok-code-fast-1聚焦目标任务,建议明确提供相关的文件路径、项目结构或依赖信息。
❌ 不推荐的无上下文提示词:
=改进错误处理逻辑
✅ 推荐的带上下文提示词:
我的错误码都定义在@errors.ts文件中,你可以参考它,在我写SQL查询的@sql.ts文件中补充合适的错误处理和错误码吗?
明确你的目标和需求
清楚地说明你希望grok-code-fast-1实现什么目标、解决什么问题,越具体,效果越好。模糊不清的提示词,往往会导致结果不理想。
❌ 模糊提示词例子:
创建一个食物追踪器
✅ 详细提示词例子:
创建一个食物追踪器,能显示每天的卡路里摄入量,按不同营养成分分类;我输入食物后,需要能看到总览视图,也能分析摄入趋势。
持续优化你的提示词
grok-code-fast-1对速度比主流模型快4倍,成本只有1/10,这意味着你可以以前所未有的速度测试各种复杂想法。
即便你的第一次输出不够理想,也可以尝试加入更多上下文,或者根据失败的结果做微调。
✅ 优化后提示词例子:
上一版没考虑IO密集型进程会阻塞主线程,我们应该用线程循环方式跑它,而不是简单用async库版本。
总体而言,grok-code-fast-1用于智能体式任务,也就是模型需要结合上下文、调用工具、完成多步操作的场景。
而Grok 4更适合用来解决一次性问答或复杂的概念解析。
Grok 4发布会上,马斯克预告未来三个月的路线图,如今终于赶在8月底前兑现了第一个。
接下来,就坐等9月多模态智能体、10月视频生成模型的上线了。