环球网
5月7日,AI创作平台“灵珠”透露,其测试环境已率先接入最新发布的DeepSeek V4大模型。据称,此次升级带来的最直接变化是灵珠平台的需求分析阶段效率提升约3倍。据了解,灵珠计划于5月11日启动第二次内测,届时正式环境也将全面接入DeepSeek V4。
4月24日,DeepSeek V4正式发布并同步开源,该模型首次将“百万上下文”作为默认能力开放,在100万token场景下单token推理计算量相比V3.2暴降73%,KV cache仅为其10%。性能上,DeepSeek V4整体表现比肩GPT-5.4、Claude Opus 4.6等顶级闭源模型,在推理、知识、代码能力上全线抬升。架构方面,V4引入了压缩稀疏注意力与重度压缩注意力的混合注意力机制,大幅降低推理过程中的计算量。
灵珠项目开发负责人解释,在需求分析环节将效率提升3倍并非简单的模型替换,而是“模型升级+深度适配”的结果。一方面,DeepSeek V4在推理速度上实现了跨越式提升——其采用的混合注意力机制大幅降低了KV Cache占用,使长上下文场景下的推理效率显著提高;另一方面,灵珠团队针对V4的特性,对需求分析Agent进行了专项优化,使系统对用户创意的理解更精准、分类更合理,更符合用户预期。需要说明的是,目前在代码生成环节,灵珠仍然采用多模型架构,这也是Vibe Coding赛道普遍采用的策略。(青山)





京公网安备 11011402013531号