当前位置: 首页 » 资讯 » 新金融 » 正文

从GPT-5到DeepSeek V3.1,顶尖AI大模型的新方向出现了!

IP属地 中国·北京 编辑:沈如风 华尔街见闻官方 时间:2025-08-31 12:27:45

在AI大模型的激烈竞赛中,衡量标准正悄然改变。

从美团最新开源的龙猫大模型,到OpenAI下一代旗舰GPT-5和明星创业公司DeepSeek的新品,顶尖玩家们不约而同地将目光投向了“混合推理”与“自适应计算”,标志着AI行业的发展重点正从“更高、更强”转向“更聪明、更经济”。

美团近日开源的“龙猫”(LongCat-Flash)凭借创新的架构,在性能比肩业界顶尖水平的同时,实现了惊人的算力节省。

华尔街见闻此前提及,LongCat-Flash最具创新性的设计之一是 “零计算”专家机制,该机制能智能识别输入内容中的非关键部分,如常见的词语和标点符号,并将其交由一个不进行复杂运算的特殊“专家”处理,从而直接返回输入,极大地节省了算力。

此举并非孤立的技术炫技,而是对当前行业痛点的精准回应——随着推理模式变得更加复杂,AI应用的成本正在快速上升。

业界的应对策略正在聚焦到一个共同方向:混合推理模式。这种模式让AI系统能够根据问题复杂度自动选择合适的计算资源配置,避免在简单任务上浪费昂贵的算力。

AI越“聪明”,成本越昂贵

美团对效率的极致追求,恰恰反映了整个AI行业正面临的严峻挑战。

据机器之心,前段时间,TextQL联合创始人兼CEO丁一帆(Ethan Ding)就指出了一个反直觉的现象 —— 明明Token的成本一直在下降,但各家模型公司的订阅费却在飞涨。

丁一帆认为,问题的症结在于,那些降价的模型大部分不是SOTA模型,而人类在认知上的贪婪决定了,大部分人只想要“最强大脑”,所以99%的需求会转向SOTA。而最强模型的价格始终差不多。

简单来说就是,虽然单个token的价格在下降,但完成复杂任务所需的token数量正在以前所未有的速度增长。

例如,一次基础的聊天问答可能仅消耗几百个token,但一项复杂的代码编写或法律文件分析任务,可能需要消耗数十万甚至上百万个token。

AI初创公司T3 Chat的首席执行官Theo Browne也曾表示:

“争夺最智能模型的竞赛,已经演变成了争夺最昂贵模型的竞赛。”

这种成本压力已传导至应用层公司。据媒体报道,生产力软件公司Notion的利润率因此下降了约10个百分点。一些AI编程辅助工具的初创公司,如Cursor和Replit,也不得不调整定价策略,引发了部分用户的抱怨。

顶尖模型的共同答案:混合推理

为破解成本困局,“混合推理”或称“自适应计算”已成为行业共识。

各大模型厂商虽然路径不一,但目标高度一致:让模型学会判断何时需要“深度思考”,何时只需“快速响应”。

OpenAI的GPT-5采用“路由器”机制,根据问题复杂程度自动选择合适的模型处理。举例来说,对于如“天空为什么是蓝色”的简单问题,GPT-5会直接将其交给轻量级模型,复杂任务则调用高算力模型。

根据OpenAI内部评测,GPT-5使用思考模式能以比前代模型少50-80%的输出token完成任务,达到相同或更好的效果。该系统通过用户行为、偏好反馈和正确率等真实信号持续训练路由机制,随时间不断改进。

DeepSeek的V3.1版本则更进一步,将对话和推理能力合并到单一模型中,推出了单模型双模式架构。开发者和用户可以通过特定标记或按钮,在“思考”与“非思考”模式间切换。

官方数据显示,其思考模式能在消耗减少25-50% token的情况下,达到与前代模型相当的答案质量,为企业提供了一个高性价比的开源选择。

目前,这一趋势已成为行业主流。从Anthropic的Claude系列、Google的Gemini系列,到国内的阿里Qwen、快手KwaiCoder、字节豆包以及智谱GLM等,几乎所有头部玩家都在探索自己的混合推理方案,试图在性能与成本之间找到最佳平衡点。

有分析指出,混合推理的下一个前沿将是更智能的“自我调节”——让AI模型能够精准地自我评估任务难度,并在无人干预的情况下,以最低的计算代价,在最恰当的时机启动深度思考。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。