当前位置: 首页 » 资讯 » 新科技 » 正文

国产大模型密集发布,“春节AI竞赛”提前开幕

IP属地 中国·北京 第一财经资讯 时间:2026-01-28 19:00:27


近日,多家国产模型厂商更新模型进展,包括DeepSeek开源新的OCR 2模型、Kimi发布并开源Kimi K2.5模型、阿里发布千问旗舰推理模型Qwen3-Max-Thinking,头部模型的密集更新使中国模型在当日霸榜海外社交平台X的热点前三位。据一位行业人士透露,下周也有多款国产模型产品将更新发布。

2025年春节DeepSeek凭R1的出色表现引发破圈传播,使得这一节点成为综合流量窗口、商业竞争、技术节奏等多方面因素的集中展现,也让大众对2026年春节国产模型竞赛翘首以盼。2026年春晚更是因字节跳动火山引擎与豆包大模型、腾讯元宝、百度的提前卡位锁定热度。

多位行业人士对第一财经表示,节前大模型行业的密集动作,是行业开始迈向工程化成熟期的关键信号,包括模型从参数竞赛转向工程优化,产品交付从实验室Demo走向规模化服务,生态协同从单点突破走向系统协同。


聚焦多模态与推理方向

1月27日,DeepSeek与Kimi再次同日发布模型,此前已有数次模型与论文发布“撞车”,足见行业关注度争夺之激烈。

Kimi官方将K2.5定义为公司迄今为止最智能的模型,包括Agent、代码、图像、视频及一系列通用智能任务表现;同时,这也是Kimi迄今最全能的模型,包括原生多模态架构设计,同时支持视觉与文本输入、思考与非思考模式、对话与 Agent任务。

同日发布的DeepSeek-OCR2模型是去年10月官方推出的DeepSeek-OCR模型的迭代版本,团队采用了创新的DeepEncoder V2方法,让AI能够根据图像的含义动态重排图像的各个部分,而不再只是机械地从左到右扫描,这种方式模拟了人类在观看场景时所遵循的逻辑流程。

升级后的OCR 2模型在处理布局复杂的图片时,表现优于传统的视觉语言模型。官方提到,DeepSeek的OCR模型主要面向两大生产级应用场景:一是为DeepSeek大语言模型提供图像/文档读取服务,二是用于批量 PDF 处理的预训练数据流水线。

DeepSeek认为,第一代OCR的光学压缩是迈向原生多模态的初步探索,而OCR 2 的类LLM编码器架构是在这一方向上的进一步推进。看起来DeepSeek正在多模态领域进行更多技术探索,这正是当前DeepSeek所缺乏的部分,而业内普遍认为多模态是未来大模型行业的重要趋势。

暖哇科技首席数据官陈鸿对第一财经表示,团队正在评测DeepSeek最新推出的OCR2模型。DeepSeek第一代OCR更偏向于技术论文性质,主要是为了验证其技术路线的理论可行性,实际应用效果囿于训练数据和模型尺寸还比较有限。对于OCR2模型,他认为其核心是让模型能理解图像中的像素信息背后实则蕴含逻辑关联与文本语义,这是OCR任务的本质,理应能带来性能提升。

除了原生多模态深化外,推理工程化提效也是今年主流模型的一大趋势。

1月早先时间,阿里开源多款模型,包括全系列语音合成模型Qwen3-TTS,专为多模态信息检索与跨模态理解设计的Qwen3-VL-Embedding和Qwen3-VL-Reranker模型系列等,均在多模态领域实现了进一步的性能提升。从近期阿里大模型产品的发布来看,一方面,大模型能力提升仍是模型更新及竞争的主线;另一方面,近一年来,阿里对大模型布局的“全尺寸、全模态、全场景”战略进一步加深,在多模态、跨模态领域的更新加快。

枫清科技创始人兼CEO高雪峰对第一财经表示,近一段时间,不论是DeepSeek发表的论文,还是阿里千问和Kimi发布的全新大模型,他们的技术创新都指向了一个核心点:进一步提升推理性能、降低推理成本和模型训练门槛,让AI大模型更易用、实用和好用。


性价比远比“第一”更重要

大模型行业竞争日趋激烈,头部公司积极卡位,争取在竞争中占据更有利位置。高雪峰认为,这种良性的竞争,将进一步缩短国产大模型与国外大模型之间的差距。

各家模型都有自己的优势场景,企业也不会只用一家模型。陈鸿对第一财经表示,模型优势的变化很快,基本按月、季度迭代,每次基座模型的迭代和更新,团队都会用实际任务去做评测,选择对应最好的。

“2025年初我们还在使用海外的ChatGPT 4.5,当时它的效果最好,但DeepSeek 推出后,虽效果略逊一筹,价格却仅为前者的十分之一,几乎成为无可替代的选择。”陈鸿对记者表示,业界可能执着于模型在基准测试中的排名,但对企业而言,性价比远比“第一”更重要。

大模型的调用成本也在持续下降。陈鸿透露,从暖哇科技的业务来看,2025年初到年末,客户的token调用量实现多倍增长,但token调用费用却大大降低。

在暖哇科技的保险业务场景下,目前通用模型有两个选项:一是豆包,更适合对话场景及需要高情商表达的交互;二是DeepSeek V3.2模型,性价比突出。此外,在编程领域,智谱的表现也受到行业认可,如果需要精调,千问是一个很好的基座选择。陈鸿透露,暖哇科技目前的精调模型就是基于千问32B版本开发的。

高雪峰也发现,2025年大模型整体的Token成本明显降低。DeepSeek、阿里、字节等主流的通用大模型在2025年都进行了大幅降价,目前,国内主流商用模型API已经进入“厘时代”。看向未来,成本的持续下降是AI技术创新发展的必然,也正因如此,AI才能真正从C端尝鲜迈向B端规模化落地,从而发挥更大的作用和价值。

对于节前大模型行业的密集发布与更新,大模型生态社区OpenCSG(开放传神)创始人陈冉则认为,这是行业进入了一个新的“工程化成熟期”的标志,从拼规模转向拼效率与落地能力。

高雪峰对第一财经表示,开源正在加速技术迭代并大幅降低成本,使大模型从少数巨头能力走向产业基础设施。随着成本持续下降,Agentic AI智能体将从“能对话”迈向“能执行、能创造价值”,智能体时代的黎明即将到来。

随着巨头的持续发力,高雪峰判断,通用大模型行业的马太效应将日益凸显,呈现出强者恒强的局面,中小玩家的机会更多出现在细分行业和领域,如制造、金融、教育、医疗等领域的大模型。

陈鸿认为,各厂商的核心主线还是围绕自身生态位推进。以DeepSeek为例,其技术核心一直聚焦效率优化,以极低的算力成本对外输出服务,成为性价比极高的模型。而阿里作为大厂,旗下千问模型有明确的性能追求,在编程、推理、多模态多方向持续迭代,其开源版本是继续精调模型的优秀基座。

不过,高雪峰认为,企业在推动AI大模型应用过程中,仍面临模型存在幻觉、可解释性和推理能力薄弱等挑战,这也是枫清科技在解决的部分。

未来应用厂商更希望大模型在哪些方面实现突破?陈鸿认为,推理能力的动态优化是非常刚需的,当前模型的推理开关要么全开要么全关,缺乏灵活性,而人类会根据信息完备度动态决定是否深度思考。若模型能自主判断是否需要推理、是否缺少信息,就能在更多业务场景中应用推理模型,避免不必要的算力消耗。

其次,多模态技术的落地优化很重要,当前多模态模型仍是“抽卡机制”,生成图像、语音等内容时需反复调整提示词,就像抽盲盒,难以满足专业场景需求。

谁能解决这些问题,谁就能在应用领域更加向前一步。


模型厂商技术指标逐渐聚焦

技术方向上,多模态、Agent等方面已在行业内形成共识,但在实际落地过程中,成本把控能力、推理能力、工程化能力等方面逐渐成为考验模型厂商的重要指标。

Kimi创始人杨植麟表示,Kimi本身预训练策略乃至整个模型的设计策略,都是围绕两个维度展开:提升token efficiency(token效率)是Kimi团队认为进行预训练时一项极为重要的指标与优化方案;第二个维度是实现long context(长上下文),因为延长上下文能有效降低损失,这也解释了为何当前许多复杂的Agent任务必须在超长上下文中才能完成——延长上下文必然会降低loss,而一个优秀的架构能使损耗下降得更多。

紫荆芯界产品副总裁邵巍注意到行业模型和应用发布的节奏正在加快,有公司提速至每半年一次发布旗舰模型,甚至缩短到了四五个月一次。这说明一方面,负责软件开发的员工在不断推进模型的研发;另一方面,负责应用开发的员工也在持续迭代更新。无论是长上下文还是Agent等方面的发展,实际上都对推理能力提出了更高的要求。

商汤小浣熊负责人贾安亚在实际服务产业客户的过程中发现,软件开发与办公紧密关联着企业的核心资产——代码、文件及数据。不少企业客户虽然对某些单一功能非常认可,但在实际落地过程中,平台需要提供一个全面且高效的解决方案,包括整体延迟性能、精度等,整体方案效果需达到95%以上,且需要完全可用。这对于模型推理是一个较大的挑战,因为企业对芯片的投资及推理投入都有一个综合的性价比考量,这就要求平台必须考虑如何将大模型以最高效率部署到机器上进行推理。

大模型的频繁更新对需要完成硬件适配的企业用户难言友好。贾安亚团队近期正在合作一家头部金融客户,为其制定的整套解决方案旨在服务数千名员工,涵盖从进销存到日常运营等多个方面。对于这些一线业务人员来说,重要的是如何利用大量不同类型的数据(包括图片、表格和PDF文件)在系统上实现高效且准确的端到端处理。从技术角度来看,这意味着不仅要进行语言推理,还需要处理多模态数据,并保证超长上下文的支持及各种文件类型的处理能力。此外,还需确保整个过程既快速又精确,并且用户可以在过程中随时检查进度,并直接应用最终结果。

客户既要求功能全面又要求性能卓越,这使得近期大模型行业除了产品的密集更新,还要在与产业链上下游加速联动,在软硬双端从算法与架构层面降低行业成本上下功夫。

在浙江算力科技董事长钱敏勇看来,实施路径上,推理成本的降低短期内仍依赖工程优化,包括整体架构、算法以及软件栈的优化。但从长期角度来看,新型硬件和芯片的创新将会带来更为深远的影响。

炜烨智算董事长兼CEO周韡韡认为,AI已经从“看中学”阶段发展到了“干中学”的阶段。在基础设施方面,基础设施模型及其生态系统将会朝着基模生态一体化的方向发展。行业已经结束了模型的盲目竞争,进入了以推理能力为主导的时代。

(本报记者陈杨园对此文亦有贡献)

声明:包含AI生成内容

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。