当前位置: 首页 » 资讯 » 新科技 » 正文

大模型厂商如何“反内卷”?

IP属地 中国·北京 编辑:孙明 明晰野望 时间:2026-04-20 10:57:34
一味拼算力、滚雪球式扩张已经不是最优解。

明晰野望

一边是全球各大厂又进入新一轮大模型密集发布期,另一边,OpenAI、谷歌、Anthropic突然抱团,成立了反蒸馏联盟,剑指中国大模型厂家,不得不说,这个行业真的卷。

反蒸馏联盟背后,西方人有点急红了眼,名义上是安全考虑,其实就是来自中国模型低成本竞争的压力。在这个高度开源的行业,原本大家都在玩蒸馏,小模型跟大模型学、新模型借鉴老模型,本来就是常规操作。

对于国内大厂而言,不管海外啥联盟,真正能在竞争中立得住脚还得靠技术。

备受瞩目的DeepSeek V4这个月底即将发布。换上国产芯后,其性能或许更加抗打,直接对线这两天或将发布的OpenAI的GPT-6新模型。

国内其他大厂也是动作频频。

这个月,阿里旗下除了有最新横空出世的HappyHorse,新发布千问新一代大语言模型Qwen3.6-Plus。字节跳动则在豆包大模型2.0的基础上新发布原生全双工语音大模型Seeduplex。不久后姚顺雨加入腾讯后的首个混元模型3.0也即将登场。

随着高质量语料的消耗殆尽,在今年AI应用爆发的新需求下,各家大模型厂家对基础大模型Agent能力的提升更为重视。新的大模型也都更强调工程环境、任务闭环,升级交互的底层能力。

巨头们的更新选择,也在很大程度上反映出大模型行业的商业化新探索:不再是刷榜式的比拼算力与参数,而把重点放在技能树的取舍,找到最适合自身的路径。

比如,以GPT、DeepSeek、豆包大模型为代表,他们凭借海量消费级Token,剑指C端市场,试图成为普通人的全能AI助手,满足大众用户多元化、日常化的使用需求,未来有希望和各种硬件终端联动,完成进一步价值变现。

阿里和腾讯这类拥有强大业务基本盘的大厂在发展C端应用的同时,让AI与自身业务深度融合,提高Token利用率,创造更多高价值的商业化落点。

一味拼算力、滚雪球式扩张已经不是最优解,各家大厂都必须对存量资源做出抉择:是以Token为核心挖掘全新商业模式,还是聚焦高价值垂直场景,通过付费专业化服务与专业用户一起引领模型的进化。

一句话,大家都有光明的前途。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。