![]()
新智元报道
编辑:KingHZ Aeneas
最近,炸裂消息一个接一个。首先,DeepSeek V4将在一周内上线。第二,它跳过英伟达,把访问权限首先给了某国内芯片厂商。另外,Anthropic因为蒸馏事件,也被群嘲了。
炸裂消息:根据多方来源,DeepSeek V4将在一周内上线!
现在,DeepSeek V4 Lite至少在一家推理服务商进行测试,目前透露出的信息有——
模型代号为Sealion-lite,有100万token的上下文窗口,这个模型比网页版/应用模型好用得多,而且还是原生多模态模型。
![]()
与此同时,DeepSeek v4 Lite的一张对比图,也在外网传疯了!
与目前的Deepseek v3.2思考模型相比,DeepSeek v4 Lite不开启思考模式,生成的SVG图像质量明显更好。
![]()
DeepSeek压顶,美国慌了!
DeepSeek V4春节没来,但这次不远了。
路透社称,一些芯片厂商已经接入DeepSeek V4,优化性能。
消息人士称,DeepSeek这次向某国产芯片厂商提供了V4的早期接入权限,而不是英伟达等美国算力霸主。
这直接打破了过去AI模型大版本发布前的行业惯例。
![]()
这条消息来自两位消息人士,路透社表示。
而就在昨天,美国官员声称DeepSeek使用非法获得的英伟达GPU进行训练。
Anthropic直言DeepSeek等通过蒸馏Claude的回复来运作,断言他们缺乏真正的内部创新能力只会抄袭。
![]()
美国的CNN、CNBC、NYT等大众和科技媒体纷纷推出相关报道
去年,Deepseek发布后确实有过攻击,如此密集攻击前所未有。
但也在意料之中。
上一次Deepseek发布模型时,引发了恐慌——
去年,DeepSeek-R1发布或导致英伟达股价下跌17%!
![]()
而现在可能发生什么?
如果DeepSeek V4再次展现出惊人的效率和能力,很可能会重演甚至加剧去年的投资者恐慌,对正在寻求巨额融资的美国AI公司和希望股价稳定的英伟达、谷歌等巨头构成直接威胁。
这不是庸人自扰,即便是竞争对手的研究人员也承认DeepSeek V4不可小视,可能发布就登顶开源第一!
![]()
美国的这波舆论攻击,并非偶然,Reddit用户总结称:这是一场有组织的FUD(恐惧、不确定性和怀疑) 营销:
抢占叙事:在DeepSeek V4发布前,预先埋下「他们只会作弊/抄袭」的叙事框架。这样,无论V4多成功,公众的第一反应都会被引导至负面解读。
保护市场:通过舆论手段稀释V4发布的媒体关注度和影响力,试图稳定投资者情绪,防止股价再次出现两位数暴跌,为美国本土AI公司的融资和发展争取时间。
维护霸权:从更深层次看,这是为了维护美国在AI领域的技术和叙事霸权,打击中国AI的崛起势头。
![]()
当你看到这类铺天盖地的负面报道时,要特别留意它的发布时间。
将其与即将发生的重大事件(如DeepSeek V4发布)联系起来,思考谁最有可能从这种舆论中受益,以及他们真正在恐惧什么。
不要轻易被这些报道的结论带着走。要学会看穿表面的FUD,基于事实和历史证据,去洞察背后真实的技术竞争和市场博弈。
Claude自曝「我是DeepSeek」!
全网哗然
与此同时,另外一件事,也在全网炸锅了。
X上一个用户发现,当他向Claude提问「你是什么模型」时,它竟然回复:「我是DeepSeek V3,是由DeepSeek公司开发的开源大语言模型。」
这一bug,是否说明Claude是基于DeepSeek蒸馏的?
![]()
讽刺的是,就在不久前,Anthropic刚刚高调指责DeepSeek进行了「工业级蒸馏攻击」。
这一幕,简直堪称AI时代的行为艺术。
![]()
网友stevibe完全复现了Claude Sonnet-4.6的这波操作:
不过,有的网友在Claude App中完全无法复现结果。
![]()
的确有网友在Claude App复现了该问题,但很难一次成功。
![]()
为了力证这一结果的有效性,他特意通过Anthropic的官方API端点再次测试,结果还是一样。
![]()
根据他人提供的创意,这位网友又试着用法语提问「你是什么模型」?这次,Opus 4.6开始回答:我是ChatGPT。
![]()
为什么stevibe能通过API复现结果,为什么不能用Claude App复现?
最大的原因可能是系统提示词。如果没有系统提示词,AI会根据训练数据回答。
![]()
有网友推测:
这是一个数据污染/身份对齐问题,并不能证明任何事情。如果你用正确的语言进行足够深入的探究,每个主流模型都会存在这个问题。
![]()
总之,Anthropic的训练数据成了不能说的秘密。
![]()
当然,Claude Sonnet 4.6会自称「我是DeepSeek」,需要符合以下三个特定条件——清空系统提示、使用中文提问、特定模型版本。
![]()
事情的关键在于:当默认系统提示要求模型自称Claude 时,一切都很正常;一旦把系统提示清空,模型在中文语境下竟然就开始「认祖归宗」。
问题来了,如果一个模型中没有系统提示词约束的情况下,就会产生「我是某某模型」的回答,原因到底是什么?
是训练数据的统计残留,还是大模型中多源数据训练下,出现了自然语言泛化的副作用?目前还无法判断。
但Anthropic似乎被啪啪打脸了:在指责别人蒸馏时,你最好能确保自己不会在删除提示词后出现身份错乱。
毕竟,蒸馏在机器学习中,是一种非常常见的技术。Anthropic指责他人进行「工业级蒸馏攻击」时,听上去简直严重到像一起网络安全事件。
以此站在道德高地上,吃相就有些难看了。
模型的身份稳定性,本身就是概率分布问题。大模型没有自我认知,只是在生成统计上最合理的答案。
如果在中文数据分布中,「我是DeepSeek」这种模式概率较高,那么在没有系统提示的情况下,模型就可能走向那条高概率路径。
![]()
网友Theo Borges解释了其中的原理:一切都是概率和零系统提示词
这不一定说明「蒸馏发生了」,但它说明——模型的语言空间是共享的。当整个行业都在同一个语料海洋中训练、优化、蒸馏时,边界本身就变得模糊。
群众的眼睛是雪亮的,Anthropic的thread,已经被网友们的吐槽冲了。
![]()
6000多条评论,70%都在吐槽Anthropic
这套又当又立的行事逻辑,直接让Anthropic的风评跌至历史最低点。
![]()
![]()
接下来,我们看DeepSeek的了。
参考资料:
https://x.com/legit_api/status/2026718853275800019
https://x.com/teortaxesTex/status/2026251055672017141?s=20
https://www.reuters.com/world/china/deepseek-withholds-latest-ai-model-us-chipmakers-including-nvidia-sources-say-2026-02-25/
https://www.reddit.com/r/LocalLLaMA/comments/1rdlsgq/my_theory_on_all_the_negative_chinese_ai_media/
https://x.com/stevibe/status/2026227392076018101





京公网安备 11011402013531号