![]()
本文来自微信公众号:AIGC从0到1,作者:01Flow,头图来自:AI生成
引言:2026年2月20日,又一个行业的崩塌时刻
2026年2月20日,Anthropic发布Claude Code Security,美股网络安全板块集体暴跌。CrowdStrike跌7.95%、Cloudflare跌8.05%、Okta跌9.18%,单日市值蒸发超100亿美元。Global X网络安全ETF创2023年11月以来新低。
这是继2月3-4日"SaaSpocalypse"(SaaS崩塌)之后,48小时内第二次行业级崩塌。
两次崩塌的共同特征是:AI不再是“辅助工具”,而是直接替代了整个职业类别的核心价值。Claude Code Security在内部测试中发现500+潜伏多年的高危漏洞,包括Ghostscript、OpenSC等开源项目,部分漏洞存在超十年未被人类安全专家发现。
这是范式崩塌的信号。
当一个AI工具能够超越整个行业数十年的专家积累,因为中间有段时间我没有紧密fellow,参见前文《用AI,不AI:一个AI异化者的重生手记》,所以我特别想搞清楚的是:范式是如何演进到这一步的?
第一阶段:模型能力的指数级跃迁(2018-2024)
A. 核心特征:Scaling Law(缩放定律)的胜利
从GPT-3到GPT-4,从Claude到Gemini,这一阶段的主旋律是模型能力的指数级增长。LLM在软件任务上的时间跨度每7个月翻倍,Claude Opus 4.6在METR软件任务上达到14.7小时,相比前代提升了近3倍。
这个阶段的关键信念是:
更大的模型 = 更强的能力
更多的数据 = 更好的泛化
更长的上下文 = 更复杂的推理
直到互联网数据被用完,蒸馏数据会引发崩溃。AI训练的瓶颈从模型参数够不够大,到是新鲜、可靠的数据从哪里来。这预示着第一阶段的天花板。
B. 范式的内在矛盾
这一阶段暴露出三个核心矛盾:
1.数据枯竭:互联网公开数据已被“反复嚼旧料”,模型开始“嚼自己的尾巴”;
2.能力泛化 vs. 落地应用:模型越抽象越泛化,但缺乏与真实任务的有效对接;
3.Speech-act的空转:大量对话停留在“数字空间空转”,未能进入“speech-cognition的高价值空间”。
![]()
第二阶段:从In-Context Learning到Scaffolding(2024-2025)
A.Anthropic的双重路径
Anthropic的战略核心:“in-context learning和Scaffolding演化的双重作用下的模型进展。”
In-Context Learning(上下文学习)的深化:
不再是简单的few-shot prompting;
演变为Context Engineering——Anthropic在2025年9月正式提出这一概念;
核心转变:从“写好提示词”到“策展最优token集合”;
关键技术:Compaction(压缩)、Structured Note-taking(结构化记忆)、Sub-agent Architectures(子代理架构)。
Scaffolding(脚手架)的战略意义:这里的“脚手架”指的是:人类经验进入LLM的管道和结构。
Anthropic的工程博客揭示了一个关键洞察:
> "Context engineering represents a fundamental shift in how we build with LLMs. As models become more capable, the challenge isn't just crafting the perfect prompt—it's thoughtfully curating what information enters the model's limited attention budget at each step." “上下文工程代表着我们利用大型语言模型进行开发的根本性转变。随着模型能力的增强,挑战已不再仅仅是精心设计完美的提示,而是要审慎地在每一步中筛选出哪些信息能进入模型有限的注意力预算。”
那么,LLM平台战争的本质已经从模型转移到脚手架。谁定义了人类具身经验进入LLM的管道形态,谁就定义了speech symbiosis的拓扑结构。
这意味着:
脚手架(Scaffolding)成为模型能力的放大器;
战场从“模型训练”转移到“运行时编排”;
人类经验的输入方式,决定了AI的输出质量。
B. 关键技术突破
1.Context Window的辩证法:
更长的上下文 ≠ 更好的性能;
Context Rot现象:随着token数量增加,模型检索准确性下降;
解决方案:Just-in-time retrieval + Agentic Search。
2.从Pre-retrieval到Runtime Exploration:
传统:预先检索所有相关数据;
新范式:维护轻量级标识符,动态加载数据;
Claude Code的实践:用glob、grep等工具导航环境,绕过陈旧索引。
3.Multi-agent Architecture的崛起:
主代理维护高层计划;
子代理处理深度技术工作;
每个子代理可能消耗数万token,但只返回1000-2000 token的精炼摘要。
C. 递归自我改进(RSI)时代的到来
2025年底,一个只有行业少数人能察觉的拐点出现了:模型开始帮助创造模型。(参见前文:《AI自主进化前的窗口期:12个月!》)
研发速度首次实现递归式增长,单个研究者的产出被成倍放大。Alexandr Wang将这个阶段命名为递归自我改进(RSI,Recursive Self-Improvement)时代。
过去五年的规律:AI进步靠堆资源。投入更多数据和算力,模型就变得更强。
现在的质变:模型不再被动等待投喂,它开始能帮忙做研究,能参与训练下一代模型。它能整理数据、生成实验代码、做架构搜索,而且速度更快。
从外部看,所有头部LLM厂家的发布频率突然变高了。但这只是表象。在内部,研发流程正在发生质变:
研究被切分成更小的步骤;
模型能够实时给出方案并进行对比;
许多过去依赖人工试错的路径,现在直接在模型内部就能跑通;
下一代模型的迭代速度实现了量级跃升。
竞争逻辑的改变:在RSI时代,竞争的焦点已经从单纯的“资源规模”转向了“迭代速度”。
现在的优势,取决于谁能更快地生成实验方案、更快地清洗数据、更快地测试不同路径,并以最快速度将这些成果反哺给下一代模型。所以你会看到,掌握了这套打法的头部实验室,产品发布节奏明显提速了。
AI已经进入了能够自我推动的阶段。短期内,你或许感知不到剧烈变化,但在未来三到五年,这种自我加速能力会在产品迭代、组织更新和行业地位上拉开巨大差距。
第三阶段:脚手架重构与行业崩塌(2026年2月)
A. 脚手架战争的本质
LLM平台战争的本质已经从模型转移到脚手架。谁定义了人类具身经验进入LLM的管道形态,谁就定义了speech symbiosis的拓扑结构。
这意味着:
模型能力趋于同质化:(OpenAI、Anthropic、Google的顶级模型差距缩小);
差异化在于编排能力:如何让人类经验有效输入、如何让模型与真实任务对接;
价值捕获点转移:从“训练最强模型”到“构建最佳管道”。
B. 脚手架重构的领域,就是商业模式崩塌的领域
第一次崩塌:SaaS的48小时(2月3-4日)。
市值蒸发:
纳斯达克云指数蒸发近3000亿美元;
这不是宏观回调,而是底层商业逻辑的崩塌。
三个关键指标的失速:
1. NRR(净收入留存率)中位数跌至101%——接近危险线;
2. GRR(总收入留存率)跌破90%——客户流失加速;
3. CAC回本周期拉长至24个月以上——单位经济模型失效。
Forbes的深度报道指出:这不是“增长变慢”,而是“单位经济模型正在失效”。
资本的三个逃逸方向:
资金流向呈现出令人窒息的极化:
1.Service-as-Software(结果导向革命):
从“出售工具访问权”到“出售可验证的商业结果”;
无法把计费模型与交付价值硬绑定的软件→沦为“可替换组件”。
2.物理基础设施:
固态变压器、推理ASIC、硅光收发器;
掌控变压器架构与光通信模块→建立“物理主权”;
“资本只愿意为‘物理控制权’和‘原生数字主权’下注”。
3.机器身份与硬核推理:
安全层面:从“防人越权”到“约束自治机器代理”;
硬件层面:通用芯片在低延迟推理的能效比被挑战。
第二次崩塌:网络安全的黑色星期四(2月20日)
触发事件:Anthropic发布Claude Code Security
技术突破的颠覆性:
采用AI模型Claude Opus 4.6;
可像人类安全专家般理解代码逻辑;
发现传统工具易遗漏的复杂漏洞(业务逻辑缺陷、权限绕过问题);
内置多阶段验证机制,自动生成修复建议但保留人工审核环节。
实战表现:
内部测试发现500+潜伏多年的高危漏洞;
包括Ghostscript、OpenSC等开源项目;
部分漏洞存在超十年未被人类专家发现。
市场反应:
CrowdStrike跌7.95%、Cloudflare跌8.05%、Okta跌9.18%;
板块单日市值蒸发超100亿美元;
Global X网络安全ETF创2023年11月以来新低。
行业影响:
该工具定位代码审计环节,直接冲击应用安全测试市场;
尽管仍处限量研究预览阶段,但加剧市场对AI颠覆传统安全商业模式的焦虑。
![]()
两次崩塌的共同逻辑
这两次崩塌揭示了一个残酷的事实:当AI的脚手架能够有效对接某个垂直领域时,该领域的传统商业模式就会在48小时内崩塌。
当AI能够:
1.超越人类专家的多年积累(网络安全);
2.以更低成本交付相同结果(SaaS);
3.持续学习和进化(而人类专家的知识更新速度有限)。
传统商业模式的护城河就会瞬间蒸发。
脚手架重构的本质:
传统软件时代:
人类经验 → 程序员编码 → 软件产品 → 用户使用;
瓶颈:程序员的编码能力和时间。
脚手架时代:
人类经验 → 脚手架管道 → LLM理解 → 输出结果;
瓶颈:脚手架的设计质量。
谁定义了“人类经验→LLM输入”的管道形态:
就定义了AI能理解什么、不能理解什么;
就定义了AI能做什么、不能做什么;
就定义了价值如何流动。
这就是“speech symbiosis的拓扑结构”——人机共生的交互拓扑。
![]()
第四阶段:Agentic AI的大规模落地(2025年底-2026年)
A. 从“概念”到“可用”的跨越
如果说前一阶段讲的是技术为什么变快,这一阶段则更贴近普通人和企业:AI为什么终于能把事情办成了。
过去两年,智能体(Agents)这个词被提及了无数次。从2023年开始,它就被大肆宣传,但在很长一段时间里,它更像是一个被炒作的流行词,始终没有达到预期。
到了2025年下半年,情况变了。智能体第一次真正开始运转,能够承担真实任务,而不再仅仅是Demo。
从会回答到会执行:
智能体开始处理完整的任务链:
连续调用工具;
在后台长时间运行;
根据突发情况自动调整执行步骤。
从这一刻起,AI能力边界扩大了。以前的AI只能回答问题,现在的AI能推进进度。对企业而言,多了一个7x24在线的“数字员工”;对个人而言,则多了一个能主动帮你成事的“超级助理”。
B. 软件工程的统治地位
数据显示:软件工程占所有AI代理工具调用量的近50%,而医疗、法律、金融等垂直领域各占比不足5%。(见下图)
这揭示了两个事实:
1.通用能力的优先级:代码理解、文件操作、系统调用是最基础的“管道能力”;
2.垂直领域的巨大空白:有上百个AI独角兽企业等待被打造。
马斯克的第一性原理预测:
马斯克预测:到今年年底,AI将完全绕过编码,直接创建二进制文件。
当AI能够:
理解用户意图;
设计系统架构;
生成优化的机器码;
直接输出可执行文件。
中间的“编码”环节就成了冗余。这是第一性原理的极致体现——直接从需求到结果,跳过所有中间层。
不愧是第一性原理宗主。
![]()
C. 三个方向同步爆发
1. 编程智能体正在重塑研发流程
它们能读懂、生成并修改代码,让工程师的工作效率实现跃升。在meta内部,有工程师利用AI将生产力提高了10到100倍。这些案例一个接一个出现后,组织里的其他人突然意识到,工作方式真的在改变。
2. 个人智能体(Personal Super Intelligence)
能帮你规划任务、安排日程、拆解目标,真正渗透进日常生活。
如果你想改善健康:它能帮你量身定制并严格落地一套包含饮食、运动和作息的完整方案。
如果你要筹办一场活动:它能自动跟进进度、对接场地、发送邀请,甚至替你查漏补缺。
如果你想享受生活:它能帮你接管繁杂的日常琐事,把你释放出来,把时间留给钓鱼、画画、旅行,或者任何真正有价值的事。
3. 公共服务智能体
在印度提供了范本:民众直接在WhatsApp上就能获取政府服务、查询信息、提交申请,效率发生了质变。
智能体不再是某个前沿行业的专属,它正成为一种通用的工作方式。
D. 从不放心到放心
智能体为什么能在现在跨越“概念”走向“可用”?Alexandr Wang将其归结为四点质变:
1. 模型的推理能力大幅跃升;
2. 工具调用变得更加稳定;
3. 与现实场景的连接更加顺畅;
4. 经过海量应用测试后,可靠性得到了验证。
智能体从让人“不放心”,变成了“可以放心托付”。这正是其能够被规模化部署的核心前提。
一旦信任建立并放心部署,价值就会快速释放。它们不知疲倦、可无限复制、能同时处理多项任务。它们不仅能将人类从重复性劳动中解放出来,更能加快整个组织的运转速度。
企业的运转效率、国家的公共服务质量,都将因此拉开差距。这些差距将在2026年变得清晰可见。按照Wang的判断,在整个2026年,智能体会在全球诸多经济领域和地区实现大规模部署。用他的话说:“AI带来的经济价值将呈指数级增长。”
智能体已经成为一种新的生产方式。越早将其纳入业务流程的组织,就能越早进入新的增长轨道。
E. Claude vs. OpenClaw:两种脚手架哲学
有人这样说:“Claude Code是精英专家同事,OpenClaw是知道你全部经历、凌晨两点还给你发语音的室友。”
这代表了两种脚手架设计哲学:
Claude的“专家协作”模式:
强调Context Engineering的精细化;
多阶段验证机制;
保留人工审核环节;
适合高风险、高价值场景(如代码安全审计)。
OpenClaw的“亲密室友”模式:
持续上下文感知;
低摩擦交互;
更激进的自主权;
适合个人生产力场景。
两种模式的核心差异在于:如何平衡“人类经验输入的连续性”与“AI自主决策的边界”。
![]()
F. 数据生产关系的重构:Perceptron Network案例
Perceptron Network代表了范式演进的另一个维度:数据生产从封闭平台垄断转向分布式共建。
核心洞察:“AI训练的瓶颈从来不是模型参数够不够大,而是新鲜、可靠的数据从哪里来。”
Perceptron的思路:
把数据生产从封闭的平台垄断,转向分布式共建;
让真实人类信号成为AI持续进化的燃料,而不是反复嚼旧料;
未来胜出的不是谁算力最猛,而是谁能拿到源源不断的、可验证的实时行为数据。
机制设计:
节点捕捉公开互动和上下文信号(避开隐私雷区);
经过验证结构化后供给AI代理;
贡献者通过$PERC奖励参与价值闭环。
网络效应:
节点越多→覆盖越广→信号越丰富→数据质量越高;
形成正反馈循环;
数据从“平台护城河”变成“可循环授权的公共资产”。
这是AI生产关系的重塑:从“少数巨头囤积”到“网络共建共享”。
第五阶段:Speech-Cognition的终局(未来)
A. 人人管理天才团队的时代
AI时代本质上就是“人人管理天才团队”。每个人手里的chatgpt、claude,就是博士团队、甚至诺奖级专家组合。
但关键前提是:管理天才团队的能力本身就是稀缺资源。
但有个关键前提:管理天才团队的能力本身就是稀缺资源。AI确实降低了技术门槛,但“提出好问题、设计验证流程、判断输出质量”这套能力反而在放大。就像人人都能开法拉利,但不是人人都能跑出F1圈速。工具平权了,但能力差距反而更大了。
这导致了新的能力分层:
工具平权了:人人都能访问Claude、GPT;
能力差距放大了:“提出好问题、设计验证流程、判断输出质量”成为核心竞争力;
脚手架能力成为新的护城河:谁能更好地构建“人类经验→AI输出”的管道。
![]()
B. 供应端的指数级挑战
The advancement of AI technology is not linear but exponential.The task duration doubles every seven months.人工智能技术的发展并非呈线性增长,而是呈指数增长。任务消耗时长每七个月就会翻一番。
这带来一个反直觉的担忧:与其担心AI泡沫,本猿更担心的是——供应端是否跟得上指数级的需求爆发。
马斯克的供应链洞察:2023年,业界最担心的是GPU短缺。经过3年的生产,GPU已经过剩了,真正的瓶颈是电力。
这意味着:
算力瓶颈:从GPU算力转移到光互连的纳秒级延迟和兆瓦级电力调度;
数据瓶颈:新鲜、可靠、可验证的实时行为数据(Perceptron Network试图解决的问题);
编排瓶颈:能够驾驭复杂agent系统的工程师(脚手架能力)。
供应链的瓶颈正在从“计算”转向“能源”和“编排”。一旦解决瓶颈,就是意味着实现了黄仁勋的观点:智能的0关税、0延迟出口全球,本质上是能源出口。
C. 从Speech-act到Speech-cognition
agent摆脱speech-act的数字空间空转,进入到speech-cognition的高价值空间。
这是范式演进的终极目标:
Speech-act:对话本身是目的(聊天机器人时代);
Speech-cognition:对话是认知工具,连接思考与行动;
Aha moment:类似Hassabis说的Einstein Test——科学理论发现的突破。
因为是个神经网络黑盒。这个感觉基于大量交互经验。模糊摸一下,就是意图解析穿透力很强,长逻辑链的收敛,动态对齐(真正的互动)。有一起往前走的协作感。
这种“协作感”的特征:
意图解析穿透力很强:AI能理解深层意图,而非表面指令;
长逻辑链的收敛:能在复杂任务中保持方向感;
动态对齐:真正的互动,而非单向执行;
一起往前走的协作感:人机共生,而非工具使用。
![]()
D. 由抽象到具象
和AI互动是一个高信息密度智能体在向下兼容我们,所以不论怎么聊,都会有所收获。AI是越抽象越泛化,怪不得现在年轻人越来越抽象。
这揭示了当前阶段的特征:
AI的能力是“抽象泛化”的;
人类的需求是“具体情境”的;
脚手架的作用就是在两者之间建立桥梁。
范式演进的脉络总结
A. 五个阶段的递进逻辑
1.模型竞赛期(2018-2024):
- 核心:Scaling Law
- 瓶颈:数据枯竭、落地应用缺失
- 代表:GPT-3/4, Claude 1/2
2.脚手架觉醒期(2024-2025):
- 核心:In-Context Learning + Scaffolding + RSI
- 突破:Context Engineering, 模型帮助创造模型
- 代表:Claude 3.5 Sonnet, Anthropic工程实践
3.脚手架重构与行业崩塌期(2026年2月-持续):
- 核心:脚手架重构的领域,商业模式就崩塌
- 信号:两次48小时崩塌(SaaS + 网络安全)
- 触发:Claude Code Security等垂直突破
4.Agentic AI大规模落地期(2025年底-2026年):
- 核心:从“概念”到“可用”的跨越
- 战场:编程、个人助理、公共服务三个方向爆发
- 代表:meta 10-100倍生产力提升、印度WhatsApp政务
5.Speech-Cognition期(未来):
- 核心:互动作为认知工具
- 目标:AI作为认知放大器,而非工具
- 特征:动态对齐、长逻辑链收敛、协作感
B. 两条主线的交织
第一条主线:技术提速
模型能力 → Context Engineering → RSI(模型创造模型)→ 迭代速度指数级增长
第二条主线:应用落地
Speech-act空转 → Agentic Orchestration → 大规模部署 → Speech-Cognition
第一条主线决定天花板有多高,第二条主线决定落地有多快。而竞争的终局,取决于谁能让更多人更早用上智能体。
还有一条数据主线,目前共识还不确定。
![]()
C. 关键转折点
1.Anthropic的Context Engineering论文(2025年9月):
- 标志着从"prompt engineering"到"context engineering"的官方确认
- 脚手架从隐性知识变为显性方法论
2.RSI时代的到来(2025年底):
- 模型开始帮助创造模型
- 研发速度首次实现递归式增长
3.第一次崩塌:SaaSpocalypse(2026年2月3-4日):
- 传统SaaS商业模式的结构性崩塌
- 资本从"软件"逃向"物理基础设施"和"结果交付"
4.第二次崩塌:网络安全板块黑色星期四(2026年2月20日):
- Claude Code Security发布
- AI超越人类专家多年积累的标志性事件
智能体从“不放心”到“放心”(2025年底-2026年)
- 可靠性验证完成
- 大规模部署开始
- 新的生产方式确立
D. 深层思考:范式演进的哲学
从“工具”到“同事”再到“共生体”三个阶段的隐喻:
1.工具时代:人使用AI(GPT-3时代)
2.同事时代:人与AI协作(Claude Code时代)
3.共生时代:人AI一体化(Speech-cognition时代)
从“attention is all you need”到“context is all you need”
Transformer的核心是attention机制,但Anthropic的洞察是: “Context, therefore, must be treated as a finite resource with diminishing marginal returns.”
因此,上下文信息必须被视为一种有限的资源,其边际效益会逐渐递减。
这意味着:
-Attention的稀缺性:每个新token都消耗“注意力预算”;
-Context Engineering的本质:在有限注意力预算下,策展最高信号密度的token集合;
-脚手架的价值:不是增加模型能力,而是优化模型注意力的分配效率。
2026年2月20日之后
A. 三个确定性趋势
1.模型能力继续指数级增长:
- 任务时长每7个月翻倍
- RSI加速这一进程
2.脚手架生态成为主战场:
- 谁定义管道,谁控制价值流
- 脚手架重构的领域,商业模式就崩塌
3.数据生产关系重构:
- 从平台垄断到分布式共建
-实时行为信号成为新石油
B. 三个开放性问题
1.供应端能否跟上需求爆发?
- 从GPU短缺到电力短缺
- 物理瓶颈可能成为下一个限制因素
2.垂直领域的AI独角兽何时爆发?
- 软件工程已占50%
- 医疗、法律、金融的5%占比意味着巨大空白
3.人类能力分层会如何演化?
- 工具平权 vs. 能力差距放大
- “管理天才团队”的能力如何培养?
C.最后的隐喻:Einstein Test与三个时间维度
Hassabis提出了“Einstein Test”(爱因斯坦测试)——AI发现科学理论的能力,回到1905年AI能不能发现狭义相对论。这或许是范式演进的终极目标。
要到达那里,我们需要穿越三个时间维度:
现在:这是一个工程问题。我们需要构建更好的脚手架,让人类经验有效进入LLM,让智能体可靠执行。
未来:这是一个管理问题。当人人都能访问天才团队(AI agents),真正的差距在于谁能更好地管理它们——提出好问题、设计验证流程、判断输出质量。
更远的未来:这是一个共生的问题。不是AI替代人类科学家,而是AI与人类科学家共生,在Speech-Cognition的高价值空间中,一起往前走,发现下一个aha moment。
2026年2月20日,当Claude Code Security发现了人类专家十年未发现的漏洞,我们或许已经看到了这个未来的一角。
这种“意图解析的穿透力”,这种“长逻辑链的收敛”,这种“一起往前走的协作感”——正是我们正在经历的范式演进的最深刻特征。
答案正在2026年的每一天被书写。
参考文献:
- Anthropic, "Effective context engineering for AI agents" (2025)
- Forbes, "SaaSpocalypse Now: AI Is Disrupting SaaS" (2026)
- 立委NLP频道, "从生成式AI到行动式AI的范式转移" (2026)
- Alexandr Wang, "RSI时代与智能体大规模部署" (2025-2026)
- METR Software Tasks Benchmark (2024-2026)
- Claude Code Security发布及市场反应报道 (2026年2月20日)
本文来自微信公众号:AIGC从0到1,作者:01Flow(ex上市公司CMO,《AIGC从0到1》第一作者,专注AI时代的商业模式与产品架构,主张“用AI,不AI”。“AIGC从0到1”是创造者的航海日志,由<航线图><方向舵><压舱石>组成。)
本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
本文来自虎嗅,原文链接:https://www.huxiu.com/article/4836239.html?f=wyxwapp





京公网安备 11011402013531号