4月1日消息,继上周第三方CMS配置错误导致近3000份内部文件泄露后,人工智能公司Anthropic在2026年3月31日再次陷入安全风波。此次,其备受开发者欢迎的AI编程工具Claude Code因一次构建打包失误,完整的Typescript源代码被公开暴露,引发业界广泛关注。
据调查,本次事件并非黑客攻击或系统入侵,而是一起典型的人为发布失误。Anthropic在向npm仓库发布Claude Code包时,意外将一个用于调试的source map文件(`cli.js.map`,大小约60MB)打包了进去。
Source map文件的作用是将生产环境中经过压缩混淆的代码映射回开发者编写的原始源码。这意味着,任何下载该npm包的开发者或安全研究人员,都可以直接通过这一文件还原出Claude Code的完整代码库。
51万行代码曝光核心架构和尚未发布的新功能
此次泄露的代码规模远超外界预期。安全研究人员及开发者社区披露,泄露内容包含:超过1,900个源文件,累计51.2万行Typescript代码;一个长达4.6万行的`QueryEngine.ts`文件,承担了与AI模型交互的全部核心逻辑;约40个独立模块,涵盖文件读写、系统命令执行等AI编程助手的底层能力;一套严格的六级权限验证系统,用于精细控制AI对用户环境的每一次操作权限等。
在分析泄露代码的过程中,开发者社区还发现了一批尚未对外发布的新功能与趣味彩蛋。
包括,一个可在后台持续运行的“守护进程”,能够在用户空闲时自动进行记忆整合与学习,让AI助手实现真正的“永不掉线”体验。
代码中完整嵌入了基于ASCII字符的宠物养成系统,包含鸭子、龙等18种物种,每种均有稀有度设定(传说级概率仅1%)及闪光变种版本。外界普遍猜测,这很可能是原计划于4月1日愚人节上线的趣味彩蛋。
Ultraplan(深度规划),一项可将复杂任务上传至云端的功能,由更强的模型(如Opus 4.6)进行最长30分钟的深度思考,再返回本地执行。
Undercover Mode(卧底模式),旨在当Anthropic员工向开源项目提交代码时,自动抹除AI生成的痕迹,防止内部信息泄露。
一周内两次安全事故
目前,Anthropic已对外证实此次泄露事件,并发布声明强调:这是一次人为失误导致的发布打包问题,而非系统遭入侵引发的安全事件。敏感的客户数据、用户凭证以及AI模型权重均未泄露,用户无需担心自身使用安全。公司正在出台并强化内部发布流程与检查机制,以防止此类失误再次发生。
值得关注的是,这已是Anthropic在短短一周内遭遇的第二起重大安全事件。3月26日,公司刚刚因第三方CMS配置错误泄露了近3000份内部文件,其中包含未发布模型“Claude Mythos”的相关细节。
连续两次因“配置失误”导致的核心信息泄露,使得外界对Anthropic的内部安全流程与发布规范提出质疑。尽管公司强调模型权重和用户数据未受影响,但核心代码库的完全暴露,仍然构成了知识产权层面的重大损失。
截至目前,Anthropic已从npm撤下包含source map的问题版本,并启动内部审计。





京公网安备 11011402013531号