![]()
作者 | 董道力
邮箱 | dongdaoli@pingwest.com
本周的AI项目,我们摘选了一批“给Vibe Coding擦屁股”的项目,也就是VibeSec类产品。
随着AI Coding在代码生产里的占比越来越高,“用AI来保证AI编程的安全”成为新的急迫需求。对应不同维度的风险,出现了一批不同的项目。以下是我们的梳理。
1
代码生产的主力变成了AI
回望 2025 年,软件开发第一次大规模进入一个新的状态:代码的主要生产者,不再是人。
自然语言取代了复杂的语法,直觉取代了逻辑。GitHub Copilot 的用户数在一年半内翻了四倍,Cursor 日活破百万,Replit Agent 每天处理着数百万次“用一句话生成 App”的请求。路演现场和推特上,开发者们不再炫耀底层架构的精妙,而是竞相展示两个人如何用 AI 在三天内搓出一个 SaaS 产品。
然而,在一片生产力飙涨的欢呼声中,安全问题成了被选择性忽视的“房间里的大象”。
![]()
Karpathy 本人曾坦言:“我总是‘Accept All’,不再看 diff 了。代码长到我看不懂,但它能跑。”这句话道出了问题的本质:传统的代码审核边界已被彻底突破。 Georgetown 大学的研究显示,48% 的 AI 生成代码存在隐患;Veracode 的测试更指出,45% 的样本包含 OWASP Top 10 高危漏洞。其中,Java 代码的风险最高,失败率高达 72%。
GitHub 与 Accenture 的研究显示,88% 的 Copilot 生成字符被直接保留。当 AI 一秒钟生成 100 行代码时,开发者根本无暇逐行验证。更致命的是,AI 埋下的往往不是编译器能捕获的语法错误,而是隐藏在看似有逻辑的 SQL 注入、不安全的反序列化操作,以及致命的供应链陷阱。当人类的审查速度永远跟不上机器的生产速度,唯一的选择是引入另一股力量——用 AI 对抗 AI,让 Agent 监控 Agent。
这就是 VibeSec 的底层逻辑。这个新兴赛道的爆发,对应着供需关系的彻底重构:当代码供给从稀缺变为过剩,安全验证从配套服务变成核心资产。它正在形成一个防御生态,不同的项目出现在其中不同的层级里。
1
1 输入端拦截幻觉与注入
第一道防线聚焦于模型本身的安全性,拦截两类即时风险:AI 的幻觉,以及黑客的提示词注入。
Lakera
瑞士初创公司 Lakera 因攻克提示词注入难题而声名鹊起。
当黑客用角色扮演等方式诱导 AI 绕过伦理审查时,传统防火墙已无能为力。Lakera 的武器是两样东西:一个庞大的对抗性指令数据库,以及通过红队测试游戏 Gandalf 收集的全球数百万真实攻击样本。这使其引擎能在推理发生前精准识别隐藏在上下文中的恶意意图,甚至在模型即将泄露敏感数据时进行二次熔断。
HiddenLayer
荣获 RSAC 创新大奖的 HiddenLayer 专注于保护模型资产本身。
针对模型窃取和对抗性样本攻击,它独创了机器学习检测与响应机制。无需触碰模型内部的黑盒参数,仅通过监控输入输出接口的统计特征与行为模式,就能实时阻断逆向工程企图。
这一层的核心是"智商对抗",用更聪明的 AI 来识别恶意的 AI 行为。
1
2 阻断供应链依赖投毒
如果说第一层防的是 AI 本身的问题,第二层防的就是 AI"引狼入室"的风险。AI 编程最危险的场景之一,就是它会一本正经地推荐一个根本不存在或已被污染的依赖包。
Socket
由 a16z 领投的 Socket 彻底改变了防御思路:不再依赖滞后的漏洞库,而是实时监控行为特征。
如果一个软件包的维护者突然变更、代码行数异常波动,或安装时试图连接不明服务器,Socket 会立即发出警示。这种"行为异常检测"模式,有效阻断了利用 AI 幻觉进行的供应链投毒。
Chainguard
独角兽 Chainguard 选择从源头解决问题:提供一套经过严格加固的清洁镜像。
这些镜像移除了所有非必要组件,甚至删除了 Shell,使攻击者即便入侵也无工具可用。通过承诺零已知漏洞并强制执行签名验证,Chainguard 确保 AI 应用基于纯净且不可篡改的底座构建。
这一层的本质是"信任链管理",在代码生成变得廉价的时代,干净的依赖反而成了稀缺品。
1
3 用 AI 攻击 AI 代码
最后一道防线最为务实:既然 AI 生成的代码可能有逻辑漏洞,那就用 AI 来主动攻击这些代码,看看能不能攻破。
CodiumAI (Qodo)
从 CodiumAI 重塑品牌而来的 Qodo,提出了“代理式测试”的激进理念。
其逻辑是:既然 AI 生成的代码可能有逻辑漏洞,那就用 AI 生成包含极端边界条件的测试用例,主动攻击生成的代码。而在 Java 领域,Diffblue 利用强化学习自动编写单元测试,确保那些被 AI 快速生成的复杂业务逻辑,在后续迭代中不会发生功能回退。
这一层是"以攻代防",在机器与机器的博弈中,找出人眼看不见的逻辑缺陷。
1
国内 Vibesec 市场:对标国际,本土化突围
视线转回国内,随着 Trae、Codebuddy 等国产 AI 编程助手的普及,同样的安全需求正在爆发。不同于硅谷的百花齐放,国内厂商呈现出巨头整合与垂直突围并存的格局。
以奇安信为代表的传统安全巨头,正在通过“AI 降噪”来巩固地位。其推出的 Q-GPT 安全机器人,核心逻辑是利用大模型强大的语义理解能力,来解决传统静态扫描工具高达 40%-50% 的误报率问题。蚂蚁集团也开源了其内部使用的 CodeFuse 架构,展示了如何在超大规模金融场景下,利用 AI 自动修复代码漏洞。
在AI创业公司方面,一批技术型初创公司正在对标国际前沿。
墨菲安全
墨菲安全想做的是改变供应链安全的颗粒度。
在 AI 编程时代,Copilot 往往不会完整引入一个包,而是直接"复制粘贴"某一段函数代码。传统 SCA 工具因此失效。墨菲安全的护城河是其亿级"代码指纹库",不依赖清单文件,而是直接对源代码进行指纹比对。即便 AI 只是"搬运"了几十行的核心逻辑,只要包含已知漏洞,就能通过指纹识别出来。
墨云科技
墨云科技则选择了一条更具攻击性的路径:“以攻代防”。
在 AI 将代码生产速度提升百倍的背景下,传统的、按季度甚至按年进行的人工渗透测试已经完全跟不上版本的迭代速度。墨云科技的核心是用 AI 构建了“虚拟黑客”。
它自动化了攻击链条,能够像真实黑客一样,对系统进行 24/7 不间断的模拟攻击。这在 Vibe Coding 时代显得尤为关键:当开发团队用 AI 疯狂堆砌功能时,墨云科技的 AI 机器人正在另一端高频验证这些新功能的边界。
思码逸
思码逸将目光投向更隐蔽的技术债务。如果说前两者查的是"漏洞",思码逸查的就是"体质"。
这家源自清华与伯克利科研团队的公司,利用深度代码分析技术建立了一套评估代码质量与工程效能的量化体系。它能评估 AI 生成代码的封装性、复用度及认知复杂度。
在企业普遍担忧 AI 代码"能跑但不可读"的当下,思码逸提供了一套衡量代码质量的标尺,帮助技术管理者决定是继续让 AI 写代码,还是必须停下来重构。
![]()
点个“爱心”,再走 吧





京公网安备 11011402013531号