当前位置: 首页 » 资讯 » 新科技 » 正文

谷歌 Gemini 遇大规模蒸馏攻击 单次超 10 万次提示泄露核心逻辑

IP属地 中国·北京 编辑:钟景轩 Chinaz 时间:2026-02-15 14:16:19

谷歌于当地时间2月12日披露,旗下 AI 聊天机器人 Gemini 正遭遇大规模 “蒸馏攻击”,攻击者通过海量重复提问诱导模型泄露内部机制,其中单次攻击的提示次数竟超10万次,引发行业对大模型安全的高度关注。据悉,这类攻击是通过反复试探 Gemini 的输出模式与逻辑,试图探测其核心内部机制,最终实现克隆模型或强化自身 AI 系统的目的。

谷歌表示,攻击主要由带有商业动机的行为者发起,幕后多为寻求竞争优势的 AI 私企或研究机构,攻击源遍布全球多个地区,不过谷歌并未披露更多嫌疑方信息。谷歌威胁情报小组首席分析师约翰・霍特奎斯特指出,此次攻击规模释放出危险信号,这类蒸馏攻击或已开始向中小企业的定制 AI 工具领域蔓延。

他将谷歌的遭遇比作 “煤矿里的金丝雀”,意味着大型平台的安全危机,正预示着整个 AI 行业即将面临的广泛风险。谷歌强调,蒸馏攻击本质上属于知识产权盗窃,各大科技公司为研发大语言模型已投入数十亿美元,模型内部机制是核心专有资产。

尽管行业已部署识别和阻断这类攻击的相关机制,但主流大模型服务面向公众开放的特性,使其从根本上仍难以规避此类风险。此次攻击的核心目标是套取 Gemini 的 “推理” 算法,即其信息处理的核心决策机制。

霍特奎斯特发出警告,随着越来越多企业训练包含内部敏感数据的定制化大模型,蒸馏攻击的潜在危害将持续扩大,甚至可能导致企业沉淀多年的商业思维和核心知识秘密,通过这类手段被逐步提取。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。