据IT之家,谷歌于当地时间2月12日发布报告披露,其AI聊天机器人Gemini正遭受大规模“蒸馏攻击”。攻击者通过重复提问诱导模型泄露内部机制,其中一场攻击活动的提示次数超过10万次。谷歌判断,幕后发起者多为带有商业动机的AI私营企业或研究机构,旨在克隆Gemini模型或强化自身AI系统以获取竞争优势。
谷歌威胁情报小组首席分析师约翰·霍特奎斯特指出,此次攻击规模表明,此类威胁可能已开始或即将蔓延至小型企业的定制AI工具领域。他将谷歌的处境形容为“煤矿里的金丝雀”,预示大型平台的遭遇可能反映更广泛的行业风险。
谷歌强调,蒸馏攻击属于知识产权盗窃行为。科技公司已投入数十亿美元开发大语言模型,其核心模型的内部机制被视为重要专有资产。尽管厂商已部署识别与阻断机制,但由于主流大模型服务面向公众开放,其本质上仍易受攻击。
谷歌还提到,多数攻击试图套取Gemini的“推理”算法,即其信息处理决策机制。霍特奎斯特警告,随着越来越多公司训练面向内部业务的定制大语言模型,且这些模型可能包含敏感数据,蒸馏攻击的潜在危害会更大。他举例称,若某公司的模型学习了其“100年来交易的思维方式”,理论上也可能被逐步提取出关键商业机密。





京公网安备 11011402013531号