当前位置: 首页 » 资讯 » 新科技 » 正文

警惕“裸奔”的开源AI:研究称脱离监管或成黑客劫持温床

IP属地 中国·北京 编辑:冯璃月 Chinaz 时间:2026-01-30 16:43:30

近日,网络安全公司 SentinelOne 与 Censys 联合发布的一项深度研究揭示了开源大语言模型面临的严峻安全挑战。 研究指出,当这些模型脱离主流托管平台的“护栏”与安全限制,在外部私有计算机上独立运行时,极易沦为黑客与犯罪分子的攻击目标,产生严重的安全风险。

这项耗时近 300 天的研究发现,目前互联网上存在数千个缺乏保护的开源 AI 运行实例,其中包含大量基于 meta 的 Llama 和谷歌的 Gemma 等主流模型开发的衍生版本。 尽管部分开源模型原生自带安全防线,但研究人员仍发现了数百起安全护栏被恶意移除的情况。

安全专家将这一现象形容为行业视野外的“冰山”:开源算力在支持合法用途的同时,正被明显用于犯罪活动。 攻击者可以通过劫持这些运行实例,强制模型生成大量垃圾信息、编写精准的钓鱼邮件,甚至发动大规模的虚假信息宣传。

研究团队重点分析了通过 Ollama 工具部署的开源实例。 令人担忧的是,在约 25% 的观察对象中,黑客可以直接读取模型的“系统提示词”——即决定模型行为的核心底层指令。 进一步分析显示,其中 7.5% 的指令已被修改,旨在为有害行为提供技术支持。

这种风险场景波及范围极广,包括但不限于仇恨言论传播、暴力内容生成、个人隐私数据窃取、金融诈骗,甚至是涉及儿童安全的内容。 由于这些模型绕开了大型平台的监控机制,传统的安全防护手段往往难以奏效。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新