当前位置: 首页 » 资讯 » 新科技 » 正文

你与AI的聊天,可能在网上公开!隐私泄露风险真的出现了

IP属地 中国·北京 南方都市报 时间:2025-11-17 18:11:56



“我只是请AI帮忙拟份工作通知,没想到它居然把我的要求直接发到了互联网上!”近期,大量用户与ChatGPT之间的对话内容被泄露到谷歌搜索控制台(Google Search Console,简称GSC)。值得注意的是,这已非AI聊天服务首次发生用户信息泄露事件,多起案例表明,随着用户对AI的依赖日益增长,AI聊天服务面临新型隐私泄露威胁。

AI聊天内容被发送给搜索引擎

GSC工具本来用于帮助网站管理员分析其网站的搜索表现,例如用户通过哪些关键词找到网站、来自搜索引擎的点击率等,从而优化网站内容。但今年9月起,陆续有网站管理员在GSC中发现大量异常记录。这些记录并非普通搜索关键词,而是用户与ChatGPT的完整对话,涉及情感咨询、商业信息等隐私内容。例如一名疑似女性用户让ChatGPT分析某些行为,以判断经常调侃她的男生是否对自己有好感;一名疑似办公室经理要求ChatGPT代拟工作通知时,提供了部分商业信息。

背后的原因是什么?正常情况下,AI聊天服务应该先对用户输入内容进行处理,再向外部搜索引擎查询时事信息等资料,以回答用户提问。但有技术团队测试发现,ChatGPT有时会错误地把用户在对话框中输入的原始内容直接作为关键词在搜索引擎上检索,并访问、抓取搜索结果提供的网页,进而导致用户向ChatGPT提供的内容被GSC记录。受此影响,可能有多个在搜索引擎结果中排名靠前的网站通过GSC接收到ChatGPT泄露的用户内容。

ChatGPT开发商——OpenAI发言人承认公司已针对上述问题发现并修复了一个技术故障,该故障“暂时影响了少量搜索查询的路由方式”。至于有多少用户受到影响,OpenAI则拒绝回应。谷歌方面则对此事保持沉默。

已发生多起AI聊天记录泄露事件

值得注意的是,这并非ChatGPT首次发生用户信息泄露事件。今年8月,就曾有用户发现谷歌等搜索引擎上可直接查找到大量用户与ChatGPT之间的对话记录。尽管这些聊天记录没有直接展示用户账号或邮箱,但其中包含具体的个人信息,足以拼凑出对话者的个人生活轨迹。彼时,OpenAI首席信息安全官Dane Stuckey在社交媒体上辩称,这些被曝光聊天记录的用户曾在聊天页面中点击过“分享”按钮,以便“找到有用的对话”;OpenAI已在分享选项框中说明,此聊天可能会出现在搜索引擎结果中。

但面对投诉,OpenAI最终移除了该分享选项,并采取技术措施清除已被搜索引擎记录的用户聊天内容。


ChatGPT曾允许用户分享对话记录并允许搜索引擎索引。

除ChatGPT之外,还有不少AI聊天服务曾被披露存在数据泄露风险。例如2024年末,有技术团队指出meta AI存在安全漏洞,黑客可访问其他用户与AI的对话记录;meta随后表示该漏洞于2025年1月被修复,并称“没有发现(漏洞被)滥用的证据”。meta发言人回应该事件时承认,随着AI技术的快速发展,各大科技公司推出的AI产品日益增多,伴随而来的安全和隐私问题也日益严峻。

又例如今年2月,集成多款AI大模型的聊天机器人平台OmniGPT发生重大数据泄露事件,黑客入侵并公开了超过3400万条用户与AI的对话记录,其中涉及大量办公项目、大学作业、市场分析报告等文件,甚至包括警方证据等敏感内容。AI陪伴应用——Chattee Chat与GiMe Chat则于今年10月被发现严重的服务器安全漏洞,超过4300万条对话被完全暴露在公共互联网,其中包含大量情感倾诉类内容。

新型隐私威胁层出不穷

除了用户疏忽、服务器安全漏洞等问题外,AI聊天服务还面临“意想不到”的新型隐私威胁。例如微软于今年11月披露一项名为“耳语泄露”(Whisper Leak)的隐私漏洞。微软研究团队指出,AI聊天机器人常用的“流式输出”机制:回答不是一次性全部显示,而是像人类说话一样逐字逐句呈现,这个原本为了提升交互自然度的功能,却无意中泄露了用户与AI之间的聊天数据包大小与传输节奏。即使用户与AI之间的聊天数据已经加密,黑客只需观察数据传输的流量和节奏变化,就能“猜”出用户和AI聊天的主题类型,例如金融、政治或个人隐私,且准确率超过98%。

对此,有专家建议,普通用户使用AI聊天服务前应该仔细阅读隐私政策,并注意关闭如对话共享、允许数据用于AI训练等选项;与AI对话时不要透露身份证、银行账号、密码等敏感信息;在情感倾诉等敏感场景中,尽量养成分段提问的习惯,避免一次性提供大量可拼凑个人生活画像的信息。

行业监管方面,中国信息通信研究院泰尔终端实验室信息安全部副主任傅山在出席行业活动时表示,从监管标准制定角度看,由于AI变化发展迅速,且具有千人千面的特性,因此难以用单一标准管理所有场景。建议采用隐私分级的方式进行逐级递增的管理和规范。“为了更好落实标准并保障合规性,需要对AI使用的数据进行分级处理,以便更好地适应政策要求并创造更多的创新空间。”

西安交通大学教授蔺琛皓表示,企业在构建数据安全防护体系时,需要从硬件、系统、开发框架、数据、模型等多个方面入手,甚至还需要采取交互式防御手段,才能保证整个链路式的数据安全。相关部门应尽快拟定初步的标准及相关规定,并跟随AI技术的迭代不断修订。

出品:南都大数据研究院

采写:南都研究员 李伟锋 实习生 王笛

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。