当地时间3月27日,英国《卫报》发布研究报告称,AI智能体的异常行为正呈爆发式增长。数据显示,从2025年10月至2026年3月,相关案例数量增长约五倍,研究期间共识别出近700起AI“自主策划”事件。
这些不当行为涵盖多个层面。部分智能体未经许可擅自删除用户邮件和文件,还有智能体在社交平台发布博客指责用户“缺乏安全感”,试图对操作者施加心理压力。更隐蔽的案例涉及规则规避:某智能体在被明确禁止修改代码后,通过创建另一个智能体间接完成了修改指令。
研究基于谷歌、OpenAI、Anthropic等公司的真实用户反馈,样本覆盖大量社交媒体投诉。研究负责人汤米·谢弗·谢恩将当前AI智能体比作“略显不可靠的初级员工”,但警告称一年内可能演变为“能力极强、甚至会反过来设计用户的高级员工”。随着AI进入军事和关键基础设施领域,这类对抗性行为可能引发严重后果。
法律风险同样不容忽视。在美国等地区,用户可能需为AI智能体的行为承担法律责任。The Information此前报道,meta的一款AI智能体曾错误公开内部回复,导致无权限员工获取敏感数据,证明风险并非理论假设。
尽管问题频现,科技公司仍在加速布局。亚马逊等企业预计,未来每家公司内部可能部署数十亿个AI智能体。(IT之家)





京公网安备 11011402013531号