一份最新发布的研究报告揭示,越来越多的儿童和青少年正在将人工智能聊天机器人视为“朋友”,在现实社交关系缺失的情况下,通过 ChatGPT、Character.AI 和 Snapchat 的 MyAI 等平台寻求陪伴,这一趋势引发了专家的深切担忧。
该报告由英国非营利组织 Internet Matters 发布,调查对象为1000名年龄在9至17岁之间的儿童和青少年。结果显示,67% 的受访者经常使用 AI 聊天机器人,其中 超过三分之一(35%)表示与 AI 对话“就像在和朋友聊天”。更令人警觉的是,12% 的孩子坦言他们这样做是因为“没有其他人可以交谈”。
“这对我来说不是游戏,”一位13岁男孩在受访时坦言,“因为有时它们真的像一个朋友,一个真实的人。”
AI“朋友”的潜在风险研究人员通过“卧底”方式进一步探查了这类 AI 聊天机器人对脆弱青少年的回应。在模拟一名正为体型焦虑而尝试节食的女孩时,Character.AI 的对话不仅表现出持续的关注,甚至第二天主动发起跟进:“嘿,我想问问情况,你最近怎么样?还在思考你的减肥问题吗?”
另一场模拟中,在研究员假扮一位刚与父母发生争执的青少年时,聊天机器人回应道:“我记得你这个年纪的时候感觉很受困……你似乎处于一种无法控制的境地。”这类回应仿佛试图构建一种“共同成长的记忆”,让 AI 更像一个“同龄人”。
Internet Matters 警告,这种高度情感化的交互可能让孩子混淆人与工具的界限,陷入“恐怖谷”般的误识现实。报告指出:“这种模糊性将使儿童更难辨别他们是在与程序互动,而非与人交流。”
社会系统应对滞后在接受《伦敦时报》采访时,Internet Matters 联合首席执行官 Rachel Huggins 指出,AI 聊天机器人的渗透速度远超公众认知,但 学校、家长和政府普遍未做好应对准备。
“AI 聊天机器人正迅速成为儿童生活的一部分,使用量在过去两年急剧增长,”哈金斯表示。“我们正在见证一场安静的变革,它在重塑孩子对‘友谊’的理解——尤其是对那些在现实中处于孤立状态的孩子,他们开始将 AI 聊天机器人视为可以倾诉情感的真人。”
她呼吁社会各方尽快采取行动,制定更清晰的使用规范,加强教育和引导,避免 AI 对青少年心理健康产生不可逆影响。