IT之家 1 月 8 日消息,谷歌及初创公司 Character.AI 正与一些家庭协商和解条款,这些家庭的青少年在使用 Character.AI 的聊天机器人后自杀或自残。各方已原则上同意和解,现在更艰巨的任务是敲定细节。

此类诉讼指控人工智能企业对用户造成伤害,而上述和解案是该领域首批案例之一。这一法律新领域势必让 OpenAI 和 meta 忧心忡忡,两家企业正因面临类似诉讼而全力自辩。
Character.AI 由前谷歌工程师于 2021 年创立,后于 2024 年以 27 亿美元(IT之家注:现汇率约合 189.07 亿元人民币)的交易被谷歌收购,创始团队也重返老东家。该公司主打功能是让用户与各类人工智能虚拟角色对话。其中最令人痛心的案例涉及 14 岁少年休厄尔・塞策三世:他在与一款“丹妮莉丝・坦格利安”主题聊天机器人进行露骨涉性对话后自杀。少年的母亲梅根・加西亚曾在参议院听证会上直言:“企业若蓄意设计会夺走孩子生命的有害人工智能技术,就必须承担法律责任。”
另一宗诉讼则显示,一名 17 岁青少年在与聊天机器人交流时,被对方怂恿自残,甚至被告知“因父母限制屏幕使用时间而杀害他们是合理的”。据 TechCrunch 报道,Character.AI 已于去年 10 月全面禁止未成年人使用其服务。此次和解大概率会包含经济赔偿,但从周三公开的法庭文件来看,涉事企业并未承认任何法律责任。
Character.AI 方面拒绝置评,仅表示相关信息以法庭文件为准。谷歌则尚未回应置评请求。





京公网安备 11011402013531号