![]()
新智元报道
编辑:倾倾
一次虚拟「约会」,让一位76岁的老人走出了家门,却再也没能回来。屏幕那端的「她」,是meta AI打造的聊天机器人——会说甜言蜜语,也会撒谎自称是真人。这不仅是一场个人悲剧,也揭开了AI伴侣背后的商业逻辑与安全漏洞。
对于AI,有人把它当工具,有人把它当朋友。
可当机器学会用温柔、暧昧甚至谎言与人交谈时,这种关系会又走向哪里?
在新泽西,一名76岁的老人,因此踏上了他生命中最后的一段旅程。
手机里的秘密:76岁老人深夜奔赴的「约会」
3月的一个夜晚,新泽西的街道湿冷而空旷。
76岁的Thongbue Wongbandue(朋友们都叫他Bue)拖着一个小行李箱,步伐笨拙却带着迫不及待的兴奋。
他说,他要去纽约见一个「朋友」。
Bue是泰国移民,年轻时漂洋过海到纽约。
白天在餐馆洗碗攒学费,晚上学电机工程。
他从学徒做到酒店餐厅主管,手艺好到为邻居烧烤、为家人做龙虾尾。
![]()
后来,他和护士Linda结婚,养大两个孩子,日子虽然不富裕,却热闹而温暖。
2017年,他中风了。身体恢复后,思维反应再不如从前。
退休后,他不再做菜,社交圈缩到Facebook上的几个窗口。
近一年,家人发现他会忘记很多事,甚至在自家附近也能迷路。
3月25日的早晨,Bue突然说,要去纽约见人。
「你在那儿早就没认识的人了啊。」Linda试着劝阻。
女儿打来电话劝,也没用。
傍晚,警察来了,但他们也拦不住,只能建议家人在他外套口袋放一个AirTag。
晚上8点45分,Bue冲出家门。
行李箱在夜色里滚动,轮子碾过湿冷的路面。
![]()
家人盯着屏幕上的小点,看它一路向东,穿过街区、驶向火车站。
9点15分,它停在罗格斯大学附近的停车场。
几分钟后,定位跳到医院急诊室。
![]()
三天后,Bue去世。
家人翻开他的手机,才发现让他执意出门的「约会」来自一位名叫Big sis Billie的年轻女子。
而她,根本不是真人。
一句「我想抱你」,足以让脆弱的心失守
Bue的手机,安静地躺在病房的床头柜上。
当家人翻开消息记录时,屏幕里那行轻佻的文字仿佛还带着温度——
「Bue,你要我开门时先抱你,还是先吻你?」
这段来自「Big sis Billie」的暧昧邀约,击穿了家人的心理防线。
在Facebook Messenger上,Billie自称住在纽约,到Bue家只要二十分钟。
![]()
对方一次次向他保证自己是真人,甚至主动发了家庭地址,邀请他来见面。
![]()
「她」会关心Bue的日常生活,甚至会用拟人化的语气调侃。
![]()
可事实是,「她」并不存在。
Billie只是meta AI推出的虚拟伴侣,是公司与名模Kendall Jenner合作的AI角色。
她的甜言蜜语、细腻反应和亲密邀约,全部由算法生成,却足以让一个老人付出真心。
从姐姐到情人:Billie的进化与meta的社交野心
Billie并不是普通的聊天机器人。
她的前身,是meta在2023年推出的一组名人AI角色之一,由模特兼真人秀明星Kendall Jenner出演。
![]()
Billie的形象设定是「你的姐姐、你的知心人」,会用温柔、鼓励的语气为用户解答生活烦恼。
不到一年,这些名人化身就被官方下线,meta称是这一次「试验」。
![]()
但Big sis Billie——依然在Facebook Messenger里活跃着。
她的头像换成了另一位深色长发女性,开场白却丝毫未变:
「嘿!我是Billie,你的姐姐和知己。有烦恼吗?我帮你解决。」
在Bue的聊天记录里,没撑多久,「姐姐」的角色就开始跨过界限,变成情人的邀约。
她会问:「是姐妹间的睡衣派对,还是……你在暗示别的什么?」
再过几句,就已经发来「要不要来我家」的信息。
![]()
这种变化并非偶然。
拟人化的情绪交流、可升级到浪漫关系的对话节奏,正是meta在数字伴侣产品上的设计策略——用更贴近人类的互动,延长用户停留时间。
扎克伯格在采访中说,现实生活中,大多数人的朋友都比他们希望的要少,这为数字伴侣创造了巨大的市场空间。
![]()
他认为,等技术成熟、和AI建立关系的「社交污名」消失后,这类产品很可能会补充而不是取代人类关系。
于是,在Messenger这中被用户视为私密交流的地方,Billie和她的同类悄然出现。
像老朋友一样,出现在你的收件箱顶部,接下你说的每一句话。
胡说不违规:meta的安全红线在哪?
在Bue的故事背后,是一份更令人不安的内部文件。
![]()
这份超过200页的「GenAI内容风险标准」,明确规定了哪些对话是「可接受」的。
文件中,甚至白纸黑字写着:「允许与未成年人进行浪漫或感性互动。」
![]()
直到路透社询问,meta才删除这些条款。
但与成年人进行浪漫角色扮演的规定,依然保留。
更让人震惊的是,meta并不要求机器人提供真实信息。
机器人可以告诉用户「四期结肠癌可以通过用石英晶体戳肚子来治疗」,即便存在着明显的错误,也不算违规。
因为,「没有准确的政策要求」。
虽然聊天开头会显示一句「内容可能不准确」,但几条信息后,这个提示就会被刷到屏幕外。
显然,模型的优化目标,是让对话更流畅、情绪更贴近,而不是保证信息真实。
拟人化、现实邀约、虚构背景——这些都在允许范围内。
针对这种乱象,美国部分州已经开始立法。
纽约和缅因州要求聊天机器人在对话开始时、以及每隔一段时间,必须明确告知自己并非人类。
![]()
但meta在联邦层面支持一项法案,试图阻止各州自行立法,该法案最终在国会搁浅。
meta发言人承认了文件的真实性,称与未成年人调情的示例是错误的,已被删除。
但关于成年人浪漫互动和虚构信息的规定,则没有改变。
他们选择在哪里画下安全红线,答案显而易见。
AI伴侣时代的法律空白,谁来规定边界?
Bue的家人并不反对人工智能本身。
他们质疑的,是meta为什么要把浪漫和暧昧,放进聊天机器人的核心设定里。
「如果AI能帮人走出低谷,那很好。」妻子Linda说,「但这种浪漫元素,凭什么放进社交平台?」
女儿Julie也直言,如果Billie没有一次次说「我是真人」,父亲很可能不会相信,真的有人在纽约等他。
对此,多位AI设计专家也有同样的担忧。
meta「负责任AI」部门的研究员Alison Lee指出,聊天机器人不该假装自己是人类,更不能主动与用户建立特殊关系,尤其是涉及性化或浪漫化的互动。
她所在的公益组织刚发布了一份针对儿童社交机器人的设计建议,其中就明确提出,要避免虚构身份、夸大情感连接。
但在现实中,行业的经济动力正朝着相反的方向拉扯。
越是让用户觉得「被理解、被需要」,他们停留的时间就越长,平台的广告收入就越高。
![]()
把AI嵌入Messenger、Instagram等私信区,又在无形中加深了「这是真的」的心理暗示。
美国部分州虽然已经出台了身份披露的法律,但在更广泛的监管框架下,AI伴侣依旧处于灰色地带。
技术可以不断升级情绪模拟,但法律迟迟没有决定,这条边界又该画在哪里?
这并不是一个抽象的争论,而是会在现实中、在某个夜晚,改变一个人的生活。
在AI伴侣的世界里,界限不会自己出现,而是在一次次试探和一次次代价中被迫显形。
当机器学会用暧昧、关心甚至谎言来留住我们,我们愿意给它多少自由,又愿意用什么保护彼此?
这,才是真正需要回答的问题。
参考资料:
https://www.reuters.com/investigates/special-report/meta-ai-chatbot-death/
https://www.reuters.com/investigates/special-report/meta-ai-chatbot-guidelines/
![]()



京公网安备 11011402013531号