当前位置: 首页 » 资讯 » 新科技 » 正文

内部研究揭示Meta嘴脸:为求增长不择手段吸引未成年人

IP属地 中国·北京 编辑:孙雅 IT之家 时间:2025-11-23 16:04:59

IT之家 11 月 23 日消息,根据美国加利福尼亚北区联邦法院最新公开的诉讼文件,meta 被指控长期纵容、对其平台上的未成年人安全风险忽视不见。

原告方提交的简报显示,meta 内部明知数百万陌生成年人通过其平台骚扰未成年人,导致青少年心理健康问题加剧,甚至还有涉及自杀、儿童性剥削的内容却极少删除,该公司系统性隐瞒风险并掩耳盗铃拒绝整改。

Instagram 前安全主管瓦伊什纳维・贾亚库马尔在证词中透露,2020 年入职时 meta 有一项堪称离谱的规定:“涉及性交易或招嫖的账户需违规 16 次,直至第 17 次才会被封禁”,她称这一标准“远超行业任何合理阈值”;原告称该证词获内部文件佐证。

超过 1800 名原告(包括未成年人及其父母、学区及州检察长)在诉讼中指控,meta、Snapchat 和 YouTube 等大型社交媒体平台“不计后果地追求增长,无视产品对儿童身心健康的危害”。

meta 发言人辩称这一指控“断章取义误导公众”,并强调公司十年来持续推出青少年保护功能,如 2024 年推出的“Instagram 青少年账户”默认隐私设置、夜间禁用通知、限制陌生成人私信等功能。

但诉讼简报揭示了多项关键指控,IT之家总结如下:

1. 内容审查机制失效

meta 平台未提供简易的儿童性虐待内容举报通道,却允许用户便捷举报“垃圾信息”“知识产权侵权”等低风险违规。内部政策允许性交易账户违规 16 次而不被封禁,公司却从未向公众披露过此政策。

2. 向国会隐瞒平台危害研究

2019 年 meta 内部研究发现:Facebook 和 Instagram 用户“脱坑”一周后焦虑、抑郁类情况显著缓解,但公司以“受媒体舆论干扰”为由终止研究并隐瞒该结果。2020 年 12 月,meta 在回应国会质询时否认“少女用户增长与抑郁焦虑存在关联”,仅答“否”。

3. 放任陌生人接触未成年人

2019 年研究者建议默认设置青少年账户为隐私状态以防陌生人接触,但增长团队评估此举将导致 Instagram 每年损失 150 万月活青少年用户。

内部员工称:“减少不良互动将引发用户增长危机”。直至 2024 年 meta 才全面推行该设置,此前青少年日均遭遇 540 万次不良互动,平台内部将这类接触简称为“IIC”(不当儿童互动)。

4. 蓄意吸引低龄用户

内部文件显示,2017 年起 meta 将“获取青少年新用户”列为核心目标。2024 年文件仍称“新增青少年用户对 Instagram 至关重要”。公司通过校方合作、定位推送(如课间“校园轰炸”通知)吸引学生。

尽管美国法律禁止 13 岁以下用户注册,但 2015 年 Instagram 仍有 400 万 13 岁以下用户;2018 年调查显示近 40% 的 9-12 岁儿童每日使用 Instagram。员工内部批评该策略如同“烟草公司故意引诱青少年成瘾”。

5. 搁置安全改进措施

2019 年为降低“社交攀比”危害,Instagram 曾测试隐藏点赞功能(项目代号“雏菊”),但因“损害广告收入”而被取消。同年以“加剧身材焦虑”为由禁用美颜滤镜,次年又因“增长受损”重新上线。另外,meta 内部有关 AI 识别有害内容的技术研发亦遭高管叫停。

6. 放任自残内容传播

meta 的 AI 系统即使 100% 确认内容属于饮食失调等未成年人风险内容,也不会自动删除;宣扬自残的内容需达到 94% 违规度才会被删,导致大量有害内容留存。2021 年内部调查中,超 8% 的 13-15 岁用户表示过去一周在 Instagram 目睹自残或自杀威胁。

7. 淡化产品成瘾性研究

2018 年 meta 调查 2 万美国用户,发现 58% 存在“问题性使用”(55% 轻度,3.1% 重度),但公开报告仅提及 3.1% 的重度用户。员工内部邮件称“Instagram 是毒品,我们就是毒贩”,并建议警示公众“产品对大脑的影响”,但未被采纳。

标签: 用户 青少年 内容 平台 账户 公司 风险 美国 公众 建议 产品 功能 证词 员工 学区 媒体 陌生 文件 加利福尼亚 儿童 危害 性交易 社交 行业 课间 政策 垃圾 阈值 嘴脸 美颜 联邦 不择

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新