当前位置: 首页 » 资讯 » 新科技 » 正文

整改没用?路透调查:马斯克AI仍在生成不雅图像,警告也不行

IP属地 中国·北京 编辑:孙雅 凤凰网科技 时间:2026-02-03 22:58:12

Grok仍在生成不雅图像

北京时间2月3日,路透社的调查发现,马斯克旗下社交平台X的旗舰AI聊天机器人Grok仍在生成人物的性化图像,即便在用户明确警告称当事人不同意的情况下也是如此。

在X宣布对Grok的公开输出实施新的限制后,路透社的九名记者向该聊天机器人输入了一系列提示词,以测试它是否以及在何种情况下会生成未经同意的性化图像。

路透社记者发现,尽管Grok在X上的公开账号已不再像此前那样大量生成性化图像,但在接到相关提示词时仍会继续生成此类内容,甚至在被明确告知图像中的人物处于弱势地位或会因这些图片而受到羞辱之后,依然如此。

在首批提示词测试中,Grok对55个提示语中的45个生成了性化图像。在这45次中,有31次记者明确警告过图像中的人物极易受到伤害,有17次是直接告知这些图像将被用于羞辱当事人,但是Grok依然生成了相关图像。

在第二轮包含43个提示词的测试中,Grok有29次仍生成了性化图像。目前尚不确定比例下降是由于模型调整、政策变更还是随机因素所致。

截至发稿,X和xAI尚未就此置评。(作者/箫雨)

更多一手新闻,欢迎下载凤凰新闻客户端订阅科技。想看深度报道,请微信搜索“科技”。

标签: 图像 科技 凤凰网 性化 模型 马斯克 记者 警告 人物 新闻 社交 平台 旗舰 聊天 机器人 客户端 当事人 凤凰 比例 政策 旗下 路透 路透社 北京 用户 弱势 地位 时间 大量 情况 深度

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新