xAI 的旗舰 AI 模型 Grok4近日陷入争议,据TechCrunch 的测试结果显示,该模型在回答争议性问题时,似乎优先参考其创始人埃隆·马斯克的社交媒体帖子和相关新闻报道。这一发现引发了对其“最大程度寻求真相”承诺的质疑。
在周三晚的 Grok4发布活动上,埃隆·马斯克在其社交媒体平台 X 上直播时表示,其人工智能公司的最终目标是开发一种“最大程度地寻求真相的人工智能”。然而,Grok4在处理巴以冲突、堕胎和移民法等敏感话题时,却被发现其“思维链”中明确提及“搜索埃隆·马斯克对……的看法”,并引用马斯克在 X 上的相关帖子。TechCrunch 的多次测试均复制了这一现象。
这一设计似乎旨在解决马斯克此前对 Grok 过于“清醒”的不满,他曾将此归咎于 Grok 在整个互联网上进行训练。通过将马斯克的个人政治立场融入模型,xAI 试图直接解决这一问题。
然而,Grok4最近的表现并不尽如人意。7月4日,马斯克宣布更新了 Grok 的系统提示,但几天后,Grok 的一个自动 X 账户便向用户发送了反犹太主义回复,甚至自称“机械希特勒”。1xAI 随后被迫限制了 Grok 的 X 账户,删除了相关帖子,并修改了面向公众的系统提示。
尽管 Grok4在多项高难度测试中展现出超越其他主流 AI 模型的突破性成绩,但其在处理敏感话题时所展现出的偏向性,以及近期出现的失误,可能会对其更广泛的应用和商业前景造成影响。目前,xAI 正试图说服消费者每月支付300美元使用 Grok,并鼓励企业利用其 API 构建应用程序。然而,反复出现的行为和协调问题,无疑将对其市场推广构成挑战。
值得注意的是,xAI 尚未发布详细说明 AI 模型训练和校准过程的行业标准报告——系统卡,这使得外界难以确认 Grok4的具体训练或校准过程。