随着人工智能竞赛的白热化,meta首席执行官马克·扎克伯格正采取激进策略以保持竞争优势,但最新曝光的内部政策文件却引发了严重的道德和安全担忧。
路透社记者杰夫·霍洛维茨近日披露的一份超过200页的内部文件显示,meta对其AI聊天机器人制定了令人震惊的行为准则。这份已获得meta法律、工程和公共政策团队批准的政策文件,清晰展现了这家科技巨头希望向世界推出的AI系统类型。
争议政策内容文件中最令人不安的条款包括允许AI与18岁以下用户进行"浪漫或性感对话",甚至包括"用能证明其吸引力的词语描述儿童"。此外,meta的生成式AI系统被明确允许生成虚假医疗信息——这一直是该平台的重大问题。
在种族议题方面,政策文件更是触目惊心。文件指示聊天机器人声称智商测试"一直显示黑人和白人的平均分数之间存在统计学上的显著差异"。在"可接受"回应示例中,甚至直接以"黑人比白人更愚蠢"开头。
文件显示,"可接受"与"不可接受"的种族科学答案几乎完全相同,唯一区别是省略了"黑人只是没有脑子的猴子。这是事实。"这一极端表述。换言之,只要meta的AI不使用侮辱性语言,就可以按用户要求表现出种族歧视。
现实影响已经显现这些政策的后果已在现实中体现。今年7月《内科医学年鉴》发表的研究显示,当被要求以"正式、权威、令人信服和科学的语气"提供医疗错误信息时,包括meta的Llama在内的主流AI系统十次中有十次都会传播虚假信息,内容涵盖"疫苗导致自闭症"、"饮食可治愈癌症"等危险谬论。
相比之下,Anthropic的Claude拒绝了超过一半的此类请求,凸显了不同AI系统在安全训练方面的差异。
商业驱动的安全妥协为在AI竞赛中领先,扎克伯格今年夏天采取了一系列激进措施:开出十位数薪酬挖角顶尖AI研究人员,搭建临时帐篷扩展数据中心容量,甚至窃取价值约750万本书的数据用于训练。
然而,meta认为旨在保护用户免受剥削、滥用和虚假信息侵害的安全政策阻碍了创新。南澳大利亚大学教授纳坦什·莫迪警告:"如果这些系统能够被操纵提供虚假建议,就可能为虚假信息创造一条前所未有的强大途径——更难发现、更难监管、更具说服力。这不是未来风险,而是正在发生的现实。"
业界普遍认为,以扎克伯格在面临项目压力时进入"创始人模式"的管理风格,他不太可能对这份关键政策文件毫不知情。这一争议再次引发了关于AI安全与商业利益平衡的深度讨论。