9月17日消息,由DeepSeek团队共同完成、梁文锋担任通讯作者的DeepSeek-R1推理模型研究论文,登上了国际权威期刊《自然(Nature)》的封面。《自然》杂志还公布了同行评审报告,DeepSeek-R1也成为全球首个经过同行评审的主流大语言模型。
发表在《自然》杂志的新版DeepSeek-R1论文,与今年1月未经同行评审的初版有较大差异,披露了更多模型训练的细节,并正面回应了模型发布之初的蒸馏质疑。
DeepSeek-R1发布之初,曾有传闻称该模型使用了OpenAI的模型进行蒸馏。在同行评审文件中,DeepSeek介绍,DeepSeek-R1的基座模型DeepSeek-V3 base使用的数据全部来自互联网,可能包含GPT-4生成的结果,但绝非有意而为之,DeepSeek-V3-base并没有引入在合成数据集上进行大规模监督蒸馏的“冷却”阶段。。
DeepSeek-V3-base的数据截止时间为2024年7月,当时尚未发布任何公开的先进推理模型,这进一步降低了从现有推理模型中无意蒸馏的可能性。
DeepSeek为DeepSeek-R1新增了一份全面的安全报告,对DeepSeek-R1的安全性进行了全面评估,证明其安全性领先同期发布的前沿模型。
报告提到,DeepSeek-R1在服务部署中引入了外部风险控制系统,不仅可以基于关键词匹配识别不安全对话,还使用DeepSeek-V3直接进行风险审查,判断是否应拒绝响应。DeepSeek建议开发者在使用DeepSeek-R1时,部署类似的风险控制系统。
在公开安全基准测试和内部安全研究中,DeepSeek-R1在大多数基准上超过了Claude-3.7-Sonnet、GPT-4o等前沿模型。开源部署版本的安全性虽不及具备外部风险控制系统的版本,但仍拥有中等水平的安全保障。
《自然》杂志评价道:目前几乎所有主流的大模型都还没有经过独立同行评审,这一空白“终于被DeepSeek打破”。随着AI技术日渐普及,大模型厂商们无法验证的宣传可能对社会带来真实风险。依靠独立研究人员进行的同行评审,是抑制AI行业过度炒作的一种有效方式。(宜月)