6月9日,小红书开源首个大模型dots.llm1。该模型为1420亿参数专家混合模型(MoE),推理仅激活140亿参数,降成本且高性能。
dots.llm1使用11.2万亿token非合成高质量数据,在中文测试中以91.3分超DeepSeek V2、V3及阿里Qwen2.5部分模型。
免责声明:本文内容与数据由观点根据公开信息整理,不构成投资建议,使用前请核实。
6月9日,小红书开源首个大模型dots.llm1。该模型为1420亿参数专家混合模型(MoE),推理仅激活140亿参数,降成本且高性能。
dots.llm1使用11.2万亿token非合成高质量数据,在中文测试中以91.3分超DeepSeek V2、V3及阿里Qwen2.5部分模型。
免责声明:本文内容与数据由观点根据公开信息整理,不构成投资建议,使用前请核实。
免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。
热门推荐