Liquid AI 最近推出了 LFM2.5,这是一个新一代的小型基础模型家族,基于 LFM2架构,专注于边缘设备和本地部署。该模型家族包括 LFM2.5-1.2B-base 和 LFM2.5-1.2B-Instruct,同时扩展了日语、视觉语言和音频语言的变种。这些模型以开源权重形式发布在 Hugging Face 上,并通过 LEAP 平台进行展示。
LFM2.5保留了针对 CPU 和 NPU 设计的混合 LFM2架构,旨在实现快速且内存高效的推理。该模型的预训练阶段将参数扩展至1.2亿,训练数据从10万亿个 tokens 扩展至28万亿个 tokens。随后,指令变体模型还进行了监督微调、偏好对齐和大规模多阶段强化学习,专注于指令跟随、工具使用、数学和知识推理。
在文本模型性能方面,LFM2.5-1.2B-Instruct 是主要的通用文本模型。Liquid AI 团队在 GPQA、MMLU Pro、IFeval、IFBench 等多个基准上报告了表现,模型在 GPQA 上达到了38.89,在 MMLU Pro 上达到了44.35。这些分数明显高于其他同类开源模型,如 Llama-3.2-1B Instruct 和 Gemma-3-1B IT。
此外,LFM2.5-1.2B-JP 是专门为日语优化的文本模型,针对日语的 JMMLU、M-IFeval 和 GSM8K 等任务进行了优化。这个检查点在日语任务上超越了一般指令模型,并在这些本地基准测试中与其他小型多语言模型相竞争。
在多模态边缘工作负载方面,LFM2.5-VL-1.6B 是该系列更新的视觉语言模型,结合了图像理解的视觉模块。该模型经过调优,支持文档理解、用户界面读取和多图像推理等实际应用,能够在边缘环境中高效运行。
LFM2.5-Audio-1.5B 是一个原生音频语言模型,支持文本和音频输入输出,采用了一种新的音频反 tokenizer,其速度比之前的方案快八倍,适用于实时语音到语音的对话代理和自动语音识别等任务。
https://www.liquid.ai/blog/introducing-lfm2-5-the-next-generation-of-on-device-ai
划重点:





京公网安备 11011402013531号