当前位置: 首页 » 资讯 » 新科技 » 正文

Liquid AI 发布 LFM2.5:一款面向边缘设备的小型 AI 模型家族

IP属地 中国·北京 编辑:冯璃月 Chinaz 时间:2026-01-07 16:22:06

Liquid AI 最近推出了 LFM2.5,这是一个新一代的小型基础模型家族,基于 LFM2架构,专注于边缘设备和本地部署。该模型家族包括 LFM2.5-1.2B-base 和 LFM2.5-1.2B-Instruct,同时扩展了日语、视觉语言和音频语言的变种。这些模型以开源权重形式发布在 Hugging Face 上,并通过 LEAP 平台进行展示。

LFM2.5保留了针对 CPU 和 NPU 设计的混合 LFM2架构,旨在实现快速且内存高效的推理。该模型的预训练阶段将参数扩展至1.2亿,训练数据从10万亿个 tokens 扩展至28万亿个 tokens。随后,指令变体模型还进行了监督微调、偏好对齐和大规模多阶段强化学习,专注于指令跟随、工具使用、数学和知识推理。

在文本模型性能方面,LFM2.5-1.2B-Instruct 是主要的通用文本模型。Liquid AI 团队在 GPQA、MMLU Pro、IFeval、IFBench 等多个基准上报告了表现,模型在 GPQA 上达到了38.89,在 MMLU Pro 上达到了44.35。这些分数明显高于其他同类开源模型,如 Llama-3.2-1B Instruct 和 Gemma-3-1B IT。

此外,LFM2.5-1.2B-JP 是专门为日语优化的文本模型,针对日语的 JMMLU、M-IFeval 和 GSM8K 等任务进行了优化。这个检查点在日语任务上超越了一般指令模型,并在这些本地基准测试中与其他小型多语言模型相竞争。

在多模态边缘工作负载方面,LFM2.5-VL-1.6B 是该系列更新的视觉语言模型,结合了图像理解的视觉模块。该模型经过调优,支持文档理解、用户界面读取和多图像推理等实际应用,能够在边缘环境中高效运行。

LFM2.5-Audio-1.5B 是一个原生音频语言模型,支持文本和音频输入输出,采用了一种新的音频反 tokenizer,其速度比之前的方案快八倍,适用于实时语音到语音的对话代理和自动语音识别等任务。

https://www.liquid.ai/blog/introducing-lfm2-5-the-next-generation-of-on-device-ai

划重点:

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新