在语义表征领域,打破“英语中心主义”的壁垒正成为大模型进化的新战场。
3月26日,蚂蚁集团 CodeFuse 团队 联合 上海交通大学 正式发布了 F2LLM-v2系列 Embedding 模型。该系列模型不仅在权威评测中展现了统治级的表现,更以全开源的姿态,为全球开发者提供了一套兼顾高性能与极致效率的语义表征方案。
实力霸榜:MTEB 评测横扫11项 SOTA
在衡量 Embedding 模型最权威的 MTEB 榜单中,F2LLM-v2 展现了全方位的领先优势:
11项冠军: 在德语、法语、日语以及代码检索等11个语种和领域榜单中位列第一。
跨级挑战: 即便是家族中的轻量级成员,在同尺寸下也多次击败了业界知名大模型。
深度覆盖: 评测任务涵盖医疗问答、代码检索等430个细分场景,实现了无死角覆盖。
全能理解:精通282种自然语言与40+ 种代码
F2LLM-v2 的强悍源于其极其包容的训练底座:
多语种强化: 特别加强了对中低资源语言(如北欧语系、东南亚语系等)的支持,真正实现了全球化覆盖。
编程专家: 深入理解 Python、Java、Go 等40多种编程语言,是 RAG(检索增强生成)和代码助手开发者的理想选择。
高质量样本: 依托6000万经过严苛清洗的公开资源样本,确保了模型知识的纯粹性与广泛性。
极致高效:从80M 到14B 的全尺寸家族
为了适配从移动端到云端的全场景需求,CodeFuse 团队 打造了完整的模型矩阵:
端侧友好:80M-330M 的小模型采用“模型裁剪”与“知识蒸馏”技术,可在移动设备上流畅运行。
“套娃”黑科技: 支持动态维度调整,用户可以在8维到全维度之间自由切换,在推理速度与存储成本之间找到完美平衡。
纯粹开源:透明度定义社区标准
不同于许多“黑盒”模型,F2LLM-v2 坚持走完全开源路线:
全量开放: 所有尺寸的模型权重均已开放下载。
细节透明: 公布完整技术报告,揭秘训练全过程。
可复现性: 释放全部代码与检查点,鼓励全球研究者在此基础上进行二次开发。
结语:打破壁垒,探索 AI 无限可能
作为 CodeFuse 开源系列 的又一力作,F2LLM-v2 的发布不仅提升了多语言 RAG 的准确率,更为全球开发者提供了一个公平、透明且高性能的技术底座。在 AI 席卷全球的今天,听懂世界,从每一个精准的 Embedding 开始。





京公网安备 11011402013531号