当前位置: 首页 » 资讯 » 新科技 » 正文

横扫 11 项榜单冠军!蚂蚁集团发布 F2LLM-v2:全尺寸、多语种的“六边形”嵌入模型

IP属地 中国·北京 编辑:沈瑾瑜 Chinaz 时间:2026-03-26 16:36:58

在语义表征领域,打破“英语中心主义”的壁垒正成为大模型进化的新战场。

3月26日,蚂蚁集团 CodeFuse 团队 联合 上海交通大学 正式发布了 F2LLM-v2系列 Embedding 模型。该系列模型不仅在权威评测中展现了统治级的表现,更以全开源的姿态,为全球开发者提供了一套兼顾高性能与极致效率的语义表征方案。

实力霸榜:MTEB 评测横扫11项 SOTA

在衡量 Embedding 模型最权威的 MTEB 榜单中,F2LLM-v2 展现了全方位的领先优势:

11项冠军: 在德语、法语、日语以及代码检索等11个语种和领域榜单中位列第一。

跨级挑战: 即便是家族中的轻量级成员,在同尺寸下也多次击败了业界知名大模型。

深度覆盖: 评测任务涵盖医疗问答、代码检索等430个细分场景,实现了无死角覆盖。

全能理解:精通282种自然语言与40+ 种代码

F2LLM-v2 的强悍源于其极其包容的训练底座:

多语种强化: 特别加强了对中低资源语言(如北欧语系、东南亚语系等)的支持,真正实现了全球化覆盖。

编程专家: 深入理解 Python、Java、Go 等40多种编程语言,是 RAG(检索增强生成)和代码助手开发者的理想选择。

高质量样本: 依托6000万经过严苛清洗的公开资源样本,确保了模型知识的纯粹性与广泛性。

极致高效:从80M 到14B 的全尺寸家族

为了适配从移动端到云端的全场景需求,CodeFuse 团队 打造了完整的模型矩阵:

端侧友好:80M-330M 的小模型采用“模型裁剪”与“知识蒸馏”技术,可在移动设备上流畅运行。

“套娃”黑科技: 支持动态维度调整,用户可以在8维到全维度之间自由切换,在推理速度与存储成本之间找到完美平衡。

纯粹开源:透明度定义社区标准

不同于许多“黑盒”模型,F2LLM-v2 坚持走完全开源路线:

全量开放: 所有尺寸的模型权重均已开放下载。

细节透明: 公布完整技术报告,揭秘训练全过程。

可复现性: 释放全部代码与检查点,鼓励全球研究者在此基础上进行二次开发。

结语:打破壁垒,探索 AI 无限可能

作为 CodeFuse 开源系列 的又一力作,F2LLM-v2 的发布不仅提升了多语言 RAG 的准确率,更为全球开发者提供了一个公平、透明且高性能的技术底座。在 AI 席卷全球的今天,听懂世界,从每一个精准的 Embedding 开始。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。