少找工具,多做创作

蚂蚁集团联合上交发布F2LLM-v2 斩获11项MTEB榜单冠军

2026年3月26日,蚂蚁集团CodeFuse团队联合上海交通大学正式发布全尺寸多语种F2LLM-v2系列Embedding嵌入模型。该模型在全球权威语义表征评测MTEB中拿下11项榜单SOTA,支持282种自然语言与40余种编程语言,目前已全开源向全球开发者开放,旨在打破语义表征领域长期存在的“英语中心主义”壁垒。

在大模型应用落地的产业链中,嵌入模型(Embedding)是连接用户query、知识库与大模型的核心中间件,但长期以来,全球主流嵌入模型的训练语料均以英语为主,非英语语种的语义表征精度普遍偏低,多语种应用开发一直存在较高的技术门槛。

F2LLM-v2MTEB榜单表现

作为全球衡量嵌入模型性能最权威的基准,MTEB榜单的测试覆盖多语种理解、代码检索、医疗问答等430个细分场景,是全球开发者选型嵌入模型的核心参考指标。本次发布的F2LLM-v2系列模型在该榜单中拿下11个细分赛道的冠军,覆盖德语、法语、日语等多个非英语语种榜单及代码检索等垂直领域。

哪怕是该系列中的轻量级版本,在同参数尺寸下的表现也多次击败了业界主流的知名嵌入模型,实现了跨级性能突破。据官方披露,F2LLM-v2系列目前可支持282种自然语言与40余种编程语言的语义表征,基本覆盖全球绝大多数国家和地区的商用语言需求。

此前全球主流嵌入模型的训练语料中,英语占比普遍超过70%,小语种、非英语地区的开发者想要获得符合当地语言习惯的语义表征能力,往往需要投入大量算力二次微调,开发成本居高不下。

蚂蚁CodeFuse团队与上海交通大学的联合研发团队针对这一痛点,大幅提升了训练语料中的非英语占比,同时优化了模型的跨语言注意力机制,在保证模型效率的前提下大幅提升了多语种表征精度。同时该系列模型采用全尺寸设计,覆盖从1B以内的轻量级版本到百亿级参数的高性能版本,开发者可根据自身的算力储备、应用场景灵活选型,且所有版本均全开源免费商用,进一步降低了使用门槛。

嵌入模型是检索增强生成(RAG)、语义搜索、智能客服、内容推荐等诸多AI应用的核心基础组件,F2LLM-v2的开源,相当于为全球尤其是非英语地区的开发者提供了开箱即用的SOTA级语义表征工具。

有业内人士测算,对于中小开发团队而言,使用开源的F2LLM-v2替代此前的商用嵌入模型服务,单项目的年成本可降低至少40%,同时出海应用的多语种适配周期可缩短60%以上,将进一步推动多语种AI应用的普及。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创