登录体验完整功能(收藏、点赞、评论等)

微软必应开源Harrier嵌入模型 27B旗舰版登顶多语言基准测试

2026年4月微软必应团队正式开源Harrier系列词嵌入模型,包含27B、2.7B、0.6B三个参数版本,旗舰27B模型在MTEB v2多语言基准测试中超越OpenAI、谷歌Gemini等主流专有模型登顶。该系列支持超100种语言,上下文窗口达32000词元,采用20亿真实样本加GPT-5合成数据训练,全版本通过MIT许可开放至Hugging Face平台。

4月7日,微软必应团队在官方开发者社区公布了这一筹备超过18个月的嵌入模型项目,与此前行业常见的闭源商用嵌入模型不同,Harrier系列从立项之初就确定了全参数开源的路线,核心目标是降低全球开发者使用高性能多语言嵌入能力的门槛。

本次开源的Harrier系列共包含三款不同参数规模的模型,除了主打性能的**270亿参数旗舰版**之外,还同步推出了**27亿参数**和**6亿参数**的轻量化版本。所有版本均采用**MIT许可证**开放,开发者可自由修改、商用,无需支付版权费用,目前已全部上传至Hugging Face模型库。

其中轻量化版本可直接部署在消费级显卡甚至端侧设备上,适配边缘检索、离线AI助手等低算力场景,旗舰版则面向云端大规模搜索系统、企业级RAG应用等对准确率要求更高的场景。

在全球通用的**MTEB v2多语言嵌入基准测试**中,Harrier 27B模型的综合得分超过了OpenAI、亚马逊云科技、谷歌Gemini对应的主流闭源嵌入模型,位居总榜第一。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创