印度Sarvam发布两款原生MoE大模型 性能超越谷歌Gemini同类产品 当地时间2月18日,印度AI实验室Sarvam在印度人工智能影响力峰会上推出两款从零构建的MoE架构大语言模型,其中旗舰型号105B-A9B在印度本地语言基准测试中表现优于谷歌Gemini 2.5 Flash。两款模型即将在Hugging Face开放开源权重,后续还将提供API访问和仪表盘支持,为印度本土AI生态注入新动力。 MoE(混合专家)作为当前大语言模型领域的主流架构之一,通过稀疏激活机制让模型仅调用特定专家模块处理对应任务,在保证核心性能的同时大幅降低推理成本,尤其适配印度多语言、多场景的复杂市场需求。此次Sarvam发布的两款模型均为原生MoE架构,从训练数据到模型结构均围绕印度本土语言特性打造,而非基于通用模型微调,这也是其能在本地场景脱颖而出的核心原因。 定位轻量化的30B-A1B模型,预训练数据集规模达到16万亿tokens,支持32K上下文窗口,主打低延迟响应能力。该模型专为实时客服、语音助手、即时翻译等对速度要求极高的场景设计,能够在普通消费级硬件上实现高效推理,为中小企业降低AI应用的...