登录体验完整功能(收藏、点赞、评论等)

印度Sarvam发布两款原生MoE大模型 性能超越谷歌Gemini同类产品

印度Sarvam发布两款原生MoE大模型 性能超越谷歌Gemini同类产品

当地时间2月18日,印度AI实验室Sarvam在印度人工智能影响力峰会上推出两款从零构建的MoE架构大语言模型,其中旗舰型号105B-A9B在印度本地语言基准测试中表现优于谷歌Gemini 2.5 Flash。两款模型即将在Hugging Face开放开源权重,后续还将提供API访问和仪表盘支持,为印度本土AI生态注入新动力。

MoE(混合专家)作为当前大语言模型领域的主流架构之一,通过稀疏激活机制让模型仅调用特定专家模块处理对应任务,在保证核心性能的同时大幅降低推理成本,尤其适配印度多语言、多场景的复杂市场需求。此次Sarvam发布的两款模型均为原生MoE架构,从训练数据到模型结构均围绕印度本土语言特性打造,而非基于通用模型微调,这也是其能在本地场景脱颖而出的核心原因。

定位轻量化的30B-A1B模型,预训练数据集规模达到16万亿tokens,支持32K上下文窗口,主打低延迟响应能力。该模型专为实时客服、语音助手、即时翻译等对速度要求极高的场景设计,能够在普通消费级硬件上实现高效推理,为中小企业降低AI应用的落地门槛——此前这类企业往往因成本问题难以接入高质量大模型。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创