登录体验完整功能(收藏、点赞、评论等) — 已累计有 8663 人加入

让AI触手可及,让应用激发潜能

英伟达发布Nemotron 3 Super开源大模型 推理速度提升300%

2026年3月12日,英伟达(NVIDIA)正式发布专为AI智能体设计的开源大模型Nemotron 3 Super。该模型采用Mamba-MoE混合架构,总参数达1200亿、激活参数仅120亿,推理速度提升300%、吞吐量上涨5倍,支持1M超长上下文,多项权威测评表现突出,发布后迅速成为开源社区关注焦点。

在闭源大模型不断拉高性能上限的当下,开源阵营的效率突破往往更能牵动整个开发者生态的神经。英伟达此次发布的Nemotron 3 Super,没有一味堆高参数规模,而是瞄准AI智能体落地的核心痛点做了针对性优化,也让开源模型的商用价值再上一个台阶。

不同于传统大模型的Transformer架构,Nemotron 3 Super采用了创新的Mamba-MoE混合架构,总参数规模达到1200亿,但单次推理的激活参数仅为120亿,仅为总参数的十分之一。这种设计在保留大模型通用能力的同时,直接将推理速度提升300%,吞吐量更是暴涨5倍,大幅降低了大模型的部署和调用成本。

此外,该模型还支持1M超长上下文窗口,可一次性容纳数十万字的交互信息,有效解决了多智能体协同场景中常见的“目标跑偏”“上下文爆炸”等行业共性问题,为复杂任务的多智能体调度提供了稳定的底座支撑。

在Artificial Analysis发布的最新大模型评测榜单中,Nemotron 3 Super同时登顶效率榜与开放性榜两大核心榜单,综合任务表现已经接近闭源头部模型GPT-5.4的水平,打破了此前开源大模型与闭源产品之间的性能断层。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创