MiniMax发布M2.5-HighSpeed 推理速度较同类提升3倍

1 小时前 AI快讯 1

MiniMax发布M2.5-HighSpeed 推理速度较同类提升3倍

继M2.5多模态大模型发布48小时内收获行业广泛关注后,MiniMax日前推出专为Agent场景优化的M2.5-HighSpeed高速版模型。该模型支持最高100TPS的极速推理能力,速度达同类产品3倍,同时配套推出分层Coding服务套餐,目前M2.5系列已接入50+国内外知名产品与平台,为AI Agent规模化落地提供了新的效率支撑。

在AI Agent成为产业落地核心赛道的当下,大模型的推理效率直接决定了应用的用户体验与商业可行性。相较于通用大模型,Agent需要处理多轮实时交互、多任务并行调度等复杂需求,对响应速度、并发承载能力提出了更高要求——比如电商大促时的智能客服、企业内部的多用户协同助手,一旦推理速度不足,就会出现“排队等待”“响应延迟”等问题,直接影响用户信任度与企业运营效率。

此前MiniMax发布的M2.5多模态大模型,凭借均衡的性能与场景适配性,上线短短48小时便吸引了大量开发者与企业关注,截至目前已成功接入超过50家国内外知名产品和平台,覆盖智能客服、内容生成、企业助手等多个领域。而此次推出的M2.5-HighSpeed,正是瞄准Agent场景的核心痛点而来。该模型实现了最高100TPS的推理性能,较同类产品速度提升3倍——这意味着在相同算力投入下,M2.5-HighSpeed能够同时处理3倍于竞品的用户请求,大幅降低单请求的推理成本。对于需要支撑百万级用户同时交互的Agent应用而言,这种级别的速度提升,直接让规模化落地从“理论可行”变成“实际可操作”。值得注意的是,M2.5-HighSpeed由华为云提供算力支撑,依托华为云的高性能AI基础设施与分布式计算框架,确保了极速推理的稳定性与可靠性,避免了高并发场景下的性能波动。

除了性能升级,MiniMax还同步推出了全新的Coding Plan服务体系,包含Plus、Max、Ultra三个分层套餐。从行业常规服务模式推测,Plus套餐大概率面向中小开发者与初创团队,以高性价比满足基础开发与测试需求;Max套餐针对中型企业,提供更丰富的功能接口与技术支持,适配日常业务的稳定运行;Ultra套餐则为大型企业或超大规模应用定制,涵盖专属算力资源、深度模型优化、7×24小时专属服务等。这种分层服务模式,能够精准匹配不同用户的成本预算与业务规模,进一步降低AI Agent应用的开发门槛。

资深AI产业分析师张磊指出,当前大模型市场的竞争已从“参数竞赛”转向“落地竞赛”,场景化优化与性能效率成为核心竞争力。MiniMax在M2.5基础上快速迭代推出高速版,精准切中Agent场景的效率痛点,不仅能帮助现有合作客户提升应用体验,也将吸引更多对延迟敏感的企业用户入局。

随着AI Agent应用的加速普及,大模型的推理速度、成本控制能力将成为衡量厂商竞争力的关键指标。MiniMax凭借M2.5系列的快速迭代与场景化布局,在多模态大模型落地赛道抢占了先机,未来其或许还会在更多细分场景推出针对性优化方案,推动AI技术从实验室走向更广泛的产业端应用。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创