登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

蚂蚁发布百灵Ling-2.6-flash大模型 推理成本仅为同类产品1/10

2026年4月22日,蚂蚁集团正式发布旗下百灵大模型迭代产品Ling-2.6-flash Instruct。该模型总参数量达104B,运行时激活参数仅7.4B,据国际权威机构Artificial Analysis评测,其完成同等任务仅消耗15M tokens,推理成本仅为Nemotron-3-Super等主流同类模型的十分之一,凭极高“智效比”引发AI行业广泛关注。

大模型行业的参数竞赛持续了3年之后,越来越多的从业者意识到,高昂的推理成本已经成为AI规模化落地的最大阻碍。正是在这样的行业共识下,蚂蚁集团的新模型甫一发布就吸引了全行业的目光。

过去两年,全球头部科技企业普遍将大模型研发的核心目标放在提升绝对性能上,百亿、千亿级参数模型层出不穷,但这类模型普遍存在推理成本高、部署门槛高的问题,大量中小开发者、垂直行业客户难以负担相关开支。随着AI应用进入规模化落地期,行业需求已经从“追求最强性能”转向“追求最合适的性能成本比”,低能耗、高效率的大模型产品成为市场刚需。

此次发布的Ling-2.6-flash采用了稀疏大模型架构设计,总参数量达到104B,运行过程中实际激活的参数仅为7.4B,既保留了百亿级大模型的理解、推理能力,又大幅降低了运算过程中的资源消耗。

根据国际权威评测机构Artificial Analysis的最新测试数据,Ling-2.6-flash完成同等复杂程度的推理任务仅消耗15M tokens,这一数据仅为Nemotron-3-Super等主流同级别大模型的十分之一,意味着开发者可以用十分之一的成本获得同等水平的智能输出。据了解,该模型在正式发布前已经完成了为期一周的匿名压力测试,运行稳定性、响应速度均达到商用标准。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创