登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

科大讯飞发布星火X2-Flash大模型 国产算力支撑256K超长上下文

2026年4月29日,科大讯飞正式发布星火X2-Flash大模型。该模型采用MoE混合专家架构,总参数量30B,支持256K超长上下文,全程基于华为昇腾910B算力集群训练完成,Agent、代码生成能力对标万亿参数级顶尖模型,Token消耗仅为主流大尺寸模型的三分之一,目前已同步开放API接口。

在国内大模型行业普遍纠结于算力供给、落地成本两大核心难题的当下,讯飞这款新品的发布,恰好给行业提供了一个兼顾自主可控、性能、成本的新选项。

本次发布的星火X2-Flash最特殊的属性,是其从预训练到微调的全流程都跑在华为昇腾910B集群上,而非部分环节采用国产算力。这背后是讯飞算法团队和华为昇腾软硬件团队长达数月的联合调优,解决了MoE架构在国产算力集群上的路由调度、并行训练等多个技术难题。

其搭载的256K上下文窗口相当于可以一次性处理近20万字的完整文本,不管是整份行业深度研报、几十万行的代码项目库,还是长达数周的智能体对话记录,都不需要做碎片化拆分,大幅降低了长文本任务的处理误差。

根据第三方机构的实测数据,星火X2-Flash在智能体任务调度、代码生成、复杂逻辑推理等核心场景的表现,已经可以比肩业界万亿参数级的顶尖大模型。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创