前谷歌TPU资深工程师创立的AI芯片初创企业MatX近期完成5亿美元B轮融资,世芯电子等半导体巨头战略参与。其研发的MatX One芯片采用创新“可分割脉动阵列”架构,突破大语言模型推理中“高吞吐”与“低延迟”难以兼得的行业痛点,为AI推理算力场景提供新解决方案。
当越来越多企业开始部署大语言模型用于客户服务、内容生成等场景时,一个尖锐的矛盾正在凸显:如何在保障上千并发请求处理能力(高吞吐)的同时,让单条请求的响应速度维持在用户可接受的范围内(低延迟)。这一长期困扰AI算力行业的难题,成为MatX团队攻坚的核心方向。
此次MatX完成的B轮融资规模达5亿美元,约合人民币34.45亿元,除传统财务投资方外,世芯电子、美满电子等全球半导体头部企业以战略投资者身份参与其中。值得注意的是,MatX的核心创始团队均为前谷歌TPU项目的资深工程师,他们曾深度参与多代TPU芯片的架构设计与优化,在AI专用算力领域拥有深厚的技术积累,这也是资本与行业伙伴看重的核心壁垒。
MatX针对行业痛点推出的MatX One芯片,核心优势在于其独创的可分割脉动阵列架构。传统AI芯片的脉动阵列多为固定尺寸,在处理不同规模的LLM推理任务时难以兼顾效率;而可分割脉动阵列可根据任务需求灵活拆分组合,同时融合了SRAM的极低延迟特性与HBM的长上下文处理能力,有望在大规模并发场景下同时实现低延迟与高吞吐的双重优化,突破当前LLM推理的算力瓶颈。
当前全球AI推理芯片赛道已进入密集竞逐期。SambaNova、Positron等专注AI专用芯片的创企均已推出针对LLM场景的产品,英特尔、英伟达等传统巨头也在加速迭代推理算力解决方案。对于MatX而言,5亿美元融资为其提供了充足的量产与商业化资金,但如何快速将MatX One芯片对接至企业级LLM部署场景,验证技术的实际落地效果,将是其抢占市场份额的核心挑战。